ไม่เหมือนที่คุยกันไว้ Apple เผยโมเดลคิดเชิงลึกไม่ได้คิดจริง
งานวิจัยใหม่จาก Apple เผยโมเดล AI ชั้นนำยัง “ไม่สามารถคิดได้จริง” การแก้ปัญหาเป็นเพียงการเดาคำตอบ ไม่ใช่กระบวนการคิดตามตรรกะอย่างแท้จริง
ทีมวิจัยของ Apple เปิดรายงานวิจัยฉบับล่าสุด กับการทดสอบวิธีการคิดของโมเดล AI คิดเชิงลึก รูปแบบยอดนิยมของโมเดล AI ของหลายบริษัท โดยทดสอบวิธีการคิดและถูกต้องแม่นยำของข้อมูล ก่อนพบว่าโมเดลคิดเชิงลึกที่ใช้งาน ไม่สามารถ “คิด” ได้จริงตามที่ถูกกล่าวอ้าง
การทดสอบของพวกเขาจะนำโจทย์ฝึกการเขียนโปรแกรมอย่าง Tower of Hanoi ที่สามารถปรับความยากได้อิสระ โดยทดสอบร่วมกับโมเดลที่เปิดให้ใช้งานตามท้องตลอด ตั้งแต่ OpenAI o3, DeepSeek-R1, Claude 3.7 Thinking, และ Gemini Thinking เพื่อสำรวจขีดความสามารถการคิดของโมเดลผ่านการตรวจสอบแนวทางการคิด
จากการทดสอบพบว่าโมเดลไม่ได้คิดได้จริงๆ AI ไม่ได้คิดแบบมีตรรกะเป็นขั้นตอน แต่อาศัยการคาดเดาคำตอบและรูปแบบที่น่าจะถูกในฐานข้อมูลไปเรื่อยๆ ยืนยันได้จากการใช้โจทย์เดิมแต่เปลี่ยนเงื่อนไขเล็กน้อย แต่โมเดลไม่สามารถหาคำตอบได้เหมือนเดิม
อันดับถัดมาคือ หลายครั้งเมื่อเจอโจทย์หลอกล่อหรือมีความซับซ้อนมาก โมเดลจะหยุดกระบวนการคิดหาคำตอบแม้จะยังมีโควตาโทเคนเหลืออยู่ และพยายามหาทางบิดข้อมูลที่มีเพื่อนำไปสู่ข้อสรุปให้ได้ แตกต่างจากการคิดจริงที่เมื่อไม่ได้คำตอบก็จะลองคิดต่อหรือย้อนกลับไปเริ่มต้นคิดใหม่
การคิดของโมเดลก็เป็นแบบไม่ต่อเนื่อง ไม่ได้คิดเป็นขั้นเป็นตอนตามรูปแบบที่ถูกต้อง บางครั้งคิดกระโดดข้ามไปมาจนผิดซ้ำซากนำไปสู่การมั่วข้อมูล และแม้จะลองป้อนคำตอบที่ถูกต้องไปอีกครั้งเพื่อให้มันลองแก้ไขวิธีการคิดก็ยังไม่สามารถไปถึงคำตอบเพราะไม่นำไปใช้งาน เหมือนโมเดลดเริ่มขี้เกียจคิดจนสร้างคำตอบขึ้นมาเอง
นี่จึงเป็นอีกตัวอย่างที่แสดงให้เห็นว่า การคิดที่เราเห็นจากโมเดล เป็นเพียง illusion of thinking เท่านั้น


