งานวิจัยหลายชิ้นล่าสุดได้ทดสอบโมเดล AI ที่ล้ำที่สุด และพบข้อจำกัดที่น่ากังวล 3 ประการ:
1. ปริศนาง่ายๆ ที่ AI ไปไม่เป็น
ทีมนักวิจัยที่ Apple ได้ทดสอบ AI กับปริศนาตรรกะ เช่น เกม "หอคอยฮานอย" (Tower of Hanoi) พบว่าแม้โมเดลจะแก้ปริศนาระดับง่ายที่สุดได้ แต่กลับ "ไปไม่เป็น" ทันทีเมื่อเพิ่มความซับซ้อน เช่น เพิ่มจำนวนวงแหวน ที่น่าตกใจคือ ยิ่งปัญหาสลับซับซ้อนขึ้น โมเดล AI กลับใช้หน่วยข้อมูล(Tokens)ในการคิด "น้อยลง" ซึ่งบ่งชี้ว่าเวลา "การคิด" ที่นานขึ้นนั้นอาจเป็นแค่ภาพลวงตา
2. ยิ่งคิดนาน... ยิ่งมั่ว?
ทีมงานจาก University of Maryland พบว่ากระบวนการ "ลูกโซ่แห่งความคิด" ที่ยาวขึ้น กลับทำให้ ความแม่นยำในการแก้ปัญหาทางคณิตศาสตร์ "ลดลง" การให้ AI ใช้เวลาคิดมากขึ้น 10-15 เท่า กลับทำให้คะแนนลดลงถึง 17%! นี่คือความย้อนแย้งที่ท้าทายความเชื่อว่าการคิดนานขึ้นจะนำไปสู่คำตอบที่ดีขึ้นเสมอไป
3. คำตอบถูกโดยบังเอิญ?
ในการทดสอบให้ AI หาทางออกจากเขาวงกตง่ายๆ ทีมจาก Arizona State University พบว่า แม้ AI จะให้ "คำตอบสุดท้าย" ที่ถูกต้อง แต่เมื่อไปดูขั้นตอนการให้เหตุผล กลับเต็มไปด้วยข้อผิดพลาด! และที่น่าตกใจที่สุดคือ: การป้อน "ลูกโซ่แห่งความคิดที่ไม่มีความหมาย" หรือข้อมูลมั่วๆ เข้าไปให้ AI กลับทำให้มันให้คำตอบที่ดีขึ้นได้
กระแสความตื่นตัวเรื่อง AI ในประเทศไทยนั้นร้อนแรงไม่แพ้ที่ใดในโลก เราเห็นการลงทุนและการพูดถึงการนำ AI มาพลิกโฉมธุรกิจ, การศึกษา, และภาครัฐอย่างต่อเนื่อง
1. Shojaee, P., et al. (2025). The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity. arXiv. http://doi.org/prw2
2. Ghosal, S. S., et al. (2025). Does Thinking More always Help? Understanding Test-Time Scaling in Reasoning Models. arXiv. http://doi.org/prw3
3. Stechly, K., et al. (2025). Beyond Semantics: The Unreasonable Effectiveness of Reasonless Intermediate Tokens. arXiv. http://doi.org/prw4