เมื่อวาน เวลา 00:00 • วิทยาศาสตร์ & เทคโนโลยี

🤖 AI 'คิด' ได้จริงหรือ? | เจาะเบื้องหลัง 'เหตุผลลวงตา' ที่ CEO ไม่ได้บอกคุณ

ในปี 2030 มนุษย์จะรักษาสารพัดโรคร้าย, พบแหล่งพลังงานใหม่, และเข้าสู่ยุคทองที่รุ่งเรืองที่สุด... นี่คือวิสัยทัศน์ที่ CEO ของบริษัท AI ยักษ์ใหญ่อย่าง แซม อัลต์แมน (Sam Altman) จาก OpenAI และ เดมิส ฮัสซาบิส (Demis Hassabis) จาก Google DeepMind กำลังบอกกับเรา
แต่ในขณะเดียวกัน นักวิจัยที่ทำงานกับ AI เหล่านี้กลับพบความจริงที่แตกต่าง เมื่อโมเดลที่เก่งที่สุดกลับแก้ "เกมปริศนาง่ายๆ" ไม่ผ่าน... สรุปแล้วเราควรเชื่อใคร? และ AI ที่เราใช้กันอยู่ทุกวันนี้ มัน "คิด" ได้เหมือนที่เราเข้าใจจริงๆ หรือเป็นเพียง "ภาพลวงตา" ของการให้เหตุผล?
⚡️ Q&A ฉบับคนรีบ:
Q: สรุปแล้ว AI คิดเหมือนมนุษย์ได้หรือยัง?
A: ยังไม่ได้ครับ งานวิจัยชี้ว่ากระบวนการให้เหตุผลของ AI ในปัจจุบันยังมีข้อบกพร่องและอาจเป็นเพียง "ภาพลวงตา" ไม่ใช่การคิดอย่างมีเหตุผลที่แท้จริง
นี่คือวิสัยทัศน์ที่ CEO ของบริษัท AI ยักษ์ใหญ่อย่าง แซม อัลต์แมน (Sam Altman) จาก OpenAI และ เดมิส ฮัสซาบิส (Demis Hassabis) จาก Google DeepMind กำลังบอกกับเรา
💸 คำสัญญาพันล้าน กับ "กฎแห่งการขยาย" ที่เริ่มสะดุด
วิสัยทัศน์โลกอนาคตอันสวยหรูนี้ ตั้งอยู่บนความเชื่อที่เรียกว่า "กฎแห่งการขยาย" (scaling law) ซึ่งก็คือแนวคิดที่ว่า ยิ่งเราโยนข้อมูลและพลังการประมวลผลให้ AI มากเท่าไหร่ มันก็จะยิ่งเก่งขึ้นเท่านั้น
กฎนี้ดูเหมือนจะใช้ได้ผลดีมาตลอด แต่ล่าสุด... มันเริ่มมีสัญญาณของการ "สะดุด" ให้เห็น เมื่อโมเดลล่าสุดอย่าง GPT-4.5 กลับมีความสามารถเพิ่มขึ้นจากรุ่นก่อนหน้าเพียงเล็กน้อย แต่ต้นทุนกลับพุ่งสูงขึ้นมหาศาล
เมื่อการทุ่มเงินอย่างเดียวอาจไม่พอ บริษัท AI จึงหันไปหาโมเดลรูปแบบใหม่ที่เรียกว่า "โมเดลแห่งการใช้เหตุผล" (reasoning models) เช่น o1 ของ OpenAI ที่พยายามเลียนแบบวิธีที่มนุษย์คิดแก้ปัญหาทีละขั้นตอน หรือที่เรียกว่า "ลูกโซ่แห่งความคิด" (chain-of-thought)
แต่... งานวิจัยล่าสุดหลายชิ้นกลับพบความจริงที่น่าตกใจว่า โมเดล "นักคิด" เหล่านี้กลับมีข้อบกพร่องพื้นฐานในการใช้เหตุผลอย่างไม่น่าเชื่อ
🧠 ทำไม AI ที่เก่งที่สุดถึง "คิดไม่เป็น"?
งานวิจัยหลายชิ้นล่าสุดได้ทดสอบโมเดล AI ที่ล้ำที่สุด และพบข้อจำกัดที่น่ากังวล 3 ประการ:
1. ปริศนาง่ายๆ ที่ AI ไปไม่เป็น
ทีมนักวิจัยที่ Apple ได้ทดสอบ AI กับปริศนาตรรกะ เช่น เกม "หอคอยฮานอย" (Tower of Hanoi) พบว่าแม้โมเดลจะแก้ปริศนาระดับง่ายที่สุดได้ แต่กลับ "ไปไม่เป็น" ทันทีเมื่อเพิ่มความซับซ้อน เช่น เพิ่มจำนวนวงแหวน ที่น่าตกใจคือ ยิ่งปัญหาสลับซับซ้อนขึ้น โมเดล AI กลับใช้หน่วยข้อมูล(Tokens)ในการคิด "น้อยลง" ซึ่งบ่งชี้ว่าเวลา "การคิด" ที่นานขึ้นนั้นอาจเป็นแค่ภาพลวงตา
2. ยิ่งคิดนาน... ยิ่งมั่ว?
ทีมงานจาก University of Maryland พบว่ากระบวนการ "ลูกโซ่แห่งความคิด" ที่ยาวขึ้น กลับทำให้ ความแม่นยำในการแก้ปัญหาทางคณิตศาสตร์ "ลดลง" การให้ AI ใช้เวลาคิดมากขึ้น 10-15 เท่า กลับทำให้คะแนนลดลงถึง 17%! นี่คือความย้อนแย้งที่ท้าทายความเชื่อว่าการคิดนานขึ้นจะนำไปสู่คำตอบที่ดีขึ้นเสมอไป
3. คำตอบถูกโดยบังเอิญ?
ในการทดสอบให้ AI หาทางออกจากเขาวงกตง่ายๆ ทีมจาก Arizona State University พบว่า แม้ AI จะให้ "คำตอบสุดท้าย" ที่ถูกต้อง แต่เมื่อไปดูขั้นตอนการให้เหตุผล กลับเต็มไปด้วยข้อผิดพลาด! และที่น่าตกใจที่สุดคือ: การป้อน "ลูกโซ่แห่งความคิดที่ไม่มีความหมาย" หรือข้อมูลมั่วๆ เข้าไปให้ AI กลับทำให้มันให้คำตอบที่ดีขึ้นได้
🔚 เราควรเชื่อไหมว่า AI "คิด" ได้เหมือนมนุษย์?
"ผลลัพธ์ของเราท้าทายสมมติฐานที่เชื่อกันว่า 'ลูกโซ่แห่งความคิด' สามารถตีความได้ว่าเป็นการแสดงร่องรอยการใช้เหตุผลภายในของโมเดล และขอเตือนว่าอย่าพยายามมองมันให้เป็นมนุษย์" สุบบาเรา กัมภาปติ หัวหน้าทีมวิจัยกล่าว
แอนนา โรเจอร์ส (Anna Rogers) จาก IT University of Copenhagen เสริมว่า งานวิจัยทั้งหมดนี้ชี้ให้เห็นว่าการเรียกโมเดลเหล่านี้ว่า "คิด" หรือ "ใช้เหตุผล" ได้นั้นเป็น "การเรียกชื่อที่ผิด" (misnomer)
อย่างไรก็ตาม OpenAI ก็ยังคงเชื่อมั่นในแนวทางของตน "งานของเราแสดงให้เห็นว่าวิธีการใช้เหตุผลอย่าง 'ลูกโซ่แห่งความคิด' สามารถเพิ่มประสิทธิภาพในการแก้ปัญหาที่ซับซ้อนได้อย่างมีนัยสำคัญ และเรากำลังทำงานอย่างแข็งขันเพื่อขยายขีดความสามารถเหล่านี้" โฆษกของ OpenAI กล่าว
🏡 แล้วเรื่องนี้เกี่ยวข้องกับเราอย่างไร?
กระแสความตื่นตัวเรื่อง AI ในประเทศไทยนั้นร้อนแรงไม่แพ้ที่ใดในโลก เราเห็นการลงทุนและการพูดถึงการนำ AI มาพลิกโฉมธุรกิจ, การศึกษา, และภาครัฐอย่างต่อเนื่อง
งานวิจัยเหล่านี้จึงเปรียบเสมือน "เสียงเตือน" ที่สำคัญอย่างยิ่งสำหรับสังคมไทย มันย้ำเตือนให้ผู้ประกอบการและผู้กำหนดนโยบาย อย่าเพิ่งหลงเชื่อคำโฆษณาทางการตลาดทั้งหมด แต่ต้องทำความเข้าใจและประเมิน "ขีดความสามารถที่แท้จริง" และ "ข้อจำกัด" ของ AI ในปัจจุบันอย่างมีวิจารณญาณ ก่อนที่จะทุ่มงบประมาณมหาศาลหรือตัดสินใจเชิงนโยบายที่สำคัญ นี่คือหัวใจของการเป็นสังคมที่ "รู้เท่าทัน AI" (AI-literate)
🎯 สรุปประเด็นสำคัญ
✅ Hype vs. Reality: CEO บริษัท AI ยักษ์ใหญ่ให้วิสัยทัศน์โลกอนาคตที่ขับเคลื่อนด้วย AI อัจฉริยะ แต่ความเป็นจริงในห้องทดลองชี้ว่าเรายังอีกห่างไกล
✅ Scaling Law สะดุด?: กฎที่ว่า "ยิ่งใหญ่ ยิ่งฉลาด" อาจไม่เป็นจริงเสมอไป เมื่อโมเดลล่าสุดให้ผลตอบแทนน้อยลงสวนทางกับต้นทุนที่พุ่งสูงขึ้น
✅ AI คิดไม่เป็น: โมเดล "นักคิด" ที่ใช้กระบวนการ "ลูกโซ่แห่งความคิด" กลับล้มเหลวในการแก้ปริศนาตรรกะง่ายๆ
✅ เหตุผลลวงตา: งานวิจัยพบว่าขั้นตอนการให้เหตุผลของ AI อาจไม่มีความหมายและไม่เกี่ยวข้องกับคำตอบสุดท้ายที่ถูกต้องด้วยซ้ำ และการให้ "คิด" มากขึ้นอาจทำให้ประสิทธิภาพแย่ลง
✅ บทเรียนสำคัญ: เราไม่สามารถไปถึง "ปัญญาประดิษฐ์ขั้นสูง" ได้เพียงแค่การขยายขนาดโมเดล และควรระมัดระวังอย่างยิ่งในการเปรียบเทียบความสามารถของ AI กับการคิดของมนุษย์
💖 มาช่วยกันขับเคลื่อน "Witly" กันครับ!
ท่ามกลางกระแส Hype ของเทคโนโลยี การแยกแยะระหว่าง "คำโฆษณา" กับ "ความจริง" คือทักษะที่สำคัญที่สุด...
เป้าหมายของ Witly ก็เช่นกัน คือการทำหน้าที่เป็น "ตัวกรอง" ที่จะเจาะลึกไปเบื้องหลังพาดหัวข่าว แล้วนำเสนอข้อมูลวิทยาศาสตร์ที่รอบด้านและเป็นจริง
ทุกการสนับสนุนผ่าน "ค่ากาแฟ" ของคุณ คือพลังที่ช่วยให้ "ตัวกรอง" ของเราทำงานได้อย่างมีประสิทธิภาพ เพื่อสร้างสังคมที่รู้เท่าทันเทคโนโลยีครับ
💬 แล้วคุณล่ะครับ...
หลังจากได้อ่านบทความนี้แล้ว มันเปลี่ยนวิธีที่คุณมองหรือใช้งาน AI อย่าง ChatGPT หรือ Gemini ในชีวิตประจำวันไปบ้างไหมครับ? มีงานอะไรที่คุณจะเริ่มใช้มันอย่าง "ระมัดระวัง" มากขึ้น?
มาแบ่งปันมุมมองกันในคอมเมนต์... และถ้าเรื่องนี้น่าสนใจ อย่าลืมกดบันทึก 💾 หรือแชร์เพื่อแบ่งปันมุมมองใหม่ๆ กันนะครับ ↗️
🔎 แหล่งอ้างอิง
1. Shojaee, P., et al. (2025). The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity. arXiv. http://doi.org/prw2
2. Ghosal, S. S., et al. (2025). Does Thinking More always Help? Understanding Test-Time Scaling in Reasoning Models. arXiv. http://doi.org/prw3
3. Stechly, K., et al. (2025). Beyond Semantics: The Unreasonable Effectiveness of Reasonless Intermediate Tokens. arXiv. http://doi.org/prw4

ดูเพิ่มเติมในซีรีส์

โฆษณา