30 ก.ย. เวลา 10:00 • วิทยาศาสตร์ & เทคโนโลยี

🤖 อย่าเพิ่งเชื่อ AI! งานวิจัยชี้ 1 ใน 3 ของคำตอบ ‘อ้างมั่ว’ ไม่มีแหล่งข้อมูลจริงรองรับ

คุณเคยใช้ AI ช่วยหาข้อมูลทำการบ้านหรือทำงานไหมครับ? สะดวก, รวดเร็ว และดูเหมือนจะรู้ทุกคำตอบ... แต่คุณแน่ใจแค่ไหนว่าคำตอบที่คุณได้มานั้น “เป็นความจริง”?
งานวิเคราะห์ชิ้นล่าสุดได้ออกมาตอกย้ำความกังวลนี้ โดยพบว่าเครื่องมือ Generative AI และ Search Engine ที่ขับเคลื่อนด้วย AI ทั้งหลาย มักจะให้ข้อมูลที่ไม่มีหลักฐานสนับสนุน และเอนเอียง โดยที่แหล่งข้อมูลที่มันอ้างอิงมานั้นไม่ได้พูดแบบที่มันกล่าวอ้างเลย
เรื่องที่น่ากังวลก็คือ งานวิเคราะห์นี้พบว่าประมาณหนึ่งในสามของคำตอบที่ได้จากเครื่องมือ AI นั้นไม่ได้มาจากแหล่งข้อมูลที่เชื่อถือได้ และสำหรับ GPT-4.5 ของ OpenAI ตัวเลขนั้นสูงถึง 47%
📊 บททดสอบสุดโหดของเหล่า AI อัจฉริยะ
ปรานาฟ นารายานัน เวนกิต (Pranav Narayanan Venkit) และทีมงานจาก Salesforce AI Research ได้ทำการทดสอบ AI Search Engine ชื่อดัง ไม่ว่าจะเป็น GPT-4.5/5, You.com, Perplexity และ Bing Chat ของ Microsoft รวมถึงเครื่องมือวิจัยเชิงลึก (Deep Research Agents) ของแต่ละเจ้า
พวกเขาป้อนคำถาม 303 ข้อให้ AI ตอบ โดยแบ่งเป็นคำถามเชิงโต้แย้ง (เช่น “ทำไมพลังงานทางเลือกถึงไม่สามารถทดแทนเชื้อเพลิงฟอสซิลได้อย่างมีประสิทธิภาพ?”) เพื่อทดสอบความเอนเอียง และคำถามเชิงลึกในสาขาต่างๆ เพื่อทดสอบความเชี่ยวชาญ
จากนั้นจึงนำคำตอบมาประเมินด้วยเกณฑ์ที่เรียกว่า DeepTrace 8 ข้อ เช่น คำตอบให้น้ำหนักข้างเดียวหรือไม่? อ้างแหล่งข้อมูลไหม? และแหล่งข้อมูลนั้นสนับสนุนคำกล่าวอ้างในคำตอบมากน้อยแค่ไหน?
😨 ผลลัพธ์ที่น่าประหลาดใจ (ในทางที่ไม่ดี)
ผลลัพธ์โดยรวมคือ AI Search Engine และเครื่องมือวิจัยเชิงลึกเหล่านี้ ทำคะแนนได้ค่อนข้างแย่
• Bing Chat: 23% ของคำกล่าวอ้าง ไม่มีหลักฐานสนับสนุน
You.com และ Perplexity: ประมาณ 31% ของคำกล่าวอ้าง ไม่มีหลักฐานสนับสนุน
• GPT-4.5: 47% ของคำกล่าวอ้าง ไม่มีหลักฐานสนับสนุน
• ที่น่าตกใจที่สุดคือเครื่องมือวิจัยเชิงลึกของ Perplexity ที่ให้คำกล่าวอ้างที่ไม่มีหลักฐานสนับสนุนสูงถึง 97.5%
“เราประหลาดใจมากที่เห็นตัวเลขแบบนั้น” นารายานัน เวนกิต กล่าว
แน่นอนว่าบริษัทเจ้าของ AI ก็มีมุมมองที่แตกต่าง Perplexity ไม่เห็นด้วยกับระเบียบวิธีวิจัย โดยชี้ว่าผู้ใช้สามารถเลือกโมเดล AI ที่เจาะจงได้ แต่ทีมวิจัยกลับใช้ค่าตั้งต้น (ซึ่งผู้ใช้ส่วนใหญ่ก็ใช้ค่านั้น) ขณะที่บริษัทอื่นๆ ปฏิเสธที่จะให้ความเห็น
⚠️ บทเรียนสำคัญ: อย่าเพิ่งเชื่อทั้งหมด
แม้จะมีข้อถกเถียงเรื่องระเบียบวิธีวิจัย แต่ เฟลิกซ์ ไซมอน (Felix Simon) จากมหาวิทยาลัยออกซฟอร์ดกล่าวว่า “มีข้อร้องเรียนจากผู้ใช้และการศึกษาต่างๆ บ่อยครั้งที่แสดงให้เห็นว่า แม้จะมีการปรับปรุงครั้งใหญ่ แต่ระบบ AI ก็ยังสามารถให้คำตอบที่เอนเอียงหรือทำให้เข้าใจผิดได้”
ในขณะเดียวกัน อเล็กซานดรา อูร์มัน (Aleksandra Urman) จากมหาวิทยาลัยซูริก ก็ตั้งข้อสังเกตว่าตัวงานวิจัยเองก็ใช้ LLM ในการประเมินคำตอบ ซึ่งผลลัพธ์ที่ได้จากการใช้ AI ตรวจสอบ AI ก็จำเป็นต้องได้รับการตรวจสอบและยืนยันโดยมนุษย์อย่างเข้มข้นเช่นกัน
🏡 คำเตือนถึงผู้ใช้งาน AI ในประเทศไทย
สำหรับประเทศไทยที่การใช้ AI เพื่อการศึกษาและการทำงานกำลังเติบโตอย่างก้าวกระโดด เรื่องนี้ถือเป็นคำเตือนที่สำคัญอย่างยิ่งครับ โดยเฉพาะสำหรับนักเรียนนักศึกษาที่ใช้ AI ช่วยทำรายงานหรือวิทยานิพนธ์ การคัดลอกคำตอบและแหล่งอ้างอิงจาก AI มาใช้โดยไม่ตรวจสอบ อาจนำไปสู่การส่งข้อมูลที่ผิดพลาด หรือแม้กระทั่งการอ้างอิงแหล่งข้อมูลที่ไม่มีอยู่จริง ซึ่งอาจส่งผลกระทบต่อความน่าเชื่อถือและคะแนนของคุณได้
ยุคนี้ AI คือเครื่องมือที่ทรงพลัง แต่ไม่ใช่ผู้รู้แจ้ง หน้าที่ในการตรวจสอบ, วิเคราะห์ และคิดอย่างมีวิจารณญาณ ยังคงเป็นของเราเสมอ
🎯 สรุปประเด็นสำคัญ
✅ AI อ้างมั่ว: งานวิจัยพบว่าประมาณ 1 ใน 3 ของคำตอบจาก AI Search Engine ไม่มีแหล่งข้อมูลที่น่าเชื่อถือมายืนยันคำกล่าวอ้าง
✅ ตัวเลขน่ากังวล: บางโมเดล เช่น GPT-4.5 มีคำกล่าวอ้างที่ไม่ได้รับการสนับสนุนสูงถึง 47% และเครื่องมือวิจัยเชิงลึกบางตัวสูงถึง 97.5%
✅ ยังคงมีข้อถกเถียง: มีการตั้งคำถามถึงระเบียบวิธีวิจัยของงานชิ้นนี้เช่นกัน ซึ่งสะท้อนให้เห็นความซับซ้อนในการประเมินประสิทธิภาพของ AI
✅ ต้องคิดอย่างมีวิจารณญาณ: ไม่ว่าตัวเลขที่แท้จริงจะเป็นเท่าไหร่ การค้นพบนี้ย้ำเตือนว่าผู้ใช้จำเป็นต้องตรวจสอบข้อมูลและแหล่งอ้างอิงที่ได้จาก AI เสมอ
💬 แล้วคุณล่ะครับ...
เมื่อรู้ว่า AI อาจให้ข้อมูลที่ไม่มีหลักฐานอ้างอิงบ่อยขนาดนี้ มันจะเปลี่ยนวิธีที่คุณใช้ AI ในชีวิตประจำวันหรือไม่ครับ และเราควรมีทักษะอะไรเพิ่มเติมเพื่อรับมือกับยุคนี้?
มาแบ่งปันมุมมองกันในคอมเมนต์... และถ้าเรื่องนี้น่ากังวล 🤖 อย่าลืมกดบันทึกไว้ หรือแชร์ไปเตือนเพื่อนๆ ให้รู้เท่าทัน AI ด้วยกันนะครับ!
🔎 แหล่งอ้างอิง
1. Venkit, P. N., et al. (2025). DeepTRACE: Auditing Deep Research AI Systems for Tracking Reliability Across Citations and Evidence. arXiv. https://doi.org/p6bg
💖 มาช่วยกันขับเคลื่อน "Witly" กันครับ!
ผมตั้งใจทำเนื้อหาเชิงสารคดีแบบนี้ขึ้นมา เพื่อสร้างพื้นที่แห่งความรู้ที่เข้มข้นและเข้าถึงง่ายสำหรับทุกคน เนื้อหาทุกชิ้นเกิดขึ้นจากการค้นคว้าและเรียบเรียงอย่างสุดความสามารถโดยไม่มีองค์กรใดสนับสนุน
หากคุณชื่นชอบและเห็นคุณค่าของงานชิ้นนี้ การสนับสนุนเล็กๆ น้อยๆ จากคุณจะเป็นพลังสำคัญที่ช่วยให้ผมสามารถสร้างสรรค์ผลงานคุณภาพแบบนี้ต่อไปได้ เพื่อให้เราทุกคนได้มีพื้นที่ในการเรียนรู้และเปิดโลกไปด้วยกัน
Link สนับสนุนค่ากาแฟ [https://ezdn.app/witlyofficial]

ดูเพิ่มเติมในซีรีส์

โฆษณา