5 ชั่วโมงที่แล้ว • ข่าวรอบโลก

ChatGPT "เอียงซ้าย" หรือ "เอียงขวา"? The Verge ตีแผ่ปัญหา 'อคติทางการเมือง' ของ AI

เคยรู้สึกไหมครับว่าเวลาคุยกับ ChatGPT ในประเด็นอ่อนไหวทางการเมือง บางทีคำตอบมันดูมีความคิดเห็นแปลกๆ? คุณไม่ได้คิดไปเอง!
The Verge รายงานถึงปัญหาใหญ่ที่ OpenAI กำลังเผชิญ คือการทำให้ ChatGPT เป็นกลางทางการเมืองอย่างแท้จริง ซึ่งผลการศึกษาจากหลายสำนักก็เริ่มชี้ไปในทางเดียวกันว่า...โดยพื้นฐานแล้ว AI มักจะมีแนวโน้ม "เอียงไปทางเสรีนิยม" (Leaning Left) เล็กน้อย
มันเกิดขึ้นได้อย่างไร?
ข้อมูลที่ใช้ฝึก (Training Data): AI เรียนรู้จากข้อมูลมหาศาลบนอินเทอร์เน็ต ซึ่งข้อมูลส่วนใหญ่อาจมาจากแหล่งข่าว, บทความ, หรือสถาบันการศึกษาที่มีแนวคิดแบบเสรีนิยมเป็นทุนเดิม
กระบวนการ "ขัดเกลา" (RLHF): ในขั้นตอนที่มนุษย์เข้ามาช่วย "สอน" AI ไม่ให้ตอบคำถามที่เป็นอันตราย ผู้สอนเองก็อาจมีอคติส่วนตัวแฝงอยู่โดยไม่รู้ตัว และส่งต่อแนวคิดนั้นไปให้ AI
ภารกิจสุดหินของ OpenAI:
ตอนนี้ OpenAI พยายามอย่างหนักที่จะสร้าง AI ที่เป็น "กระจกเงา" สะท้อนความคิดที่หลากหลาย ไม่ใช่การเป็น "ผู้ชี้นำ" ทางความคิดเสียเอง แต่การจะลบอคติทั้งหมดออกจาก AI ที่เรียนรู้จากข้อมูลของมนุษย์...แทบจะเป็นไปไม่ได้เลย!
นี่คือปัญหาที่ซับซ้อนมาก เพราะ "ความเป็นกลาง" ของแต่ละคนก็ไม่เท่ากันอีก!
เพื่อนๆ คิดว่ายังไงครับ? เราควรปล่อยให้ AI มีจุดยืนของตัวเอง หรือเราควรพยายามสร้าง AI ที่เป็นกลางทางการเมืองให้ได้ 100%? มาแชร์กันครับ 👇
#AIBias #ChatGPT #OpenAI #PoliticalBias #AIethics #TheVerge #ข่าวไอที #การเมือง
โฆษณา