The Verge รายงานถึงปัญหาใหญ่ที่ OpenAI กำลังเผชิญ คือการทำให้ ChatGPT เป็นกลางทางการเมืองอย่างแท้จริง ซึ่งผลการศึกษาจากหลายสำนักก็เริ่มชี้ไปในทางเดียวกันว่า...โดยพื้นฐานแล้ว AI มักจะมีแนวโน้ม "เอียงไปทางเสรีนิยม" (Leaning Left) เล็กน้อย
มันเกิดขึ้นได้อย่างไร?
ข้อมูลที่ใช้ฝึก (Training Data): AI เรียนรู้จากข้อมูลมหาศาลบนอินเทอร์เน็ต ซึ่งข้อมูลส่วนใหญ่อาจมาจากแหล่งข่าว, บทความ, หรือสถาบันการศึกษาที่มีแนวคิดแบบเสรีนิยมเป็นทุนเดิม
กระบวนการ "ขัดเกลา" (RLHF): ในขั้นตอนที่มนุษย์เข้ามาช่วย "สอน" AI ไม่ให้ตอบคำถามที่เป็นอันตราย ผู้สอนเองก็อาจมีอคติส่วนตัวแฝงอยู่โดยไม่รู้ตัว และส่งต่อแนวคิดนั้นไปให้ AI
ภารกิจสุดหินของ OpenAI:
ตอนนี้ OpenAI พยายามอย่างหนักที่จะสร้าง AI ที่เป็น "กระจกเงา" สะท้อนความคิดที่หลากหลาย ไม่ใช่การเป็น "ผู้ชี้นำ" ทางความคิดเสียเอง แต่การจะลบอคติทั้งหมดออกจาก AI ที่เรียนรู้จากข้อมูลของมนุษย์...แทบจะเป็นไปไม่ได้เลย!