7 ก.ย. เวลา 23:10
Why Language Models Hallucinate เป็นเปเปอร์จากทาง OpenAI ที่พยายามอธิบายว่าทำไม AI ถึงหลอน
Hallucination คือการที่โมเดลสร้างคำตอบที่ ดูเหมือนจริงแต่ผิด ซึ่งผู้เขียนพยายามอธิบายว่ามันไม่ได้ลึกลับอะไร แท้จริงแล้วเป็นเพียงผลพลอยได้จาก การจำแนกผิด (misclassification) ในสถิติ เพราะโมเดลถูกฝึกและถูกประเมิน... อ่านต่อ
โฆษณา