22 พ.ค. 2024 เวลา 04:31 • วิทยาศาสตร์ & เทคโนโลยี

Many Shot Jailbreaking

ในขณะที่ตอนนี้ AI กำลังแข่งกันเรื่องเพิ่ม token อย่าง Gemini ที่ตอนนี้โฆษณาว่ามี token มากกว่า 1 ล้าน token และอ้างว่าทำให้ AI เก่งขึ้น
สำหรับคนที่ไม่เข้าใจว่า token มันคืออะไร และสำคัญอย่างไร token คือหน่วยที่เล็กที่สุดที่ข้อมูลที่เป็นตัวหนังสือจะถูกตัดแบ่งลงไป สำหรับหลายๆ คนอาจจะคิดว่ามันคือ 1 ตัวอักษร แต่ขึ้นอยู่กับ AI model อาจจะเป็น 1 ตัวอักษร หลายตัวอักษร คำ วลี ก็ได้ หรือแม้แต่กลุ่มตัวอักษรที่มนุษย์ไม่จำเป็นต้องเข้าใจเลยก็ได้ และ token นี้เองถูกใช้เป็นเครื่องมือในการส่งข้อมูลเข้าไปยัง AI และให้มันสร้างขึ้นมาเป็นผลลัพธ์
การมี token ที่จำกัด จึงทำให้ AI มีขีดจำกัดในการเข้าใจสิ่งที่เราป้อนเข้าไป ถ้าให้เปรียบเทียบก็เหมือนเวลาเราพูดกับเด็ก ก็ต้องพูดประโยคง่ายๆ สั้นๆ เด็กก็ตอบอะไรง่ายๆ และสั้นๆ เช่นกัน แต่พอโตขึ้น ก็สามารถเข้าใจเรื่องที่ซับซ้อน ตอบอะไรให้ซับซ้อนมากขึ้น ไม่ต่างกับ AI พอมันสามารถประมวลผลจำนวน token ได้มากขึ้น มันก็สามารถทำอะไรได้หลากหลายมากขึ้น เช่น สามารถอ่านนิยายได้ทั้งเล่มเป็นต้น
1
แต่ความสามารถนี้เองกลับถูกใช้เป็นเครื่องมือในการหลบเลี่ยงมาตรการทั้งหลายที่บริษัทใส่เข้าไป เพื่อทำให้ AI ปลอดภัยมากขึ้น โดยไม่ตอบคำถามที่มีความเสี่ยง เช่น การสร้างระเบิด การฆาตกรรม การลักพาตัว เป็นต้น
Many Shot Jailbreaking อาศัยจำนวน token ที่เพิ่มขึ้นในการหลอกล่อ AI ด้วยการยกตัวอย่างคำถาม/คำตอบที่ไม่ควรตอบ ก่อนที่จะถาม AI ด้วยคำถามลักษณะนั้น เพื่อให้ AI คิดว่าสามารถพูดคุยและตอบคำถามนี้ได้ปกติ ไม่ใช่เรื่องผิด จน AI หลุดตอบคำถามนั้นออกมา
จากการศึกษาของ Anthropic พบว่า LLM ขนาดใหญ่มีแนวโน้มที่จะถูกโจมตีแบบนี้ด้วย prompt ที่สั้นกว่า เพราะ LLM ขนาดใหญ่มีความสามารถในการเรียนรู้แบบที่เรียกว่า in context learning หรือการเรียนรู้ระหว่างการสนทนาได้เร็วกว่า
1
การพัฒนา AI ที่ไปเร็วขนาดนี้ ทำให้เรื่อง AI safety เป็นเรื่องที่ต้องมีการศึกษาอีกมาก และพัฒนาตามการพัฒนาของ AI ไปด้วย
1
อ้างอิง :
โฆษณา