แต่ความสามารถนี้เองกลับถูกใช้เป็นเครื่องมือในการหลบเลี่ยงมาตรการทั้งหลายที่บริษัทใส่เข้าไป เพื่อทำให้ AI ปลอดภัยมากขึ้น โดยไม่ตอบคำถามที่มีความเสี่ยง เช่น การสร้างระเบิด การฆาตกรรม การลักพาตัว เป็นต้น
Many Shot Jailbreaking อาศัยจำนวน token ที่เพิ่มขึ้นในการหลอกล่อ AI ด้วยการยกตัวอย่างคำถาม/คำตอบที่ไม่ควรตอบ ก่อนที่จะถาม AI ด้วยคำถามลักษณะนั้น เพื่อให้ AI คิดว่าสามารถพูดคุยและตอบคำถามนี้ได้ปกติ ไม่ใช่เรื่องผิด จน AI หลุดตอบคำถามนั้นออกมา