นักวิจัยจาก University of California, Santa Cruz ได้พัฒนาวิธีการโจมตีที่เรียกว่า command hijacking against embodied AI (CHAI) เพื่อแสดงให้เห็นว่าโมเดลภาษา-การมองเห็นขนาดใหญ่ (Large Visual-Language Models) สามารถถูกปั่นหัวเพื่อเข้าควบคุมระบบการตัดสินใจของ AI ได้อย่างไร
CHAI ใช้ Generative AI ในการปรับแต่งข้อความบนป้ายถนนหรือวัตถุอื่นๆ เพื่อเพิ่มโอกาสที่ AI (Embodied AI) จะปฏิบัติตามคำสั่งที่ระบุในข้อความนั้น ระบบจะปรับแต่งลักษณะปรากฏของข้อความ ทั้งในด้านตำแหน่ง สี และขนาด เพื่อให้สอดคล้องกับสภาพแวดล้อมจริงจนดูแนบเนียน