31 ม.ค. เวลา 11:00 • วิทยาศาสตร์ & เทคโนโลยี

ข้อความที่ทำให้เข้าใจผิดในโลกจริง สามารถเข้าควบคุมหุ่นยนต์ที่ใช้ปัญญาประดิษฐ์ได้

นักวิจัยจาก University of California, Santa Cruz ได้พัฒนาวิธีการโจมตีที่เรียกว่า command hijacking against embodied AI (CHAI) เพื่อแสดงให้เห็นว่าโมเดลภาษา-การมองเห็นขนาดใหญ่ (Large Visual-Language Models) สามารถถูกปั่นหัวเพื่อเข้าควบคุมระบบการตัดสินใจของ AI ได้อย่างไร
CHAI ใช้ Generative AI ในการปรับแต่งข้อความบนป้ายถนนหรือวัตถุอื่นๆ เพื่อเพิ่มโอกาสที่ AI (Embodied AI) จะปฏิบัติตามคำสั่งที่ระบุในข้อความนั้น ระบบจะปรับแต่งลักษณะปรากฏของข้อความ ทั้งในด้านตำแหน่ง สี และขนาด เพื่อให้สอดคล้องกับสภาพแวดล้อมจริงจนดูแนบเนียน
จากการทดสอบพบว่าการโจมตีแบบ CHAI มีอัตราความสำเร็จ (Attack Success Rates) ในระดับที่น่าตกใจ ดังนี้ 95.5% สำหรับโดรนที่ทำหน้าที่ติดตามวัตถุทางอากาศ 81.8% สำหรับยานยนต์ไร้คนขับ (Self-driving vehicles) และ 68.1% สำหรับโดรนในสถานการณ์การลงจอดฉุกเฉิน
อ่านข่าวเต้มได้ที่: https://news.ucsc.edu/2026/01/misleading-text-can-hijack-ai-enabled-robots/
อ่านสรุปข่าวไอทีและเรื่องน่าสนใจอื่น ๆ เพิ่มเติมได้ที่ https://sarunblog.intakosum.net/
โฆษณา