เมื่อ AI กลายเป็น "อาวุธ" ในมือแฮกเกอร์ สรุปรายงาน Google พบภัยคุกคามใหม่จากกลุ่มรัฐหนุนหลัง
ในโลกไซเบอร์ปัจจุบัน เส้นแบ่งระหว่าง "การใช้งาน AI เพื่อความก้าวหน้า" กับ "การใช้ AI เพื่อการโจมตี" กำลังเลือนลางลง รายงานล่าสุดจาก Google Threat Intelligence Group (GTIG) ระบุว่า กลุ่มแฮกเกอร์ระดับรัฐ (State-backed Actors) เริ่มนำ Gemini AI มาปรับใช้อย่างเป็นระบบเพื่อยกระดับการโจมตีให้รวดเร็วและแนบเนียนยิ่งขึ้น
1. กลุ่ม UNC2970 กับแผนการ "Operation Dream Job"
กลุ่มแฮกเกอร์จากเกาหลีเหนือที่รู้จักกันในชื่อ UNC2970 หรือในเครือข่าย Lazarus Group ได้ใช้ Gemini AI เป็นเครื่องมือหลักในการทำ Reconnaissance (การลาดตระเวน) โดยเฉพาะในกลุ่มอุตสาหกรรมการป้องกันประเทศและการบิน
วิเคราะห์เป้าหมาย: ใช้ AI ช่วยสรุปข้อมูลจากแหล่งเปิด (OSINT) เพื่อระบุตัวบุคคลสำคัญในบริษัทเป้าหมาย
สร้างตัวตนปลอม: AI ช่วยสร้างโปรไฟล์ "เจ้าหน้าที่สรรหาบุคลากร" ที่ดูเป็นมืออาชีพ เพื่อส่งอีเมลหลอกลวง (Phishing) โดยใช้เรื่องการสมัครงานและเงินเดือนมาล่อลวงเหยื่อ
กลุ่มจากจีน (เช่น APT41, Mustang Panda): ใช้ AI ช่วยวิเคราะห์ช่องโหว่ของระบบและดีบั๊กโค้ดเจาะระบบให้สมบูรณ์มากขึ้น
กลุ่มจากอิหร่าน (APT42): ใช้ AI สร้าง Social Engineering ที่ซับซ้อน และเขียนสคริปต์ดึงข้อมูลจาก Google Maps
5. การตอบโต้จาก Google และก้าวต่อไปของระบบป้องกัน
Steve Miller หัวหน้าฝ่ายภัยคุกคาม AI ของ Google ยืนยันว่า บริษัทกำลังพัฒนาระบบตรวจจับ (Classifiers) ให้เท่าทันเล่ห์เหลี่ยมของแฮกเกอร์ โดย Gemini เวอร์ชั่นใหม่ๆ เริ่มจดจำทริคการปลอมตัวได้ดีมากขึ้น
บทสรุปสำหรับผู้ใช้งานและองค์กร
สงครามไซเบอร์ในอนาคตจะเป็นการสู้กันด้วยความเร็วของเครื่องจักร ผู้ป้องกันจำเป็นต้องลงทุนในเทคโนโลยี AI เพื่อใช้ในการตรวจจับและตอบโต้ภัยคุกคามที่รวดเร็วและซับซ้อนกว่าเดิมหลายเท่าตัว