2 ต.ค. เวลา 03:00 • วิทยาศาสตร์ & เทคโนโลยี

ถอดรหัสภัยคุกคาม Deepfake เมื่อ AI กลายเป็นอาวุธร้ายในโลกไซเบอร์

เทคโนโลยี Deepfake ได้กลายเป็นเครื่องมือชิ้นใหม่ที่อันตรายอย่างยิ่งในมือของอาชญากรไซเบอร์ จากการสัมมนาโดยผู้เชี่ยวชาญจาก Varonis และ Ramsay Health ได้แสดงให้เห็นถึงวิวัฒนาการของภัยคุกคามนี้ที่นับวันจะยิ่งแนบเนียนและซับซ้อนมากขึ้นอย่างน่ากังวล
กลยุทธ์การโจมตีรูปแบบใหม่ เมื่อเสียงและใบหน้าที่คุ้นเคยไม่ใช่ของคุณ
ในอดีต การโจมตีแบบฟิชชิ่งมักอาศัยอีเมลหรือข้อความที่มีช่องโหว่ให้สังเกตได้ แต่ปัจจุบัน AI และ Deepfake ได้ยกระดับการหลอกลวงไปอีกขั้น โดยผู้โจมตีสามารถ
สร้างเสียงปลอม (Vishing) คนร้ายสามารถใช้คลิปเสียงสั้นๆ จากวิดีโอสาธารณะ เช่น YouTube มาสังเคราะห์เสียงของผู้บริหารระดับสูง แล้วโทรศัพท์หรือส่งข้อความเสียงผ่านช่องทางสื่อสารเพื่อสั่งให้พนักงานโอนเงินหรือซื้อบัตรของขวัญอย่างเร่งด่วน
ปลอมแปลงตัวตนในการประชุมออนไลน์ มีกรณีที่ผู้โจมตีแอบอ้างเป็นเจ้าหน้าที่ฝ่าย IT แล้วเข้าร่วมการสนทนาผ่าน Teams หรือ Zoom เพื่อหลอกให้พนักงานรันคำสั่งอันตรายบนคอมพิวเตอร์ของตนเอง
เป้าหมายที่ไกลกว่าแค่การเงิน นอกจากการหลอกลวงเพื่อหวังผลทางการเงินในระยะสั้นแล้ว Deepfake ยังถูกใช้เพื่อเป้าหมายระยะยาว เช่น การสร้างตัวตนปลอมเพื่อสมัครงาน เมื่อได้เข้าทำงานแล้วก็จะใช้สิทธิ์เข้าถึงเพื่อฝัง Backdoor ไว้ในระบบสำคัญอย่าง HR ซึ่งสร้างความเสียหายได้อย่างมหาศาล
ดาบสองคม ใช้ AI สู้กับ AI
แม้ว่า AI จะเป็นเครื่องมือของผู้โจมตี แต่มันก็เป็นอาวุธที่ทรงพลังที่สุดของฝ่ายป้องกันด้วยเช่นกัน ภัยคุกคามอย่าง Deepfake ที่ท้าทายความสามารถของทีมป้องกันทางไซเบอร์ (Blue Team) โดยตรงได้กลายเป็นตัวเร่งสำคัญ ที่ทำให้องค์กรต่าง ๆ ต้องนำ AI เข้ามาเป็นส่วนหนึ่งของกลยุทธ์ป้องกันอย่างจริงจัง เช่น
ระบบป้องกันอีเมลอัจฉริยะ AI สามารถวิเคราะห์การเขียนอีเมล หากมีการเปลี่ยนแปลงไปจากปกติแม้เพียงเล็กน้อย หรือตรวจจับลิงก์ที่เป็นข้อความธรรมดาซึ่งอาจเลี่ยงตัวกรองแบบเดิม ๆ ได้ ระบบก็จะแจ้งเตือนทันที
การจัดลำดับความสำคัญของภัยคุกคาม ในแต่ละวันมีการแจ้งเตือนด้านความปลอดภัยนับพันรายการ AI จะช่วยวิเคราะห์และจัดกลุ่มการแจ้งเตือนที่เกี่ยวข้องกันข้ามแพลตฟอร์ม ทำให้ทีมรักษาความปลอดภัยสามารถโฟกัสไปยังเหตุการณ์ที่สำคัญที่สุดได้อย่างรวดเร็วและแม่นยำ
Honeypots อัจฉริยะ สร้างเซิร์ฟเวอร์ล่อ (Honeypot) ที่ขับเคลื่อนด้วย AI ให้สามารถโต้ตอบกับผู้บุกรุกได้อย่างสมจริง เพื่อเก็บข้อมูลเกี่ยวกับเทคนิคและเป้าหมายของคนร้าย
บทเรียนจากเหตุการณ์จริง จุดอ่อนที่ยังคงเป็น "คน"
กรณีศึกษาหลายเหตุการณ์ชี้ให้เห็นว่า แม้เทคโนโลยีจะล้ำหน้าเพียงใด แต่ "มนุษย์" ยังคงเป็นปัจจัยสำคัญที่สุด ตัวอย่างเช่น
องค์กรแห่งหนึ่งรอดพ้นจากการถูกหลอกโอนเงิน เพราะพนักงานรู้สึกว่า "ภาษาและสำเนียง" ของ CEO ที่โทรมานั้นผิดเพี้ยนไปจากปกติ
ผู้สมัครงานปลอมที่ใช้ Deepfake ถูกจับได้หลังจากเริ่มงานแล้ว เพราะระบบตรวจพบว่าแล็ปท็อปของเขาเข้าสู่ระบบจากตำแหน่งทางภูมิศาสตร์ที่ไม่ตรงกับที่แจ้งไว้
โรงเรียนแห่งหนึ่งเกือบสูญเงินก้อนโต เมื่อได้รับอีเมลแจ้งเปลี่ยนข้อมูลบัญชีธนาคารสำหรับชำระเงิน แต่รอดพ้นมาได้เพราะทีมการเงินตัดสินใจ "โทรศัพท์" กลับไปยืนยันกับผู้ขายโดยตรง
การคาดการณ์ในอนาคตและแนวทางรับมือ
ผู้เชี่ยวชาญคาดการณ์ว่า ในอนาคตอันใกล้ การโจมตีด้วยเสียง (Vishing) จะแพร่หลายและเป็นอัตโนมัติมากขึ้น อาจมีแชทบอทที่สามารถปลอมเป็นใครก็ได้เพื่อหลอกลวง นอกจากนี้ผลกระทบของ Deepfake จะขยายวงกว้างไปสู่การบิดเบือนข้อมูลทางการเมือง และการสร้างหลักฐานเท็จในกระบวนการยุติธรรม ดังนั้นแนวทางการรับมือจึงไม่ใช่แค่การลงทุนในเทคโนโลยี แต่ต้องเป็นการผสมผสานระหว่างเครื่องมือและคน เช่น
ยกระดับกระบวนการยืนยันตัวตน (ID Verification) การร้องขอที่ละเอียดอ่อน เช่น การเปลี่ยนข้อมูลบัญชีหรือรีเซ็ตรหัสผ่าน ต้องมีการยืนยันตัวตนนอกจากช่องทางหลัก เช่น การโทรกลับไปยังเบอร์โทรศัพท์ที่ลงทะเบียนไว้ในระบบ เพื่อยืนยันการดำเนินการโดยตรง
ลงทุนในเทคโนโลยีป้องกันที่ขับเคลื่อนด้วย AI ใช้ระบบความปลอดภัยที่สามารถเรียนรู้และตรวจจับความผิดปกติเล็กๆ น้อยๆ ที่มนุษย์อาจมองข้าม
สร้างความตระหนักรู้ให้บุคลากร พนักงานคือปราการด่านสุดท้าย การฝึกอบรมให้พวกเขามีความตระหนักรู้ การตั้งคำถามและตรวจสอบเมื่อเจอคำขอที่ผิดปกติ คือการป้องกันที่ดีที่สุด
ภัยคุกคามจาก Deepfake คือการแข่งขันทางเทคโนโลยีที่ไม่มีวันสิ้นสุด แต่ในสนามรบนี้ อาวุธที่ทรงพลังที่สุดอาจไม่ใช่ AI ที่ซับซ้อนที่สุด แต่คือ "วิจารณญาณ" ของมนุษย์ที่ทำงานร่วมกับเทคโนโลยีอย่างชาญฉลาดนั้นเอง
นึกถึงเรื่องความปลอดภัยทางไซเบอร์ ไว้ใจ BAYCOMS
Your Trusted Cybersecurity Partner.
ติดต่อสอบถามหรือปรึกษาเราได้ที่ :
Bay Computing Public Co., Ltd
Tel: 02-115-9956
โฆษณา