9 มิ.ย. เวลา 12:00 • วิทยาศาสตร์ & เทคโนโลยี

AI มือที่สามของอาชญากรทางไซเบอร์

ในอดีตการโจมตีทางไซเบอร์เป็นเรื่องที่มีความซับซ้อน อาจต้องใช้เวลาในการวางแผนหลายสัปดาห์ และต้องใช้คนจำนวนมากที่มีความรู้เฉพาะทางระดับสูง แต่ในปี 2025 ทุกอย่างเริ่มเปลี่ยนไป อาชญากรทางไซเบอร์มี "ผู้ช่วยใหม่" ที่ไม่รู้จักเหน็ดเหนื่อย ไม่ต้องหลับนอน และเรียนรู้ได้ด้วยตนเองอย่างต่อเนื่อง นั่นคือ AI
ซึ่งเป็นเครื่องมือที่ถูกสร้างมาเพื่อพัฒนาโลก ได้กลายเป็นอาวุธทางดิจิทัลในมือผู้ไม่หวังดี ด้วยความสามารถในการเรียนรู้แบบต่อเนื่อง สร้างข้อมูลปลอมระดับเนียนกริบ และปรับตัวหลบหลีกการตรวจจับได้ในพริบตา AI จึงได้กลายเป็น "มือที่สาม" ของอาชญากรทางไซเบอร์อย่างสมบูรณ์แบบ
เมื่อการหลอกลวงไม่ใช่แค่ข้อความ…แต่เป็นเสียง หน้าตา และบุคลิก
ช่วงต้นปี 2025 เกิดเหตุการณ์ที่สั่นสะเทือนวงการเทคโนโลยี เมื่ออาชญากรทางไซเบอร์ได้วางแผนหลอกลวงผ่านเทคนิค Deepfake อย่างซับซ้อน เจาะเป้าหมายไปยังผู้ใช้งาน YouTube โดยพวกเขาส่งอีเมลหลอกลวงที่ดูเหมือนมาจากซีอีโอของ YouTube พร้อมแนบวิดีโอที่สร้างโดย AI ซึ่งแสดงข้อความปลอมเกี่ยวกับการเปลี่ยนแปลงนโยบายการจ่ายเงิน
ผู้ใช้งานที่หลงเชื่อและตอบโต้กับอีเมลดังกล่าว มีความเสี่ยงสูงที่จะสูญเสียการควบคุมบัญชีและสูญเสียทางการเงิน เหตุการณ์นี้แสดงให้เห็นว่า AI ไม่ได้สร้างภัยคุกคามแค่ในระดับโค้ดเท่านั้น แต่แฝงตัวมาในรูปแบบของ "ความน่าเชื่อถือ" ด้วย
อีกหนึ่งกรณีที่เกิดขึ้นในสหราชอาณาจักร ยิ่งทำให้เราเห็นถึงความร้ายแรงของปัญหานี้ เมื่อซีอีโอของบริษัทแห่งหนึ่งได้รับโทรศัพท์จากเสียงที่เหมือนหัวหน้าของเขาทุกประการ โดยสั่งให้โอนเงิน 243,000 ดอลลาร์ เมื่อดำเนินการเสร็จสิ้น จึงพบว่าเสียงนั้นเป็น "AI Voice Clone" และเงินจำนวนมหาศาลได้หายไปในพริบตา
ปัญหาใหญ่ที่สุดของภัยคุกคามจาก AI คือความ "เนียน" ที่ยากจะแยกแยะ ไม่ว่าจะเป็นวิดีโอ เสียง รูปภาพ หรือแม้กระทั่งข้อความที่ถูกปรับให้เข้ากับบุคลิกของเหยื่อแต่ละคนโดยเฉพาะ AI ยังสามารถสร้างอีเมลฟิชชิงแบบเจาะจงบุคคล (Spear-phishing) ที่เรียนรู้รูปแบบการสื่อสารภายในองค์กร แล้วปลอมเป็นคนในทีมได้อย่างแนบเนียน
หากองค์กรไม่มีฝ่ายป้องกันระบบ AI ที่ทันสมัยพอ ผลลัพธ์ก็คือการหลุดของข้อมูลสำคัญแบบหลีกเลี่ยงไม่ได้ ความร้ายแรงจึงไม่ใช่แค่เรื่องเทคนิค แต่คือ "ความเข้าใจผิดว่าเป็นของจริง"
การเพิ่มขึ้นของภัยคุกคามอัตโนมัติ
กลุ่มอาชญากรทางไซเบอร์หันมาใช้ AI ในการโจมตีที่สามารถปรับตัวและทำงานอัตโนมัติมากขึ้น หนึ่งในวิธีการที่โดดเด่นคือการสร้างมัลแวร์แบบ Polymorphic ซึ่งสามารถเปลี่ยนแปลงโค้ดของตัวเองระหว่างการทำงานเพื่อหลบหลีกระบบการตรวจจับแบบเดิม
ตัวอย่างที่ชัดเจนคือ มัลแวร์ ชื่อ BlackMamba ที่ใช้ Generative AI ในการปรับเปลี่ยนโค้ดทุกครั้งที่ทำงาน ทำให้แต่ละเวอร์ชันมีความแตกต่างและตรวจจับได้ยากมาก การพัฒนานี้ทำให้ระบบรักษาความปลอดภัยแบบดั้งเดิมที่อาศัยการจดจำรูปแบบการโจมตีเก่า ๆ กลายเป็นไร้ประสิทธิภาพ
สิ่งที่น่ากังวลยิ่งกว่าคือการเกิดขึ้นของแพลตฟอร์ม Malware-as-a-Service (MaaS) ที่เปิดให้แม้แต่มือใหม่ก็สามารถเข้าถึงเครื่องมือโจมตีด้วย AI ได้อย่างง่ายดาย หากเทียบกับเมื่อก่อนคุณต้องมีทักษะการแฮกระดับสูงถึงจะทำอะไรในโลกมืดได้ แต่ตอนนี้คุณแค่มีเงินก็เพียงพอ
ซึ่งแพลตฟอร์มเหล่านี้ให้บริการมัลแวร์ในรูปแบบครบวงจร ผู้ที่ไม่มีพื้นฐานทางเทคนิคก็สามารถสร้างมัลแวร์ รันบอต หรือสร้างฟิชชิงแคมเปญได้เพียงไม่กี่คลิก โดยระบบ AI จะช่วยจัดการให้อย่างอัตโนมัติ ทั้งยังมีคู่มือใช้งาน รูปแบบข้อความฟิชชิง และแม่แบบ Deepfake พร้อมใช้งานได้ทันที
การเปลี่ยนแปลงจากการโจมตีแบบแมนนวลไปสู่การโจมตีที่ทำงานเองและปรับตัวได้อย่างอัตโนมัตินี้ แสดงให้เห็นถึงความเร่งด่วนที่องค์กรต้องมีระบบรักษาความปลอดภัยที่ใช้ AI ขั้นสูงเพื่อรับมือกับภัยคุกคามที่พัฒนาไปอย่างรวดเร็ว
สัญญาณเตือนที่ไม่ควรเมินเฉย
ในสภาพการณ์ปัจจุบัน มีสัญญาณเตือนหลายประการที่องค์กรควรให้ความสำคัญ เพราะ AI สามารถสร้างตัวตนปลอมทั้งภาพและโปรไฟล์เพื่อเข้ามาทำ Social Engineering แบบแนบเนียน พร้อมแพลตฟอร์ม AI สำหรับโจมตีมีการพัฒนาให้ใช้งานง่ายขึ้น ความเร็วและความชาญฉลาดของ AI ทำให้การโจมตีเกิดขึ้นและสำเร็จได้ในเวลาไม่กี่วินาที
ภัยคุกคามเหล่านี้ไม่ได้จำกัดอยู่แค่การสูญเสียข้อมูลเท่านั้น แต่รวมถึงความเสียหายทางชื่อเสียงและความไว้วางใจของลูกค้าที่สะสมมาเป็นเวลานาน หากต้องการฟื้นฟูความเชื่อมั่นหลังจากถูกโจมตีอาจใช้เวลาหลายปี และในบางกรณีอาจไม่สามารถกลับคืนมาได้อีกเลย
AI ไม่ใช่ศัตรู แต่ก็ไม่ใช่มิตร ถ้าอยู่มือ
ความจริงที่เราต้องยอมรับคือ เราไม่สามารถหยุดยั้งการพัฒนา AI ได้ แต่เราสามารถเลือกว่าจะอยู่ฝั่งไหนของสงครามทางไซเบอร์ เพราะในโลกที่ AI คือทั้งดาบและโล่ การไม่พร้อมเท่ากับการยืนตัวเปล่าท่ามกลางสมรภูมิ
ดังนั้น องค์กรที่ยังใช้ระบบความปลอดภัยแบบเดิมไม่ใช่แค่ "ตามไม่ทัน" แต่กำลัง "เดินไปเปิดประตูให้ผู้โจมตีเข้ามาเอง" การลงทุนในระบบรักษาความปลอดภัยที่ใช้ AI จึงไม่ใช่ตัวเลือก แต่เป็นความจำเป็นเร่งด่วนสำหรับการอยู่รอดในยุคดิจิทัล
สงครามไซเบอร์ในยุค AI ได้เริ่มขึ้นแล้ว คำถามคือ องค์กรของคุณพร้อมรับมือหรือยัง
นึกถึงเรื่องความปลอดภัยทางไซเบอร์ ไว้ใจ BAYCOMS  
Your Trusted Cybersecurity Partner.
ติดต่อสอบถามหรือปรึกษาเราได้ที่ :  
Bay Computing Public Co., Ltd  
Tel: 02-115-9956  
Email: info@baycoms.com  
Website: www.baycoms.com  
#BAYCOMS #YourTrustedCybersecurityPartner #Cybersecurity  #AI #Deepfake #Phishing
โฆษณา