19 ก.ค. 2023 เวลา 02:10 • วิทยาศาสตร์ & เทคโนโลยี

WormGPT: เหมือน ChatGPT สร้างขึ้นมาเพื่อวัตถุประสงค์ที่เป็นอันตรายต่อโลกไซเบอร์

เครื่องมือใหม่ที่เรียกว่า WormGPT ได้เกิดขึ้นในขอบเขตของอาชญากรรมทางอินเทอร์เน็ต โดยใช้ประโยชน์จากปัญญาประดิษฐ์เชิงกําเนิด (Generative AI) เพื่ออํานวยความสะดวกในการโจมตีทางไซเบอร์ที่ซับซ้อน
แนวคิดในการใช้แพลตฟอร์ม Generative AI เพื่อจุดประสงค์ทางอาชญากรรมไม่ใช่เรื่องใหม่ แต่จนถึงตอนนี้ยังไม่มีการพัฒนาให้มีขนาดใหญ่ การพัฒนานี้เน้นย้ําถึงการนําเทคโนโลยี AI กลับมาใช้ใหม่โดยบุคคลที่เป็นอันตราย ทําให้พวกเขามีความสามารถเพิ่มขึ้นสําหรับการมีส่วนร่วมในอาชญากรไซเบอร์
การวิจัยล่าสุดที่จัดทําโดย SlashNext เปิดเผยว่า WormGPT ได้รับการส่งเสริมในฟอรัมใต้ดินว่าเป็นเครื่องมือ Generative AI ที่ออกแบบมาโดยเฉพาะสําหรับการเปิดตัวการโจมตีแบบฟิชชิ่งขั้นสูงสำหรับอีเมลธุรกิจ หรือ business email compromise (BEC) attacks
Daniel Kelley นักวิจัยด้านความปลอดภัย อธิบายว่าเครื่องมือนี้ WormGPT ทําหน้าที่เป็นทางเลือก blackhat แทนโมเดล GPT ซึ่งปรับแต่งเพื่ออํานวยความสะดวกในกิจกรรมที่เป็นอันตราย อาชญากรไซเบอร์สามารถใช้เทคโนโลยีนี้เพื่อสร้างอีเมลหลอกลวงที่น่าเชื่อถือสูงซึ่งปรับให้เหมาะกับผู้รับแต่ละรายโดยอัตโนมัติ ซึ่งจะช่วยเพิ่มอัตราความสําเร็จของการโจมตีได้อย่างมาก
WormGPT และเครื่องมือที่คล้ายกันก่อให้เกิดความท้าทายใหม่ต่อผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์
ผู้สร้างซอฟต์แวร์ได้อธิบายว่า WormGPT เป็นปฏิปักษ์หลักของโมเดลที่รู้จักกันดี เช่น ChatGPT โดยยืนยันว่าสามารถดําเนินกิจกรรมที่ผิดกฎหมายต่างๆ ได้
เครื่องมือต่างๆ เช่น WormGPT มีศักยภาพอย่างมากในฐานะอาวุธที่น่าเกรงขาม โดยเฉพาะอย่างยิ่งเมื่อ ChatGPT ของ OpenAI และ Bard ของ Google กําลังดําเนินมาตรการเพื่อตอบโต้การใช้โมเดลภาษาขนาดใหญ่ (LLM) ในทางที่ผิดในการประดิษฐ์อีเมลฟิชชิ่งโน้มน้าวใจและการสร้างโค้ดที่เป็นอันตราย
Check point ได้เขียนในรายงานว่า "ข้อจํากัดการต่อต้านการละเมิดของ Bard ในขอบเขตของความปลอดภัยทางไซเบอร์นั้นต่ํากว่า ChatGPT อย่างมาก ดังนั้นจึงง่ายกว่ามากในการสร้างเนื้อหาที่เป็นอันตรายโดยใช้ความสามารถของ Bard"
ในเดือนกุมภาพันธ์ของปีนี้ บริษัทรักษาความปลอดภัยทางไซเบอร์ของอิสราเอลได้เปิดเผยวิธีการที่อาชญากรไซเบอร์ใช้เพื่อหลีกเลี่ยงข้อจํากัดของ ChatGPT ซึ่งเป็นแบบจําลองภาษา AI พวกเขาใช้ประโยชน์จาก API ของโมเดลและมีส่วนร่วมในกิจกรรมที่ผิดกฎหมาย เช่น การซื้อขายบัญชีพรีเมียมที่ถูกขโมยและการขายซอฟต์แวร์ brute-force ที่ใช้ในการแฮ็กเข้าสู่บัญชี ChatGPT โดยใช้รายการที่อยู่อีเมลและรหัสผ่านแบบไม่มีความปลอดภัย
การมีอยู่ของ WormGPT ซึ่งทํางานดูเหมือนไม่มีขอบเขตทางจริยธรรม เน้นย้ําถึงภัยคุกคามที่สําคัญที่เกิดจาก Generative AI ช่วยให้แม้แต่อาชญากรไซเบอร์มือใหม่ก็สามารถเปิดการโจมตีขนาดใหญ่ได้อย่างรวดเร็วโดยไม่ต้องใช้ความรู้ด้านเทคนิค
ข้อกังวลอีกเรื่องคือการโปรโมต "การเจลเบรก" สําหรับ ChatGPT ซึ่งเกี่ยวข้องกับการสร้างพรอมต์และอินพุตพิเศษที่ออกแบบมาเพื่อจัดการเครื่องมือในการสร้างผลลัพธ์ที่อาจเกี่ยวข้องกับการเปิดเผยข้อมูลที่ละเอียดอ่อน เนื้อหาที่ไม่เหมาะสม หรือการใช้โค้ดที่เป็นอันตราย
นักวิจัยด้านความปลอดภัย Daniel Kelley อธิบายว่า Generative AI สามารถสร้างอีเมลที่มีไวยากรณ์ที่ไร้ที่ติ ทําให้อีเมลเหล่านี้ดูถูกต้องตามกฎหมายและลดโอกาสในการถูกตั้งค่าสถานะว่าน่าสงสัย การดําเนินการโจมตี BEC ที่ซับซ้อน ทําให้อาชญากรไซเบอร์ในวงกว้างสามารถใช้เครื่องมือดังกล่าวได้ แม้จะมีทักษะที่จํากัดก็ตาม
นอกจากนี้ การพัฒนาล่าสุดอีกประการหนึ่งเกี่ยวข้องกับนักวิจัยจาก Mithril Security ที่ปรับเปลี่ยนโมเดล AI โอเพ่นซอร์สที่มีอยู่ GPT-J-6B เพื่อเผยแพร่ข้อมูลที่บิดเบือน โมเดลที่เปลี่ยนแปลงนี้เรียกว่า PoisonGPT ถูกอัปโหลดไปยังที่เก็บสาธารณะ ทําให้สามารถรวมเข้ากับแอปพลิเคชันอื่นๆ ได้
โฆษณา