10 พ.ย. 2021 เวลา 06:30 • วิทยาศาสตร์ & เทคโนโลยี
+++ เตือนภัย!! เทคโนโลยี Deep Voice อาจมีคนปลอมเป็นแฟนคุณก็ได้ ภัยไซเบอร์จาก AI +++
ในปัจจุบัน เรื่อง #ความปลอดภัยทางไซเบอร์ ถือเป็นเรื่องที่ไม่ควรมองข้ามอย่างเด็ดขาด ตั้งแต่การสร้าง Deep Fake หรือการเลียนแบบรูปร่างหน้าตาของคนใดคนหนึ่งขึ้นมา เพื่อทำอะไรสักอย่างนึงในเรื่องที่ไม่ควร ตอนนี้ Deep Voice เป็นอีกสิ่งแล้ว ที่อันตรายไม่ต่างจาก Deep Fake เลย แต่เรื่องราวของ Deep Voice ที่เรากำลังจะพูดถึง มันเป็นอย่างไร?? มันคืออะไร?? ลองมาดูกันฮะ
#DeepVoiceคืออะไร??
ความหมายของ Deep Voice ไม่ได้มีอะไรมากเลย คอนเซปเดียวกับ Deep Fake เลย คือ การลอกเลียนแบบเสียง หรือลักษณะน้ำเสียงการพูดคำพูดจาออกมาให้เหมือนกับบุคคลใดบุคคลหนึ่ง ไม่ว่าจะเป็นคนใกล้ชิด สนิทกันเป็นเพื่อน หรือหัวหน้า พ่อแม่ รวมถึงประธานาธิบดี นายก หรือผู้นำประเทศ ก็ตาม เทคโนโลยี Deep Voice สามารถสร้างขึ้นมาได้ทั้งหมด
#ภัยใกล้ตัว ที่หลายคนอาจไม่รู้ว่ามันมีอยู่...
เจค มอร์ อดีตเจ้าหน้าที่ตำรวจในสหราชอาณาจักร เป็นผู้เชี่ยวชาญด้านไซเบอร์ซีเคียวริตี้ (Cybersecurity) กล่าวไว้ว่า การใช้งาน AI ปัญญาประดิษฐ์ เพื่อปลอมแลงอัตลักษณ์ ไม่ว่าจะเป็นภาพ หรือเสียง ใน 2 สิ่งนี้ ถือเป็นกรณีศึกษาที่สำคัญอย่างมากต่อ #ภัยคุกคามทางเทคโนโลยี จากเทคโนโลยีในศตวรรษที่ 21 และหลายคนอาจไม่รู้ด้วยซ้ำว่าสิ่งนี้มันมีอยู่จริงๆ และอันตรายมากๆ
คุณเจค มอร์ ของเรา เผยว่า Deep Voice ที่กำลังพูดถึง มันสร้างง่ายกว่า Deep Fake อย่างมาก ที่พื้นฐานของ Deep Fake นั้น จำเป็นต้องใช้ภาพเคลื่อนไหว ทำให้การหลอกลวง Deep Voice เกิดขึ้นมามากขึ้นอย่างมาก
และในปัจจุบัน ก็ยังมีบริษัทสตาร์ทอัพใหม่ๆที่เกิดขึ้นมาพัฒนาเทคโนโลยี Deep Fake และ Deep Voice โดยเฉพาะมากขึ้นอีกด้วย ไม่ว่าจะเป็น Aflorithmic จากสหราชอาณาจักร Respeecher จากยูเครน และ Resemble จากประเทศแคนาดา มีอยู่เยอะมาก
ซึ่งนี่ก็ทำให้เห็นแล้วว่า เทคโนโลยีนี้ค่อนข้างที่จะก้าวหน้าไปแล้วอย่างมาก
#เสียงที่คุ้นเคยแต่ไม่ใช่คนรู้จัก
#รับมือเสียงปลอมยังไงดี??
ปัจจุบัน มีผู้เชี่ยวชาญออกมาย้ำเสมอว่า การรับมือภัยไซเบอร์ในปัจจุบัน ต้องนำมาปรับใช้ตามมาตราฐานความปลอดภัยแบบ Zero-Trust
ว่าง่ายๆก็คือ อย่าเชื่อสิ่งที่มองเห็น...ก่อนตรวจสอบ แม้มิจฉาชีพเกิดขึ้นมาบนโลกเรามากมาย มีการนำเทคโนโลยีใหม่ๆมาใช้ ก็อย่าลืมว่าอีกฝั่งฝ่ายคนดี ก็กำลังพัฒนาเทคโนโลยีเพื่อมารับมือกับมิจฉาชีพเหล่านี้อยู่เหมือนกัน
#PindropSecurity
#บริษัทผู้พัฒนาเทคโนโลยีความปลอดภัย
บริษัท Pindrop Security เป็นบริษัทผู้ที่พัฒนาเทคโนโลยี สำหรับระบุตัวตนด้วยเสียงขึ้นมา ในชื่อที่ว่า Deep Voice Biometric Technology เป็นอาวุธหลักอย่างนึงที่บริษัทมั่นใจว่า เป็นเทคโนโลยีที่มีความแม่นยำสูงมาก และสามารถตรวจจับการปลอมแปลงเสียงขึ้นมาได้
แต่แน่นอนพื้นฐานบนโลกแห่งความเป็นจริง การที่มีเทคโนโลยีเพื่อรับมือภัยคุกคามทางไซเบอร์ หรือความปลอดภัยทางไซเบอร์ ก็เป็นเรื่องที่ดีอยู่แล้ว แต่กว่าเทคโนโลยีนี้มันจะพัฒนาเสร็จสมบูรณ์ ระหว่างนั้นก็มีคนที่ถูกหลอกลวงไปแล้วเพิ่มขึ้นอีกด้วย
ซึ่งก็หมายความว่า...
การที่เราหลายๆคนอัพโหลดเรื่องราวในชีวิต ไม่ว่าจะเสียงพูด วีดีโอ ภาพถ่าย ลงไปบนโซเชียลมีเดีย หรือบนโลกออนไลน์ต่างๆ ก็อาจเป็นไปได้ว่ามิจฉาชีพผู้ไม่หวังดี ก็อาจเอาไปใช้เป็นเครื่องมือในการหลอกลวงคนอื่นๆก็เป็นได้
หรือหากใครอยากอ่านเรื่องเกี่ยวกับ เทคโนโลยี Deep Fake ทางการตลาด อ่านได้เลยที่นี่ https://bit.ly/DeepFakeBruceFB
หากคุณอ่านมาถึงตรงนี้แล้ว และชอบเรื่องราวแบบนี้ อย่าลืมกดติดตามให้กำลังใจเพจเล็กๆของเราด้วยนะฮะ
แล้วคุณหละ??
คิดว่า Deep Voice เอามาใช้โกหกแฟนดีไหม...
ลอง comment, share หรือ tag เพื่อนคุณมาพูดคุยกัน!!
Source
Deepfake พาซวย โอนเงินตามนายสั่ง มารู้ทีหลังว่า นั่นไม่ใช่เสียงเจ้านาย!
DEEP VOICE™ FOR SPEAKER IDENTIFICATION
ระวังภัย #DeepVoice ปลอมแปลงเสียงคนรู้จัก อีกหนึ่งภัยไซเบอร์จาก AI
Fraudsters Cloned Company Director’s Voice In $35 Million Bank Heist, Police Find
#News #NOWASU
โฆษณา