12 มิ.ย. 2023 เวลา 15:43 • วิทยาศาสตร์ & เทคโนโลยี

ปัญหาการบิดเบือนระดับส่วนตัว จาก Conversational AI

Louis Rosenberg ผู้ก่อตั้งบริษัท Unanimous AI และเป็นเจ้าของลิทธิ์ทางด้านเทคโนโลยีด้าน VR, AR และ AI มากกว่า 300 รายการ เขียนบทความที่ชื่อว่า “The profound Danger of Conversation AI” หรือ “ความอันตรายที่ฝังลึกมากับการสนทนากับ AI”
โดย Louis เกริ่นตอนต้นว่า ผู้คนต่างส่วนใหญ่รับรู้ความกังวลที่ว่า สักวันหนึ่ง AI อาจจะฉลาดมากขึ้นในทุกมิติ จนสามารถควบคุมมนุษย์และครองโลกได้ ดังปรากฎในพล็อตเรื่องนิยายและภาพยนต์วิทยาศาสตร์หลายเรื่อง
แต่จากการสัมภาษณ์ผู้เชี่ยวชาญทางด้าน AI กว่า 700 คน ได้ข้อสรุปว่า การที่ AI จะพัฒนาถึงระดับนั้น คือระดับที่เรียกว่า Human-Level Machine Intelligence (HLMI) ต้องใช้เวลาอีกอย่างน้อย 30 ปี
แต่แน่หล่ะ ปัญหาเรื่อง AI ครองโลก ก็ยังเป็นประเด็นที่ต้องกังวล และหามาตรการแก้ไขป้องกันร่วมกัน
แต่มันยังพอมีเวลา
แต่สิ่งที่ Louis กังวลมากกว่า คือสิ่งที่เขาใช้คำว่า “personalized manipulation” หรือ “การบิดเบือนในระดับบุคคล”
โดยเขาระบุว่าการใช้งาน AI ช่วยในการสร้าง ความบิดเบือนในข้อมูล นั้นมีมานานแล้ว แต่เป็นการกระทำแบบสุ่ม เหมือนการยิงกระสุนเข้าไปในกลุ่มนกที่บินอยู่ กระสุนจะโดนเฉพาะนกบางตัวที่บินมาเข้าทางวิถีกระสุนเท่านั้น เปรียบกับคนหรือลูกค้าที่รับสารและเชื่อหรือสนใจในสารที่ยิงไป
แต่การมาถึงของเทคโนโลยี Large Language Models (LLMs) ทำให้เราสามารถใช้ AI ในระดับที่ยิงตรงเป้ามากขึ้น สามารถเลือกได้ว่ากระสุนแต่ละนัดจะยิงนกตัวไหน จนกระทั่งสามารถสอนให้กระสุนปรับทิศทางและวิธีการยิงให้เข้ากับเป้าหมายแบบเรียลไทม์ด้วยตัวมันเอง ทำนองเดียวกับวิธีทำงานของขีปนาวุธ (“heat-seeking missiles”)
ยกตัวอย่างเช่น Chat GPT ที่ตอนนี้กำลังกลายเป็น ผู้ช่วยส่วนตัว (Personal Assistant) ของใครๆ หลายๆ คน (รวมถึงตัวผมเองด้วย) ก็สามารถถูกใช้โดยบริษัท องค์กร หรือกระทั่งรัฐบาล ในการเป็นเครื่องมือในการบิดเบือนข้อมูลได้อย่างมีประสิทธิภาพมากกว่าการพีอาร์ หรือโฆษณาชวนเชื่อแบบในอดีต
ด้วยการเทรนข้อมูลที่ตั้งใจบิดเบือนและการเก็บข้อมูลส่วนบุคคลอย่างไม่มีการควบคุม
และการรวมเทคโนโลยีอย่าง ChatGPT เข้ากับเทคโนโลยีอย่าง Digital Human กลายเป็น Conversational AI ที่ฉลาดหลักแหลม พูดคุยและแก้ปัญหาการสื่อสารกับมนุษย์ได้อย่างที่ฝันไว้
ทำให้ Conversational AI สามารถ “คุย” กับเรา (ทั้งแบบ chat และผ่าน Avatar/AI Influencers) พร้อมๆ กับเก็บข้อมูลส่วนตัวเราในระดับที่ลึกที่สุด ที่คนธรรมดาไม่สามารถทำได้ เช่น สีผิวหน้าที่เปลี่ยนไปเวลาได้ยินคำบางคำ, อาการกระพริบตาและสายตาที่เปลี่ยนไป, อารมณ์ดีหรือกังวลกับเสียงบางอย่าง เป็นต้น
ทั้งหมดนี้จะถูกประมวลผลและวิเคราะห์แบบเรียลไทม์ เพื่อปรับปรุงวิธีการพูดคุยขณะนั้นทันที เพื่อจุดประสงค์ในการโน้มน้าวมนุษย์ที่ฟังอยู่ให้เชื่อในสิ่งที่ Conversational AI หรือ AI Influencers/AI Assistants/AI Sales กำลังบอกอยู่
ที่น่าสนใจก็คือมีงานวิจัยจาก Lancaster University and U.C. Berkeley ในปี 2022 ที่ผ่านมาพบว่า คนส่วนใหญ่ไม่สามารถแยกออกว่า “คน” ที่กำลังคุยอยู่ด้วย เป็น”คนจริง” หรือเป็น “คนเสมือน” และที่สำคัญคือคนส่วนใหญ่มีความเชื่อถึอข้อมูลที่คนเสมือนพูด มากกว่าข้อมูลที่ได้รับจากคนจริง
แน่นอนว่า เทคโนโลยี AI ย่อมมีประโยชน์มากในหลายๆ ด้าน Louis เองก็ไม่ได้ต่อต้าน เพียงแต่ออกมาเรียกร้องการบริหารจัดการด้านนโยบายและกฏเกณฑ์ (Policy & Regulation) ทั้งในระดับอุตสาหกรรม ประเทศ และระดับโลก ให้มีข้อกำหนดที่ชัดเจนในการเก็บข้อมูลและใช้ข้อมูลอย่างเร่งด่วน
เพราะถ้าเราลองนั่งคิดตามในสิ่งที่สามารถทำได้จากการสร้าง ข้อมูลบิดเบือน ในระดับบุคคลได้ในสเกลที่ใหญ่มากๆ ได้
ที่สำคัญคือมันเกิดขึ้นเร็วมาก และกำลังพัฒนาอย่างต่อเนื่องทุกวัน ทุกนาที ตอนนี้เลย
เป็นสิ่งที่น่ากลัวจริงๆ
#ConversationalAI #AI #LLMs #ChatGPT #Personalized #Manipluation
โฆษณา