ปัญหาการบิดเบือนระดับส่วนตัว จาก Conversational AI
Louis Rosenberg ผู้ก่อตั้งบริษัท Unanimous AI และเป็นเจ้าของลิทธิ์ทางด้านเทคโนโลยีด้าน VR, AR และ AI มากกว่า 300 รายการ เขียนบทความที่ชื่อว่า “The profound Danger of Conversation AI” หรือ “ความอันตรายที่ฝังลึกมากับการสนทนากับ AI”
โดย Louis เกริ่นตอนต้นว่า ผู้คนต่างส่วนใหญ่รับรู้ความกังวลที่ว่า สักวันหนึ่ง AI อาจจะฉลาดมากขึ้นในทุกมิติ จนสามารถควบคุมมนุษย์และครองโลกได้ ดังปรากฎในพล็อตเรื่องนิยายและภาพยนต์วิทยาศาสตร์หลายเรื่อง
แต่จากการสัมภาษณ์ผู้เชี่ยวชาญทางด้าน AI กว่า 700 คน ได้ข้อสรุปว่า การที่ AI จะพัฒนาถึงระดับนั้น คือระดับที่เรียกว่า Human-Level Machine Intelligence (HLMI) ต้องใช้เวลาอีกอย่างน้อย 30 ปี
แต่แน่หล่ะ ปัญหาเรื่อง AI ครองโลก ก็ยังเป็นประเด็นที่ต้องกังวล และหามาตรการแก้ไขป้องกันร่วมกัน
แต่มันยังพอมีเวลา
แต่สิ่งที่ Louis กังวลมากกว่า คือสิ่งที่เขาใช้คำว่า “personalized manipulation” หรือ “การบิดเบือนในระดับบุคคล”
โดยเขาระบุว่าการใช้งาน AI ช่วยในการสร้าง ความบิดเบือนในข้อมูล นั้นมีมานานแล้ว แต่เป็นการกระทำแบบสุ่ม เหมือนการยิงกระสุนเข้าไปในกลุ่มนกที่บินอยู่ กระสุนจะโดนเฉพาะนกบางตัวที่บินมาเข้าทางวิถีกระสุนเท่านั้น เปรียบกับคนหรือลูกค้าที่รับสารและเชื่อหรือสนใจในสารที่ยิงไป
แต่การมาถึงของเทคโนโลยี Large Language Models (LLMs) ทำให้เราสามารถใช้ AI ในระดับที่ยิงตรงเป้ามากขึ้น สามารถเลือกได้ว่ากระสุนแต่ละนัดจะยิงนกตัวไหน จนกระทั่งสามารถสอนให้กระสุนปรับทิศทางและวิธีการยิงให้เข้ากับเป้าหมายแบบเรียลไทม์ด้วยตัวมันเอง ทำนองเดียวกับวิธีทำงานของขีปนาวุธ (“heat-seeking missiles”)
และการรวมเทคโนโลยีอย่าง ChatGPT เข้ากับเทคโนโลยีอย่าง Digital Human กลายเป็น Conversational AI ที่ฉลาดหลักแหลม พูดคุยและแก้ปัญหาการสื่อสารกับมนุษย์ได้อย่างที่ฝันไว้