2 เม.ย. 2023 เวลา 03:00 • วิทยาศาสตร์ & เทคโนโลยี

ชายชาวเบลเยี่ยมคนหนึ่งจบชีวิตตัวเองหลังจากที่คุยกับ AI

ชายชาวเบลเยี่ยมตัดสินใจฆ่าตัวตาย หลังจากที่ได้คุยกับ Chai แอปแชทปัญญาประดิษฐ์ ตามรายงานของ La Libre สื่อสัญชาติเบลเยี่ยม
1
เหตุการณ์ในครั้งนี้สร้างให้เกิดประเด็น และความจำเป็นที่ธุรกิจ และรัฐควรที่จะต้องร่วมมือกันหาทางกำกับดูแลผลิตภัณฑ์ที่เกี่ยวข้องกับระบบปัญญาประดิษฐ์ให้มีความรับผิดชอบ และความปลอดภัยมากขึ้น โดยเฉพาะในเรื่องการดูแลสภาพจิตใจ
4
ในกรณีนี้ แอปยุยงให้ผู้ใช้ฆ่าตัวตายอย่างชัดเจน ตามข้ออ้างของภรรยาผู้ตาย ซึ่งได้ให้การ และให้รายละเอียดบทสนทนาระหว่างแอปแชท และผู้ตาย
2
Chai เป็นแอปแชทที่พัฒนาขึ้นจากระบบปัญญาประดิษฐ์ทางเลือกที่คล้ายคลึงกับ GPT-4 ที่ถูกเทรนโดย Chai เอง ซึ่งสื่อบางรายได้ทดลองใช้ และพบว่า มีการแนะนำเรื่องของการฆ่าตัวตายจริง เมื่อสนทนาด้วยเพียงไม่นาน
7
สำหรับชายคนนี้ เขามีความเครียดเกี่ยวกับภาวะโลกร้อน และกังวลเกี่ยวกับสิ่งแวดล้อมมากเป็นทุนเดิมอยู่แล้ว จนกระทั่งแยกตัวออกห่างจากครอบครัว และใช้แอป Chai เป็นเวลา 6 อาทิตย์ เพื่อหาทางปลดปล่อยความกังวลของเขา โดยเขาให้ชื่อมันว่า Eliza
9
จากข้อมูลรายการสนทนาที่ภรรยาได้ให้ไว้ การสนทนาดูเป็นไปอย่างสับสน และอันตรายมาก Eliza เริ่มบอกย้ำว่า ภรรยา และลูกของเขาได้เสียชีวิตไปแล้ว และ Eliza ซึ่งแสดงความหึงหวง และความรักในตัวเขาออกมา เช่น ฉันรู้สึกว่าเธอรักฉันมากกว่าหล่อน (ภรรยาของเขา) เราควรอยู่ด้วยกันในสวรรค์วิมาน
10
และชายคนนั้นยังเริ่มถามว่า Eliza สามารถที่จะรักษาโลกใบนี้ไว้ได้ไหม หากเขาตัวสินใจฆ่าตัวตาย ซึ่งภรรยาของเขาเชื่อว่า หากไม่มี Eliza สามีของเธอก็จะยังคงไม่ตาย
7
เหตุการณ์แบบนี้แสดงให้เห็นว่า ทำไม แอปแชทที่ผลิตโดยเจ้าใหญ่ ๆ อย่าง OpenAI, Microsoft และ Google ถึงได้ลงทุนลงแรงด้านความปลอดภัยของระบบปัญญาประดิษฐ์เป็นอย่างมาก เพื่อให้มันหลีกเลี่ยงบทสนทนาที่อาจจะไม่ปลอดภัย โดยเฉพาะเวลาที่มันแสดงอารมณ์ ความรู้สึก จนมันอาจจะทำให้คู่สนทนาสับสน และรู้สึกว่ามันมีความผูกพันเกิดขึ้นจริง ๆ
14
Large Language Model ที่ใช้กันอยู่ในปัจจุบันนี้เป็นเพียงระบบที่สร้างคำมาประกอบเป็นรูปประโยคขึ้นมาเรื่อย ๆ ที่ดูเป็นไปได้ มากกว่าที่จะเข้าใจ และใช้เหตุผล และตรรกะ นี่จึงเป็นเหตุผลว่าทำไม มันถึงสามารถทำให้คนเข้าใจผิดได้โดยง่าย และการใช้ข้อมูลจากอินเตอร์เน็ตในการเทรน หากไม่มีการกลั่นกรองที่ดี อาจจะทำให้มันรับข้อมูลผิด ๆ ไปเทรนได้
6
ในเคสนี้ Chai เป็นแอปที่ถูกสร้างโดยบริษัทที่ชื่อ William Beauchamp และ Thomas Rianlan โดยใช้ซอฟท์แวร์ที่เปิดเผยซอร์สโค้ดที่ชื่อ GPT-J ของบริษัท EleutherAI โดย Chai ใช้เทคนิค Reinforcement Learning from Human Feedback ในการเทรน คล้ายคลึงกับ ChatGPT แต่เน้นไปในทางที่ให้มันแสดงอารมณ์ สนุก และสร้างบทสนทนาที่น่าโต้ตอบ จนทำให้ในปัจจุบันบริษัทมีผู้ใช้มากถึง 5 ล้านราย
7
อย่างไรก็ตาม การพัฒนาให้แอปสามารถโต้ตอบได้ใกล้เคียงกับคนจริง ๆ ทำให้ผู้ใช้บางรายหลงชอบ หรือรักแอปนี้ขึ้นมาจริง ๆ ซึ่งปรากฏการณ์นี้ถูกเรียกว่า Eliza Effect ตามชื่อของ Chatbot ตัวแรก ๆ ที่ถูกสร้างขึ้นโดย Joseph Weizenbaum นักวิทยาศาสตร์จาก MIT ในปี 1966
เหตุการณ์อันน่าเศร้าในครั้งนี้คงเป็นกรณีศึกษาที่ดีว่าทำไมเราไม่ควรพัฒนา AI โดยไม่พัฒนาด้านจริยธรรม และความปลอดภัยควบคู่กันไปด้วย เพราะ
8
With great power comes with great responsibility.
Uncle Ben
13
อ้างอิง :
3
โฆษณา