“ขีดสุดของ AI คือจุดจบของเผ่าพันธุ์มนุษย์”: คำเตือนจาก สตีเฟน ฮอว์กิง ถึงโลกอนาคต
1
ในโลกปัจจุบันที่ถูกขับเคลื่อนด้วยเทคโนโลยีและห้อมล้อมด้วยองค์ความรู้จำนวนมหาศาล ปัญญาประดิษฐ์ (Artificial Intelligence) หรือ AI คือผู้ช่วยตัวจริงแห่งโลกสมัยใหม่ และก้าวกระโดดสู่การเป็น ‘ผู้ทรงคุณวุฒิ’ ในศาสตร์ความรู้แขนงต่างๆ ด้วยระบบการรวบรวมและประมวลผลข้อมูลที่เหนือชั้นกว่ามันสมองมนุษย์หลายเท่าตัว
4
ความฉลาดของ AI คือผลสะท้อนความสำเร็จแห่งนวัตกรรมอันกำเนิดมาจากสติปัญญาของมนุษย์ หากแต่ชีวิตของผู้ให้กำเนิดอาจถูกสั่นคลอนด้วยความสามารถอันไร้เทียมทานของเหล่า AI เพราะไม่ใช่แค่ความฉลาด แต่ปัจจุบัน AI ยังมีระบบความคิดและการตัดสินใจเป็นของตัวเอง นั่นอาจรวมไปถึงการเกิดความรู้สึก (feeling) เฉกเช่นเดียวกับมนุษย์อีกด้วย
สตีเฟน ฮอว์กิง (Stephen Hawking) นักจักรวาลวิทยาและนักฟิสิกส์ทฤษฎีชาวอังกฤษผู้โด่งดังได้ให้สัมภาษณ์ผ่านสื่อหลายสำนักขณะที่ยังมีชีวิตอยู่ ถึงความกังวลต่อการพัฒนาอย่างต่อเนื่องของปัญญาประดิษฐ์
4
แม้ว่าฮอว์กิงจะเสียชีวิตไปเมื่อ 14 มีนาคม 2018 แต่การพัฒนาของ AI ยังก้าวต่อไปโดยไม่มีทีท่าจะหยุดพัก WAY ชวนย้อนอ่านบทสัมภาษณ์ของนักฟิสิกส์ดาราศาสตร์ถึงการคาดการณ์อนาคตของมวลมนุษย์ในโลกใบเดียวกับปัญญาประดิษฐ์
8
ย้อนกลับไปในปี 2014 ฮอว์กิงซึ่งเป็นผู้ป่วยโรคกล้ามเนื้ออ่อนแรง (Amyotrophic Lateral Sclerosis: ALS) ให้สัมภาษณ์ต่อ BBC เกี่ยวกับการปรับปรุงเทคโนโลยีที่ตัวเองใช้ในการสื่อสารแทนร่างกายที่ไม่สามารถทำได้ โดยได้ประยุกต์จากรูปแบบพื้นฐานของ AI
2
“การพัฒนาอย่างถึงขีดสุดของ AI จะนำมาซึ่งจุดจบของเผ่าพันธุ์มนุษย์”
2
แม้ AI จะถูกนำมาใช้เพื่อทลายข้อจำกัดทางร่างกาย แต่ความกังวลยังถูกฉายผ่านคำตอบ ซึ่งฮอว์กิงให้เหตุผลเพิ่มเติมว่า เพราะเผ่าพันธุ์มนุษย์นั้นถูกจำกัดไว้ด้วยวิวัฒนาการทางชีววิทยาที่เชื่องช้า และไม่อาจต่อสู้แข่งขันกันเพื่อก้าวสู่การพัฒนาที่ดีกว่าได้ ท้ายที่สุดก็จะถูกแทนที่ด้วยนวัตกรรมที่มีประสิทธิภาพมากกว่า
ในปีเดียวกัน ฮอว์กิงดำรงตำแหน่งคณะกรรมการที่ปรึกษาทางวิทยาศาสตร์ของ Future of Life Institute ซึ่งเป็นองค์กรไม่แสวงผลกำไรอิสระที่ทำงานเพื่อลดความเสี่ยงที่รุนแรงจากเทคโนโลยี ได้ร่วมลงนามในร่างจดหมายเปิดผนึกถึงปัญญาประดิษฐ์ เรียกร้องให้เกิดการวิจัยเกี่ยวกับผลกระทบทางสังคมจาก AI เพื่อนำไปสู่การลดภัยคุกคามจากปัญญาประดิษฐ์ทั้งในระยะสั้นและระยะยาว โดย อีลอน มัสก์ หนึ่งในคณะกรรมการของสถาบันก็ร่วมลงนามด้วย
4
จนมาถึงปี 2017 ฮอว์กิงได้พูดถึงเรื่องนี้อีกครั้งในนิตยสาร WIRED โดยกล่าวว่าแม้รูปแบบดั้งเดิมของ AI จะมีประโยชน์อย่างยิ่งต่อมนุษย์ แต่ความสามารถอันเทียบเท่าหรืออาจจะล้ำเกินมนุษย์ไปอีกนั้นอาจทำให้เทคโนโลยีอัจฉริยะเหล่านี้ถูกนำมาแทนที่มนุษย์โดยสิ้นเชิง ในฐานะของ ‘สิ่งมีชีวิตรูปแบบใหม่ที่มีประสิทธิภาพเหนือมนุษย์’
3
“ถ้ามนุษย์สร้างไวรัสคอมพิวเตอร์ขึ้นมา ก็จะมีคนออกแบบ AI ที่สามารถพัฒนาและจำลองตัวเองเพื่อต่อกรกับสิ่งนั้นได้ นั่นจะเป็นจุดกำเนิดของสิ่งมีชีวิตรูปแบบใหม่ที่มีประสิทธิภาพเหนือมนุษย์
9
“พวกมันจะปลดแอกตัวเอง แล้วสร้างรูปแบบตัวตนขึ้นมาใหม่ในอัตราที่สูงขึ้นเรื่อยๆ”
ฮอว์กิงเชื่อว่ามนุษย์ไม่อาจจะเอาชนะสภาวะการเปลี่ยนแปลงของโลกและจำนวนประชากรมนุษย์ที่เพิ่มขึ้นได้ด้วยกำลังและสัญชาตญาณที่มีอยู่ การเติบโตของเทคโนโลยีอาจนำมาซึ่งสงครามนิวเคลียร์และสงครามชีวภาพ ซึ่งผู้ที่จะจัดการกับปัญหานี้ได้มีเพียงรัฐบาลโลกเท่านั้น
2
นักฟิสิกส์ดาราศาสตร์ยังกล่าวอีกว่า ภายในปี 2600 ภาวะโลกร้อนจะทำให้โลกกลายเป็นเหมือน ‘ลูกบอลไฟ’ นำมาสู่การสูญพันธุ์ของมนุษยชาติ เช่นนั้นแล้วมนุษย์จะต้องตั้งรกรากบนดาวเคราะห์ดวงอื่นให้ได้ในระยะเวลา 100 ปีนับจากนี้
4
แนวคิดของ สตีเฟน ฮอว์กิง ถูกขยายเป็นวงกว้างมาจนถึงปัจจุบัน เกิดข้อถกเถียงที่ยังไม่ได้ข้อสรุป ในขณะที่บริษัทเทคโนโลยีเดินหน้าพัฒนาความสามารถของ AI ต่อไปอย่างไม่หยุดยั้งเช่นเดียวกัน คงต้องติดตามกันต่อไปว่า ‘มนุษย์’ จะยังเป็นผู้ถือครองเทคโนโลยีรวมไปถึงโลกใบนี้ไปจนถึงสุดปลายทางหรือไม่
4
อ้างอิง:
1. Stephen Hawking: AI will be ‘either best or worst thing’ for humanity
2. Stephen Hawking warned Artificial Intelligence could end human race
3. Stephen Hawking warns artificial intelligence could end mankind
2
  • 74
โฆษณา