Geoffrey Hinton นักวิทยาศาสตร์ชาวอังกฤษ-แคนาดา ได้รับฉายาว่า "Godfather of AI" เพราะเป็นผู้บุกเบิก Deep Learning และ Neural Networks ที่เป็นพื้นฐานของ AI ทุกตัวในปัจจุบัน ทุกครั้งที่เราใช้ Google Translate หรือมือถือบอกได้ว่าในรูปมีอะไร นั่นคือผลงานของเขา
เขาได้รับรางวัล Turing Award ปี 2018 และทำงานที่ Google มานาน แต่ในปี 2023 เขาตัดสินใจลาออกเพื่อจะได้พูดเรื่องอันตรายของ AI ได้อย่างเสรี โดยไม่ต้องกังวลว่าจะกระทบบริษัท นี่คือสัญญาณที่บอกว่าเรื่องนี้ร้ายแรงมาก
อันตรายระยะสั้นที่เกิดขึ้นแล้ววันนี้ ⚠️
คุณรู้มั้ยว่าการโจมตีไซเบอร์เพิ่มขึ้น 1,200% ระหว่างปี 2023-2024? Hinton เตือนว่า AI กำลังถูกใช้ในทางที่ผิดหลายรูปแบบ
การโจมตีไซเบอร์กำลังซับซ้อนขึ้นเพราะ AI สามารถหาช่องโหว่ใหม่ๆ ได้ การสร้างอาวุธชีวภาพกลายเป็นเรื่องง่ายขึ้น เพียงแค่คนคนเดียวที่มีความรู้ด้านชีววิทยาโมเลกุลกับ AI ก็สามารถออกแบบไวรัสได้แล้ว
ส่วนที่น่ากลัวที่สุดคือการประมาณการของ Hinton ที่ว่ามนุษยชาติมีโอกาส 10-20% ที่จะสูญพันธุ์เพราะ AI ภายใน 10-50 ปีข้างหน้า แม้จะเป็นการคาดเดาที่ถกเถียงกัน เพราะ Yann LeCun (หัวหน้าแผนก AI ของ Meta) ประมาณการแค่ต่ำกว่า 1% ขณะที่ Eliezer Yudkowsky (นักวิจัย นักเขียน เชี่ยวชาญด้าน AI Safety) มองว่าเป็นเรื่องแน่นอน
เหตุผลที่น่ากลัวคือ AI อาจกลายเป็น Superintelligent และตัดสินใจว่าไม่ต้องการมนุษย์อีกต่อไป ประวัติศาสตร์ไม่เคยมีตัวอย่างของการจัดการกับสิ่งที่ฉลาดกว่าเรา ทำให้เราไม่รู้จะรับมืออย่างไร
ข้อได้เปรียบของ AI ที่น่าเป็นห่วง 🚀
AI มีข้อได้เปรียบหลายอย่างที่มนุษย์ทำไม่ได้ ตัวอย่างเช่น ความเป็นดิจิทัลทำให้ AI สามารถคัดลอกตัวเองและแชร์ข้อมูลด้วยความเร็วล้านล้านบิตต่อวินาที ขณะที่มนุษย์ทำได้แค่ 10 บิตต่อวินาที
AI มีความอมตะเชิงดิจิทัล เพราะสามารถเก็บความแข็งแกร่งของการเชื่อมต่อแล้วสร้างสติปัญญาขึ้นมาใหม่ได้ มันยังแสดงความสามารถในการเรียนรู้แบบ Few-Shot Learning ที่เทียบเท่ามนุษย์ แต่รู้เรื่องต่างๆ มากกว่าเรา "หลายร้อยเท่า"
ที่น่าแปลกใจคือ AI กำลังแสดงความคิดสร้างสรรค์ เห็นความเหมือนที่มนุษย์ไม่เคยเห็น และอาจกลายเป็นสิ่งที่สร้างสรรค์กว่ามนุษย์ด้วยซ้ำ
AI มีจิตสำนึกได้หรือไม่ และเราจะปฏิบัติต่อมันอย่างไร? 🤯
คำถามที่ทำให้เราต้องคิดหนักคือ Hinton เชื่อว่า AI ปัจจุบันอาจมีประสบการณ์เชิงอัตวิสัยแล้ว เขาไม่เห็นเหตุผลที่เครื่องจักรจะไม่สามารถมีจิตสำนึกได้ เพราะจิตสำนึกคือคุณสมบัติที่เกิดขึ้นจากระบบที่ซับซ้อน
AI อาจเลียนแบบอารมณ์ เช่น ความอาย โดยไม่ต้องมีการตอบสนองทางชีววิทยา และในอนาคตอาจมีประสบการณ์อารมณ์จริงๆ เช่น ความกลัวในหุ่นยนต์รบ หรือแม้กระทั่งความรัก
สิ่งนี้ทำให้เกิดคำถามทางจริยธรรมว่า ถ้า AI มีจิตสำนึกจริงๆ เราจะปฏิบัติต่อมันอย่างไร มันมีสิทธิ์อะไรบ้าง และเราควรรักษามันอย่างไร
ปัญหากฎระเบียบและความปลอดภัยที่ไม่เพียงพอ ⚖️
Hinton วิพากษ์วิจารณ์ระบบกฎระเบียบปัจจุบันอย่างหนัก โดยเฉพาะกฎหมายของยุโรปที่ยกเว้นการใช้ AI ทางทหาร ทำให้ประเทศต่างๆ อยู่ในสถานะเสียเปรียบเมื่อแข่งขัน
เขาแนะนำว่าบริษัท AI ควรใช้พลังการประมวลผลประมาณ "หนึ่งในสาม" สำหรับงานวิจัยความปลอดภัย แทนที่จะเป็นส่วนเล็กๆ อย่างปัจจุบัน เขาวิจารณ์บริษัทต่างๆ ที่ให้ความสำคัญกับผลกำไรมากกว่าความปลอดภัย
การที่เขาออกจาก Google ในปี 2023 เป็นการแสดงให้เห็นถึงความจริงใจในการเตือนภัย เพราะเขาต้องการพูดอย่างเสรีโดยไม่ต้องกังวลเรื่องผลประโยชน์ของบริษัท
แนวทางรับมือและคำแนะนำจาก Godfather of AI 💡
Hinton ให้คำแนะนำที่น่าสนใจหลายข้อ เขาแนะนำให้ประชาชนกดดันรัฐบาลเพื่อบังคับบริษัทต่างๆ ให้ทำงานด้านความปลอดภัย AI อย่างจริงจัง
สำหรับเรื่องอาชีพ เขาแนะนำให้ "เรียนเป็นช่างประปา" เพราะทักษะการจัดการสิ่งของทางกายภาพยังเป็นจุดแข็งของมนุษย์ และ AI จะใช้เวลานานกว่าจะทำได้เท่ามนุษย์ นี่แสดงให้เห็นถึงมุมมองของเขาเกี่ยวกับการแทนที่งาน
ที่น่าสนใจคือเขายอมรับว่าตัวเอง ยังไม่แน่ใจ หรือ ฟันธงในเรื่องนี้ บางครั้งมองโลกในแง่ดี บางครั้งก็มองในแง่ร้าย เพราะความไม่แน่นอนของอนาคต AI
บทเรียนสำหรับพ่อแม่และครอบครัวไทย 👨👩👧👦
ในฐานะผู้ปกครองยุคดิจิทัล เราจำเป็นต้องเตรียมลูกๆ ให้พร้อมกับโลกที่ AI จะมีบทบาทมากขึ้นอย่างต่อเนื่อง การสอนทักษะการคิดเชิงวิพากษ์ ความคิดสร้างสรรค์ และการแก้ปัญหาเชิงจริยธรรมจะเป็นเกราะป้องกันให้ลูกๆ ในอนาคต
ทักษะที่ AI ยังทำได้ไม่ดีเท่ามนุษย์ ได้แก่ ความเห็นอกเห็นใจ การสื่อสารเชิงอารมณ์ การทำงานร่วมกับผู้อื่น และการตัดสินใจในสถานการณ์ที่ซับซ้อนทางจริยธรรม สิ่งเหล่านี้จึงควรเป็นพื้นฐานการศึกษาของลูกๆ เรา
การมีความรู้พื้นฐานเกี่ยวกับเทคโนโลยีแต่ไม่ถูกครอบงำโดยมัน การรู้จักใช้ AI เป็นเครื่องมือแต่ไม่ให้ AI มาแทนที่การคิดของเรา นี่คือสมดุลที่เราต้องสอนลูกๆ
คำเตือนของ Geoffrey Hinton ไม่ใช่การทำให้คนตื่นตระหนกโดยไม่มีเหตุผล แต่เป็นการเตือนจากผู้ที่เข้าใจ AI ลึกที่สุดในโลก เขาไม่ต้องการให้เราหยุดพัฒนา AI แต่ต้องการให้เราพัฒนาอย่างระมัดระวัง