เรื่องราวทั้งหมดเริ่มต้นขึ้นในห้องแล็บของบริษัทยักษ์ใหญ่ทั่วโลก ไม่ใช่แค่ Meta แต่ยังรวมถึง Google ที่มี DeepMind เป็นหน่วยรบแนวหน้า และ OpenAI ที่มี Sam Altman เป็นแม่ทัพ
พวกเขากำลังแข่งขันกันเพื่อสร้างสิ่งที่เรียกว่า AGI หรือ Artificial General Intelligence
หากเปรียบ AI ในปัจจุบันเป็นผู้เชี่ยวชาญที่เก่งเฉพาะด้าน เช่น เป็นนักวาดรูป หรือนักเขียนโค้ดที่เก่งกาจ AGI ก็คืออัจฉริยะที่ทำได้ทุกอย่าง
ถ้า AGI คือ AI ที่มีความฉลาดทัดเทียมกับมนุษย์ที่เก่งที่สุดในโลก Superintelligence ก็คือ AI ที่มีความฉลาดเหนือกว่ามนุษย์ทุกคนบนโลกรวมกันแบบที่ไม่อาจเทียบได้
เมื่อการสร้าง Superintelligence ไม่ใช่แค่ความฝันอีกต่อไป คำถามที่น่ากลัวที่สุดก็เริ่มดังขึ้นในหมู่นักวิทยาศาสตร์ นั่นคือ “ปัญหาเรื่องการควบคุม” (The Control Problem)
เรื่องนี้ถูกอธิบายไว้อย่างเห็นภาพโดยนักปรัชญา Nick Bostrom แห่งมหาวิทยาลัย Oxford ผ่านตัวอย่างที่เรียกว่า “ตัวขยายพันธุ์คลิปหนีบกระดาษ”