5 ธ.ค. 2025 เวลา 23:00 • หุ้น & เศรษฐกิจ

ผู้สร้าง AI เริ่มกลัว AI เอง พูดถึง ‘บังเกอร์วันสิ้นโลก’ หาก AI เริ่มปลดแอกจากมนุษย์

ในโลกที่ความสามารถ AI รุดหน้าไปอย่างรวดเร็ว นี่ไม่เพียงเขย่าอุตสาหกรรมดั้งเดิมเท่านั้น แต่ยังสร้าง “ความกลัว” ขึ้นมาด้วย กลุ่มอัจฉริยะระดับท็อปของวงการและผู้สร้าง AI เริ่มพูดถึงการขุด “บังเกอร์วันสิ้นโลก” เตรียมไว้ในวันที่ AI หลุดพ้นจากการควบคุมของมนุษย์
ไม่ใช่เพราะพวกเขาไม่เชื่อในอนาคตของ AI แต่เพราะพวกเขารู้ดีกว่าใครว่า อะไรอาจเกิดขึ้น เมื่อมนุษย์ไม่ได้เป็นสิ่งมีชีวิตที่ฉลาดที่สุดบนโลกอีกต่อไป
ปรากฏการณ์นี้ถูกสะท้อนอย่างชัดเจนจากเรื่องราวของ อิลยา ซุตสเคเวอร์ ผู้ร่วมก่อตั้งและอดีตหัวหน้าทีมนักวิจัยของ OpenAI ผู้อยู่เบื้องหลัง ChatGPT หนึ่งในมันสมอง AI อันทรงพลังในโลกปัจจุบัน
ในช่วงฤดูร้อนปี 2023 เขาได้เรียกประชุมทีมนักวิจัยหลักของ OpenAI และกล่าวด้วยน้ำเสียงจริงจังว่า
“เราทุกคนลงไปในบังเกอร์…”
นักวิจัยคนหนึ่งขัดขึ้นมาทันทีด้วยความงุนงง “ขอโทษนะ… บังเกอร์?”
แต่ซุตสเคเวอร์ยืนยันอย่างมั่นใจ “เราจะสร้างบังเกอร์ก่อนปล่อย AGI อย่างแน่นอน”
สำหรับ AGI หรือ Artificial General Intelligence คือจุดที่ปัญญาประดิษฐ์ฉลาดเทียบเท่า หรือเหนือกว่ามนุษย์ในทุกด้าน ซึ่งผู้สร้าง AI หลายรายเชื่อว่าเมื่อถึงวันนั้น โลกอาจเกิดความวุ่นวายครั้งใหญ่ ทั้งการแข่งขันทางอำนาจของมหาอำนาจ การโจรกรรมเทคโนโลยี การก่อการร้ายเชิงไซเบอร์ หรือแม้กระทั่งการที่ AI มองมนุษย์เป็น “อุปสรรค”
ซุตสเคเวอร์เชื่อว่า หาก AGI ถูกปล่อยออกสู่โลก ทีมผู้สร้างจะต้องมีที่หลบภัยที่ปลอดภัยก่อน
และไม่ใช่แค่เขาที่คิดแบบนั้น
ภายใน OpenAI มีคนกลุ่มหนึ่งเชื่อจริงจังว่า การสร้าง AGI อาจทำให้เกิดปรากฏการณ์เหมือน “วันพิพากษาโลก”
ความกลัวนี้ไม่ได้จำกัดอยู่ใน OpenAI เท่านั้น แต่เริ่มแพร่กระจายไปในหมู่มหาเศรษฐีและผู้นำเทคโนโลยีหลายคน ตัวอย่างเช่น
มาร์ก ซักเคอร์เบิร์ก กำลังก่อสร้างคอมเพล็กซ์ขนาดใหญ่ในฮาวาย มี “พื้นที่ใต้ดินลึกลับ” ราว 5,000 ตารางฟุต
ส่วนรีด ฮอฟฟ์แมน ผู้ก่อตั้ง LinkedIn กล่าวตรงๆว่า คนรวยจำนวนมากมี “ประกันวันสิ้นโลก” โดยนิยมซื้อที่ในนิวซีแลนด์
.
ขณะเดียวกัน วงการอสังหาริมทรัพย์ระดับพันล้าน ก็กำลังเติบโตแบบเงียบๆ เพื่อทำที่อยู่หลบภัยใต้ดิน
.
ไม่ว่าจะเรียกว่า “บังเกอร์” “บ้านพักตากอากาศ” หรือ “ห้องใต้ดิน” โครงสร้างเหล่านี้ดูคล้ายกันอย่างน่าประหลาด
ความย้อนแย้งที่น่ากังวล คือ คนที่เร่งสร้าง AI กลับเป็นคนที่กลัวมันมากที่สุด
ย้อนไปในปี 2023 ความกังวลนี้ได้ปะทุขึ้น จนเป็นหนึ่งในเหตุผลที่ขับไล่แซม อัลท์แมน ออกจากซีอีโอ OpenAI ซึ่งซุตสเคเวอร์และทีมนักวิจัยบางคนมองว่า อัลท์แมนผลักดัน AI เร็วมากเกินไปและละเลยความปลอดภัย
ซุตสเคเวอร์พูดประโยคที่เลื่องลือว่า “ผมไม่คิดว่า แซมควรเป็นคนที่กดปุ่มปล่อย AGI”
แม้การปลดครั้งนั้นจะล้มเหลวและอัลท์แมนกลับมาได้ จากแรงหนุนของ Microsoft แต่ความแตกแยกภายในเผยให้เห็นความกังวลใหญ่อย่างหนึ่งขึ้น เพราะแม้แต่ผู้สร้าง AI ก็ไม่แน่ใจว่า มนุษยชาติพร้อมรับมือมันแล้วหรือยัง
ยิ่งล่าสุด ปธน.ทรัมป์ออกคำสั่ง “Genesis Mission” ยกระดับ AI เทียบชั้นโครงการแมนฮัตตัน ก็ยิ่งสร้างความหวาดหวั่นว่าจะซ้ำรอย “Genisys” ซึ่งเป็น Skynet ร่างใหม่ในหนัง Terminator Genisys หรือไม่ โดย Genisys เป็น AI เดียวที่ควบคุมทุกอย่าง ตั้งแต่การสื่อสาร สมาร์ทโฮม บริการสาธารณะ ไปจนถึงระบบการทหาร รวมถึงการควบคุมขีปนาวุธ
อ่านเนื้อหาต่อได้ที่: https://www.bangkokbiznews.com/world/1209717
#กรุงเทพธุรกิจ #InsightforOpportunities #กรุงเทพธุรกิจTech #กรุงเทพธุรกิจAI
โฆษณา