30 มี.ค. เวลา 14:28 • วิทยาศาสตร์ & เทคโนโลยี

เจาะลึกดีลเพนตากอนกับบริษัท AI: เมื่อรัฐเริ่มเขียนกติกาใหม่ให้โลก AI

เหตุการณ์ที่เกิดขึ้นในช่วงต้นปี 2026 กำลังเปลี่ยนสมดุลอำนาจระหว่างรัฐกับบริษัท AI อย่างมีนัยสำคัญ อย่างน้อยในระยะสั้น มันสะท้อนให้เห็นว่ากติกาการแข่งขันของบริษัท AI ไม่ได้ถูกกำหนดด้วยคุณภาพโมเดลเพียงอย่างเดียวอีกต่อไป
จุดแตกหัก: เมื่อเส้นแดงทางจริยธรรมของ Anthropic ปะทะกับคำขาดของเพนตากอน
ทุกอย่างเริ่มต้นขึ้นในเดือนมกราคม 2026 เมื่อกระทรวงกลาโหมสหรัฐฯ (Department of War: DoW) ภายใต้รัฐบาลทรัมป์ ออกยุทธศาสตร์ AI-First ที่ชัดเจน โดยมีคำสั่งให้ทุกสัญญาจัดซื้อจัดจ้างด้าน AI ต้องระบุเงื่อนไขการใช้งานว่า "for any lawful purpose" (เพื่อวัตถุประสงค์ใดๆ ที่ชอบด้วยกฎหมาย) คำสั่งนี้คือจุดเริ่มต้นของพายุที่กำลังจะก่อตัว
Anthropic บริษัท AI ที่ก่อตั้งโดยอดีตผู้บริหารระดับสูงของ OpenAI และขึ้นชื่อเรื่องจุดยืนด้านความปลอดภัยและจริยธรรม (AI Safety) ได้รับแรงกดดันโดยตรง พวกเขามีสัญญากับเพนตากอนอยู่แล้ว และกำลังถูกบีบให้ยอมรับเงื่อนไขใหม่นี้ แต่ Anthropic ยืนกรานปฏิเสธ โดยให้เหตุผลว่าเงื่อนไข "any lawful use" นั้นกว้างเกินไปและอาจเปิดทางให้ AI ถูกนำไปใช้ในทางที่ผิดได้
จากแถลงการณ์ของ Anthropic เอง สิ่งที่พวกเขาปฏิเสธอย่างชัดเจนมี 2 เรื่องหลัก คือ
  • 1.
    การสอดแนมมวลชนในประเทศ (Mass Domestic Surveillance): การใช้ AI เพื่อสอดแนมพลเมืองของตนเองในวงกว้าง
  • 2.
    อาวุธอัตโนมัติสังหาร (Fully Autonomous Weapons): ระบบอาวุธที่สามารถตัดสินใจสังหารเป้าหมายได้โดยไม่มีมนุษย์ควบคุม
สิ่งสำคัญที่ต้องเข้าใจคือ Anthropic ไม่ได้ปฏิเสธงานภาครัฐทั้งหมด แต่ปฏิเสธ "ขอบเขตการใช้ที่กว้างเกินไป" ในสัญญา ซึ่งเป็นความแตกต่างที่ละเอียดอ่อนแต่สำคัญมาก
ความขัดแย้งทวีความรุนแรงขึ้นในช่วงปลายเดือนกุมภาพันธ์ 2026 เมื่อรัฐบาลทรัมป์ใช้มาตรการที่ไม่เคยมีมาก่อน โดยอาศัยอำนาจตามกฎหมายความมั่นคงแห่งชาติ มาตรา 3252 (10 U.S.C. §3252) โดยในวันที่ 27 กุมภาพันธ์ มีคำสั่งจากทรัมป์ให้หน่วยงานรัฐบาลกลางหยุดใช้เทคโนโลยีของ Anthropic และมีสัญญาณจาก Pete Hegseth รัฐมนตรีกลาโหมเกี่ยวกับการพิจารณาขึ้นบัญชีดำ ก่อนที่ในวันที่ 4–5 มีนาคม 2026 จะมีการประกาศ formal designation ให้ Anthropic เป็น "ความเสี่ยงต่อห่วงโซ่อุปทาน" (Supply Chain Risk) อย่างเป็นทางการ
มาตรการดังกล่าวสร้างแรงกระแทกโดยตรงต่อธุรกิจภาครัฐของ Anthropic และเพิ่มความเสี่ยงต่อสัญญาที่เกี่ยวข้องกับกระทรวงกลาโหม รวมถึงสัญญาที่มีมูลค่าสูงถึงราว 200 ล้านดอลลาร์ การกระทำของรัฐบาลทรัมป์ถูกมองว่าเป็น "การใช้อำนาจที่ผิดปกติ" และเป็นการส่งสัญญาณเตือนไปยังบริษัทเทคโนโลยีอื่นๆ ว่าหากไม่ร่วมมือ ก็พร้อมจะถูกตัดออกจากวงจรธุรกิจกับภาครัฐ
โอกาสของ OpenAI: กลยุทธ์ที่แตกต่างและการเดิมพันครั้งใหญ่
เพียงหนึ่งวันหลังจากมีคำสั่งให้หน่วยงานรัฐหยุดใช้ Anthropic ในวันที่ 28 กุมภาพันธ์ 2026 OpenAI ก็ได้ประกาศข้อตกลงความร่วมมือกับเพนตากอนอย่างเป็นทางการ การเคลื่อนไหวที่รวดเร็วนี้แสดงให้เห็นถึงกลยุทธ์ที่แตกต่างกันอย่างสิ้นเชิงระหว่างสองยักษ์ใหญ่ AI
จากคำประกาศของ OpenAI บริษัทเลือกทำงานกับภาครัฐภายใต้กรอบที่กว้างกว่า Anthropic แต่พยายามล็อกความเสี่ยงผ่านระบบควบคุมหลายชั้น หรือที่เรียกว่า "Layered Approach" โดยอ้างอิงถึง DoD Directive 3000.09 ซึ่งเป็นนโยบายที่มีอยู่แล้วเกี่ยวกับการใช้ระบบอาวุธอัตโนมัติ ระบบควบคุมเหล่านี้ประกอบด้วย
• Cloud-Only Deployment: จำกัดการใช้งาน AI บนคลาวด์เท่านั้น เพื่อป้องกันการนำไปติดตั้งบนระบบอาวุธที่ทำงานแบบ Standalone
• Safety Stack: ใช้เทคโนโลยีและกระบวนการภายในเพื่อกรองและป้องกันการใช้งานที่เป็นอันตราย
• Cleared Personnel: มีทีมงานที่ผ่านการรับรองความปลอดภัยระดับสูงคอยกำกับดูแล
• Contractual Protections: ระบุข้อจำกัดเพิ่มเติมในสัญญา
• Logging & Auditability: ระบบบันทึกและตรวจสอบการใช้งานที่โปร่งใส
ต่อมาในวันที่ 2 มีนาคม OpenAI ยังได้ปรับปรุงข้อความบนหน้า agreement ให้เข้มขึ้น โดยเฉพาะประเด็นการสอดแนมพลเมืองสหรัฐฯ ภายในประเทศ และระบุว่าหน่วยข่าวกรองอย่าง NSA จะต้องมีข้อตกลงแยกต่างหาก ซึ่งเป็นสัญญาณว่า OpenAI ก็ไม่ได้ยอมรับทุกอย่างโดยไม่มีเงื่อนไข
ในช่วงเวลาใกล้เคียงกัน OpenAI ยังประกาศระดมทุนรอบใหญ่ 110,000 ล้านดอลลาร์ หลังจากการระดมทุนรอบล่าสุด ทำให้มูลค่าของ OpenAI อยู่ที่ประมาณ 840,000 ล้านดอลลาร์ตามรายงานข่าว การระดมทุนครั้งนี้ไม่เพียงแต่เสริมความแข็งแกร่งทางการเงิน แต่ยังเป็นการส่งสัญญาณว่าตลาดให้ความเชื่อมั่นในแนวทางเชิงปฏิบัติของ OpenAI มากกว่าจุดยืนเชิงหลักการของ Anthropic ในช่วงเวลานั้น
GenAI.mil: สนามรบใหม่ของ AI ในกระทรวงกลาโหม
หัวใจสำคัญของการแข่งขันครั้งนี้คือแพลตฟอร์มที่ชื่อว่า GenAI.mil ซึ่งกำลังกลายเป็นหนึ่งในจุดผ่านสำคัญสำหรับการใช้งาน frontier AI ในระบบของกระทรวงกลาโหม แพลตฟอร์มนี้ถูกออกแบบมาเพื่อเป็นศูนย์กลางในการเข้าถึงและใช้งานโมเดล AI จากบริษัทต่างๆ ในสภาพแวดล้อมที่มีความปลอดภัยสูงระดับ Impact Level 5 (IL5) ซึ่งรองรับข้อมูลที่ละเอียดอ่อนแต่ยังไม่ถึงขั้นเป็นความลับสุดยอด
GenAI.mil ไม่ได้เป็นเพียงแค่ที่เก็บโมเดล AI แต่เป็นระบบนิเวศที่ครบวงจร รองรับการใช้งานหลากหลายรูปแบบ ตั้งแต่การวิเคราะห์ข่าวกรอง การวางแผนปฏิบัติการ ไปจนถึงงานเอกสารอัตโนมัติ การที่ AI โมเดลใดจะเข้ามาอยู่ในแพลตฟอร์มนี้ได้ โดยทั่วไปต้องผ่านกระบวนการตรวจสอบและรับรองด้านความปลอดภัย (Authorization to Operate — ATO) ซึ่งเป็นกระบวนการที่ใช้เวลาและทรัพยากรสูง
ล่าสุดในเดือนมีนาคม 2026 บนแพลตฟอร์ม GenAI.mil ได้มีการเปิดตัว "Agent Designer" ซึ่งเป็นเครื่องมือแบบ No-Code ที่ขับเคลื่อนโดย Google Gemini ทำให้เจ้าหน้าที่กว่า 3 ล้านคนสามารถสร้าง AI Agent เพื่อช่วยงานของตนเองได้โดยไม่ต้องเขียนโค้ด สิ่งนี้แสดงให้เห็นว่าสงคราม AI ในภาครัฐ ไม่ได้แข่งกันที่ตัวโมเดลเพียงอย่างเดียว แต่ยังแข่งกันที่ "เครื่องมือ" และ "แพลตฟอร์ม" ที่จะช่วยให้การนำ AI ไปใช้งานจริงเกิดขึ้นได้ในวงกว้าง
ความย้อนแย้งของ Anthropic: เมื่อ "การกระทำ" สวนทางกับ "คำพูด"
แม้ Anthropic จะยืนหยัดในหลักการอย่างแข็งขัน แต่สถานการณ์กลับซับซ้อนยิ่งขึ้นเมื่อมีรายงานจาก WSJ และสื่ออื่นบางแห่งว่า Claude เคยถูกใช้งานใน workflow บางส่วนของเพนตากอนก่อนที่จะเกิดความขัดแย้งเสียอีก แม้รายละเอียดเชิงระบบยังไม่ได้รับการยืนยันอย่างเป็นทางการ
ข้อมูลนี้สร้างความสับสนและตั้งคำถามถึงความสอดคล้องในจุดยืนของ Anthropic พวกเขาปฏิเสธสัญญาในอนาคตบนพื้นฐานของหลักจริยธรรม แต่เทคโนโลยีของพวกเขาอาจถูกใช้งานในบริบทที่ใกล้เคียงกันไปแล้ว สิ่งนี้ชี้ให้เห็นถึงความแตกต่างระหว่าง "การใช้งานในอดีต" (Past Use) กับ "สัญญาในอนาคต" (Future Contract) และความซับซ้อนในการควบคุมเทคโนโลยีที่มีการใช้งานที่หลากหลาย (Dual-use)
ยิ่งไปกว่านั้น Anthropic ยังถูกวิจารณ์อีกด้านหนึ่ง หลังปรับ Responsible Scaling Policy เป็นเวอร์ชัน 3.0 ซึ่งนักวิจารณ์บางส่วนมองว่าอ่อนลงจากคำมั่นเดิม ทำให้ภาพลักษณ์ "ผู้พิทักษ์จริยธรรม AI" ของพวกเขาสั่นคลอนอย่างหนัก เพราะดูเหมือนว่าในขณะที่ยืนหยัดต่อสู้กับรัฐบาลในเรื่องหนึ่ง พวกเขากลับลดมาตรฐานของตัวเองในอีกเรื่องหนึ่งพร้อมกัน
Palantir: ผู้บูรณาการเชิงโครงสร้างที่กุมอำนาจเบื้องหลัง
ท่ามกลางการแข่งขันระหว่างผู้สร้างโมเดล AI, Palantir Technologies บริษัทที่เชี่ยวชาญด้านการวิเคราะห์ข้อมูลขนาดใหญ่ ได้กลายเป็นผู้เล่นโครงสร้างที่สำคัญที่สุดรายหนึ่งในสมรภูมินี้อย่างเงียบๆ Palantir ไม่ได้สร้างโมเดล AI ของตัวเอง แต่ทำหน้าที่เป็น "ผู้บูรณาการ" (Integrator) ที่นำโมเดล AI จากบริษัทต่างๆ มาผนวกรวมเข้ากับแพลตฟอร์มของตนเองที่ชื่อว่า Maven Smart System
Maven คือระบบที่ฝังลึกอยู่ในกระบวนการทำงาน (Workflow) ของกองทัพสหรัฐฯ เป็น Interface ที่ทหารใช้ในการวิเคราะห์ข้อมูลและตัดสินใจในภารกิจจริง ในวันที่ 20 มีนาคม 2026 มีรายงานข่าวจาก Reuters ว่าเพนตากอนได้ยกระดับให้ Maven เป็น "ระบบ AI แกนหลัก" (Core System of Record) ของกองทัพ
การตัดสินใจนี้มีความหมายอย่างยิ่ง เพราะมันแสดงให้เห็นว่าอำนาจที่แท้จริงไม่ได้อยู่ที่ว่า "ใครมีโมเดล AI ที่เก่งที่สุด" แต่อยู่ที่ว่า "ใครคือผู้ที่ครอง Workflow และ Data Pipeline" Palantir ได้สร้างสภาวะ Vendor Lock-in ที่แข็งแกร่ง ทำให้การจะเปลี่ยนไปใช้โมเดล AI อื่นๆ ไม่ใช่แค่การเปลี่ยน API แต่ต้องรื้อกระบวนการทำงานทั้งระบบ ซึ่งเป็นเรื่องที่ทำได้ยากและมีค่าใช้จ่ายสูง
ผลกระทบต่อตลาดและการลงทุน: เมื่อรัฐกลายเป็นผู้กำหนดเกม
สิ่งที่เหตุการณ์นี้เปิดเผยให้เห็นอย่างชัดเจนคือ รัฐบาลไม่ได้เป็นเพียงแค่ "ลูกค้ารายใหญ่" ของบริษัท AI อีกต่อไป แต่กำลังกลายเป็น ผู้กำหนดกติกาการแข่งขัน ที่มีอำนาจในการเปิดหรือปิดประตูตลาดให้กับผู้เล่นแต่ละราย การที่รัฐบาลสามารถขึ้นบัญชีดำบริษัทเอกชนได้ด้วยกฎหมายความมั่นคงแห่งชาติ คือสัญญาณที่นักลงทุนไม่อาจมองข้ามได้
สำหรับนักลงทุน เหตุการณ์นี้บังคับให้ต้องเพิ่มตัวแปรใหม่เข้าไปในสมการการประเมินมูลค่า ไม่ใช่แค่ความสามารถของโมเดล ขนาดของตลาด หรืออัตราการเติบโต แต่ยังต้องพิจารณา "Compliance Moat" (ความได้เปรียบจากการผ่านมาตรฐานความปลอดภัยของรัฐ), "Political Risk Premium" (ความเสี่ยงจากการเปลี่ยนแปลงนโยบาย), และ "Switching Costs" (ต้นทุนในการเปลี่ยนผู้ให้บริการ) ซึ่งทั้งหมดนี้ส่งผลโดยตรงต่อความยั่งยืนของรายได้ในระยะยาว
ในระยะยาว ผู้ที่น่าจะได้เปรียบที่สุดอาจไม่ใช่ผู้สร้างโมเดลเพียงอย่างเดียว แต่รวมถึงผู้ที่ครองแพลตฟอร์มและกระบวนการทำงานอย่าง Palantir หรือผู้ให้บริการคลาวด์รายใหญ่อย่าง Amazon (AWS) และ Microsoft (Azure) ที่เป็นโครงสร้างพื้นฐานสำคัญของระบบนิเวศ AI ทั้งหมด บริษัทเหล่านี้ได้ประโยชน์ไม่ว่าโมเดลไหนจะชนะ เพราะพวกเขาคือ "ท่อส่ง" ที่ทุกคนต้องใช้
จุดเปลี่ยนเดือนมีนาคม 2026: เมื่อความขัดแย้งขยายวงกว้าง
เดือนมีนาคม 2026 แสดงให้เห็นว่าความขัดแย้งนี้ไม่ได้จบลงแค่ในห้องประชุมของบริษัท AI แต่กำลังลามออกไปสู่ 3 แนวรบพร้อมกัน
แนวรบที่หนึ่ง — ข้อตกลงที่ชัดขึ้น: ในต้นเดือนมีนาคม OpenAI ปรับปรุงข้อความบนหน้า agreement ให้เข้มขึ้นอีกครั้ง โดยเฉพาะประเด็นการสอดแนมพลเมืองสหรัฐฯ ภายในประเทศ และระบุชัดว่าหน่วยข่าวกรองอย่าง NSA จะต้องมีข้อตกลงแยกต่างหาก การเคลื่อนไหวนี้บ่งบอกว่า OpenAI เองก็ไม่ได้ยอมรับทุกอย่างโดยไม่มีเงื่อนไข
แนวรบที่สอง — ศาลและกฎหมาย: ในวันที่ 9 มีนาคม Anthropic ยื่นฟ้องรัฐบาลสหรัฐฯ ต่อศาลกลาง 2 แห่ง เพื่อคัดค้านการขึ้นบัญชีดำที่พวกเขามองว่าขาดกระบวนการที่ชอบธรรม นี่ไม่ใช่แค่การต่อสู้เพื่อสัญญาที่หายไป แต่เป็นการท้าทายหลักการว่ารัฐบาลมีอำนาจมากแค่ไหนในการกีดกันบริษัทเอกชนออกจากตลาดด้วยกฎหมายความมั่นคงแห่งชาติ สิ่งที่น่าสังเกตคือพนักงานของ OpenAI และ Google บางส่วนออกมาแสดงจุดยืนสนับสนุนการต่อสู้ทางกฎหมายของ Anthropic อย่างเปิดเผย แม้บริษัทของพวกเขาเองจะอยู่ฝั่งตรงข้าม
แนวรบที่สาม — การเมืองและสิทธิพลเมือง: วุฒิสมาชิก Elizabeth Warren ประกาศเปิดการสอบสวนอย่างเป็นทางการ ตั้งคำถามว่าการใช้อำนาจตามมาตรา 3252 เพื่อขึ้นบัญชีดำบริษัทเอกชนนั้นชอบด้วยกฎหมายหรือไม่ และมีแรงจูงใจทางการเมืองแฝงอยู่หรือเปล่า ทำให้เรื่องนี้กลายเป็นประเด็นสาธารณะที่ขยายวงออกไปไกลกว่าแค่ความขัดแย้งทางธุรกิจ และเริ่มแตะถึงคำถามพื้นฐานว่าในยุค AI รัฐบาลควรมีอำนาจแค่ไหนในการกำหนดว่าใครจะอยู่รอดในตลาดได้
บทสรุป: สมดุลอำนาจใหม่และคำถามที่ยังไม่มีคำตอบ
มหากาพย์ความขัดแย้งครั้งนี้ได้เปลี่ยนสมการอำนาจในโลก AI ไปอย่างมีนัยสำคัญ มันไม่ใช่แค่เรื่องราวของบริษัทสองแห่งที่เลือกเดินคนละเส้นทาง แต่เป็นภาพสะท้อนของแรงปะทะระหว่าง อุดมการณ์, ผลประโยชน์เชิงพาณิชย์, และความมั่นคงของชาติ
3 ประเด็นสำคัญที่เราได้เรียนรู้จากเหตุการณ์นี้
1. "หลักการ" ไม่สามารถอยู่รอดได้โดยไม่มี "อำนาจต่อรอง": จุดยืนของ Anthropic นั้นน่าชื่นชม แต่ในโลกแห่งความเป็นจริง การขาดอำนาจต่อรองทางเศรษฐกิจและการเมืองทำให้พวกเขาตกเป็นฝ่ายเสียเปรียบ
2. ผู้ชนะที่แท้จริงคือผู้ที่คุม "โครงสร้างพื้นฐาน": ไม่ว่าโมเดล AI จะเปลี่ยนไปอย่างไร ผู้ที่ควบคุมแพลตฟอร์ม, กระบวนการทำงาน, และคลาวด์ (เช่น Palantir, Amazon, Microsoft) จะยังคงเป็นผู้ที่กุมความได้เปรียบในระยะยาว
3. สิ่งที่สิ้นสุดลงอาจไม่ใช่ AI ที่รับผิดชอบ แต่คือความเชื่อเดิมที่ว่าบริษัท AI จะเป็นผู้กำหนดเส้นแดงได้ด้วยตัวเอง รัฐบาลได้แสดงให้เห็นแล้วว่าพวกเขามีเครื่องมือและความตั้งใจที่จะเข้ามามีบทบาทในการกำหนดทิศทางของ AI ไม่ว่าบริษัทเทคโนโลยีจะเห็นด้วยหรือไม่
เรื่องราวนี้ยังไม่จบ และได้ทิ้งคำถามสำคัญไว้ให้เราต้องขบคิดต่อไป ในวันที่ AI มีพลังเทียบเท่าหรือเหนือกว่าอาวุธนิวเคลียร์ เราจะสร้างสมดุลระหว่าง "การพัฒนาเพื่อความมั่นคง" กับ "การควบคุมเพื่อไม่ให้เกิดหายนะ" ได้อย่างไร? และใครควรจะเป็นผู้ขีดเส้นแดงที่แท้จริงให้กับเทคโนโลยีที่ทรงพลังที่สุดในประวัติศาสตร์ของมนุษยชาติ?
Reference Source
1. "Artificial Intelligence Strategy for the Department of War," U.S. Department of Defense, January 12, 2026. https://media.defense.gov/2026/Jan/12/2003855671/-1/-1/0/ARTIFICIAL-INTELLIGENCE-STRATEGY-FOR-THE-DEPARTMENT-OF-WAR.PDF
2. "Pentagon asks Boeing, Lockheed Martin about their exposure to Anthropic," Reuters, February 25, 2026. https://www.reuters.com/business/aerospace-defense/pentagon-asks-boeing-lockheed-martin-about-their-exposure-anthropic-axios-2026-02-25/
3. "Anthropic Statement on Department of War," Anthropic, February 2026. https://www.anthropic.com/news/statement-department-of-war
4. "Our Agreement with the Department of War," OpenAI, February 28, 2026. https://openai.com/index/our-agreement-with-the-department-of-war/
5. "Trump says he is directing federal agencies to cease use of Anthropic technology," Reuters, February 27, 2026. https://www.reuters.com/world/us/trump-says-he-is-directing-federal-agencies-cease-use-anthropic-technology-2026-02-27/
6. "Anthropic's Case Against the Government: What the AI Company Says Happened," Reuters, March 9, 2026. https://www.reuters.com/legal/litigation/anthropics-case-against-government-what-ai-company-says-happened-2026-03-09/
7. "Pentagon to Adopt Palantir AI as Core U.S. Military System, Memo Says," Reuters, March 20, 2026. https://www.reuters.com/technology/pentagon-adopt-palantir-ai-as-core-us-military-system-memo-says-2026-03-20/
8. "Warren Opens Investigation into Pentagon's Designation of Anthropic as National Security Risk," Office of Senator Elizabeth Warren, March 2026. https://www.warren.senate.gov/newsroom/press-releases/warren-opens-investigation-into-pentagons-designation-of-anthropic-as-national-security-risk-new-openai-contract
9. "Iran War Heralds Era of AI-Powered Bombing 'Quicker Than Speed of Thought'," The Guardian, March 3, 2026. https://www.theguardian.com/technology/2026/mar/03/iran-war-heralds-era-of-ai-powered-bombing-quicker-than-speed-of-thought
10. DoD Directive 3000.09, "Autonomy in Weapon Systems," U.S. Department of Defense. https://www.esd.whs.mil/Portals/54/Documents/DD/issuances/dodd/300009p.pdf
โฆษณา