กระทรวงกลาโหมสหรัฐฯ ทุ่มงบมหาศาล ดึง 4 บิ๊กเทคฯ พัฒนา AI สงคราม อาวุธสมองกลยุคใหม่ ท่ามกลางวิกฤตจริยธรรมและการสั่งขึ้นบัญชีดำบริษัทที่ปฏิเสธเงื่อนไข
บริษัทเทคโนโลยียักษ์ใหญ่ของสหรัฐฯ กำลังเข้ามามีบทบาทสำคัญในโครงการพัฒนา AI ทางทหารของกระทรวงกลาโหมสหรัฐฯ หรือเพนตากอน ผ่านสัญญามูลค่าหลายร้อยล้านดอลลาร์ อย่างไรก็ตาม ความร่วมมือระหว่างภาคเอกชนกับเพนตากอนกำลังจุดชนวนข้อถกเถียงด้านจริยธรรมอย่างหนัก โดยเฉพาะการใช้ AI ในการเฝ้าระวังและอาวุธอัตโนมัติ ซึ่งนำไปสู่ความขัดแย้งระหว่างบริษัท AI ชั้นนำอย่าง Anthropic และ OpenAI
ตามรายงานของ DefenseScoop ระบุว่า ในเดือนกรกฎาคม 2568 สำนักงาน Chief Digital and Artificial Intelligence Office (CDAO) ของกระทรวงกลาโหมสหรัฐฯ หรือเพนตากอน ได้มอบสัญญาพัฒนาเทคโนโลยีปัญญาประดิษฐ์ (AI) ให้กับบริษัทเทคโนโลยีรายใหญ่ 4 แห่ง ได้แก่ OpenAI, Anthropic, Google และ xAI โดยแต่ละบริษัทสามารถได้รับสัญญามูลค่าสูงสุดถึง 200 ล้านดอลลาร์สหรัฐ หรือราว 7,200 ล้านบาท
โครงการดังกล่าวมีเป้าหมายพัฒนาเทคโนโลยี AI ขั้นสูงสำหรับภารกิจด้านความมั่นคงของประเทศ เช่น ระบบ AI ที่สามารถช่วยวางแผนงานหรือทำงานอัตโนมัติร่วมกับมนุษย์ โมเดลภาษาขนาดใหญ่ที่ใช้วิเคราะห์ข้อมูลจำนวนมาก รวมถึงโครงสร้างพื้นฐานคลาวด์ เพื่อสนับสนุนภารกิจด้านการรบ การข่าวกรอง และการบริหารจัดการภายในกองทัพ
รายงานจาก Nextgov ระบุว่า สัญญาเหล่านี้เปิดทางให้เพนตากอนสามารถเข้าถึงนวัตกรรม AI ล่าสุดจากภาคเอกชน เพื่อเร่งนำเทคโนโลยีไปใช้สนับสนุนกำลังพลและรักษาความได้เปรียบทางยุทธศาสตร์ของสหรัฐฯ โดยทั้ง 4 บริษัทได้รับเลือกจากความเชี่ยวชาญด้าน AI และจะเริ่มพัฒนา ต้นแบบระบบ AI สำหรับภารกิจทางทหารหลายรูปแบบ
อย่างไรก็ตาม ล่าสุดความร่วมมือนี้กลับเกิดความขัดแย้งครั้งใหญ่ โดยบริษัท Anthropic ปฏิเสธที่จะผ่อนปรนเงื่อนไขการใช้งาน AI ให้กับเพนตากอน โดยยืนยัน ข้อห้ามเด็ดขาด ของบริษัท ได้แก่ การห้ามใช้ AI เพื่อเฝ้าระวังประชาชนชาวอเมริกันในวงกว้าง และห้ามใช้กับอาวุธอัตโนมัติที่สามารถสังหารเป้าหมายได้โดยไม่มีมนุษย์ควบคุม
ท่าทีดังกล่าวทำให้เพนตากอนจัดให้บริษัท Anthropic เป็น ความเสี่ยงต่อห่วงโซ่อุปทาน (Supply chain risk) ซึ่งหมายถึงบริษัทที่อาจสร้างความเสี่ยงต่อระบบจัดหาหรือเทคโนโลยีของกองทัพ มาตรการลักษณะนี้แทบไม่เคยถูกใช้กับบริษัทสัญชาติอเมริกันมาก่อน
กระทรวงกลาโหมสหรัฐฯ ยังเตือนว่า หาก Anthropic ไม่ยอมผ่อนคลายข้อจำกัด อาจถูกตัดออกจากสัญญาของรัฐบาลทั้งหมด ขณะที่รัฐมนตรีกลาโหม พีต เฮกเซธ ได้ดำเนินมาตรการ ขึ้นบัญชีดำ บริษัท ทำให้หน่วยงานรัฐบาลกลางต้องหยุดใช้เทคโนโลยีของบริษัทดังกล่าว โดย Anthropic เตรียมดำเนินคดีต่อรัฐบาลสหรัฐฯ เพื่อต่อสู้กับคำสั่งนี้
หลังจากนั้นไม่นาน บริษัท OpenAI ได้ประกาศข้อตกลงใหม่กับเพนตากอนเพียงไม่กี่ชั่วโมงหลัง Anthropic ถูกขึ้นบัญชีดำ โดยสัญญาฉบับนี้อนุญาตให้ใช้ AI เพื่อวัตถุประสงค์ใดก็ตามที่ไม่ขัดต่อกฎหมาย ภายใต้กฎหมายสหรัฐฯ เช่น รัฐธรรมนูญมาตรา 4 กฎหมายข่าวกรองต่างประเทศ (FISA) และคำสั่งฝ่ายบริหารหมายเลข 12333 พร้อมมาตรการทางเทคนิค เช่น ระบบตรวจจับการใช้งานผิดวัตถุประสงค์ และการติดตามการใช้งานผ่านระบบคลาวด์
อย่างไรก็ตาม นักวิจารณ์จำนวนมากกังวลว่าเงื่อนไขการใช้งานที่ถูกกฎหมาย อาจเปิดช่องให้เกิดการเฝ้าระวังประชาชนในวงกว้างได้ เช่น การวิเคราะห์ข้อมูลตำแหน่งที่ตั้งหรือพฤติกรรมการใช้อินเทอร์เน็ตจำนวนมหาศาล ซึ่งแม้จะไม่ผิดกฎหมาย แต่สามารถนำมาประมวลผลเพื่อสร้างโปรไฟล์ดิจิทัลของบุคคลได้อย่างละเอียด
ตั้งแต่รูปแบบการใช้ชีวิต ความสนใจ ไปจนถึงแนวโน้มพฤติกรรมในอนาคต และอาจถูกนำไปใช้ติดตามหรือคัดกรองบุคคลได้ในระดับลึก ภายหลัง OpenAI จึงได้ปรับเงื่อนไขบางส่วนของสัญญาเพื่อเพิ่มมาตรการป้องกันการใช้งานในลักษณะดังกล่าว
ด้านบริษัท xAI ของ อีลอน มัสก์ ได้พัฒนาโครงการ Grok for Government ผ่านหน่วยงานจัดซื้อจัดจ้างของรัฐบาลสหรัฐฯ เพื่อให้หน่วยงานรัฐสามารถใช้ AI ในภารกิจต่างๆ ได้ ขณะที่ Google เสนอเทคโนโลยีโครงสร้างพื้นฐานสำหรับ AI เช่น Tensor Processing Units ซึ่งเป็นชิปสำหรับฝึกโมเดล AI และระบบแพลตฟอร์มสำหรับสร้าง AI ที่ทำงานอัตโนมัติ
ถึงแม้ OpenAI จะยืนยันว่า บริษัทยังคงมีข้อจำกัดด้านจริยธรรมเหมือนกับ Anthropic แต่นักวิชาการบางส่วนมองว่าสัญญาดังกล่าวอาจเปิดช่องให้กองทัพมีอิสระในการใช้ AI มากเกินไป โดยอ้างถึงกรณีโครงการเฝ้าระวังของสหรัฐฯ ที่เคยถูกเปิดโปงโดย เอ็ดเวิร์ด สโนว์เดน อดีตผู้รับเหมาของ National Security Agency (NSA) ซึ่งในปี 2556 ได้เปิดเผยเอกสารลับจำนวนมากเกี่ยวกับระบบสอดแนมข้อมูลดิจิทัลของรัฐบาลสหรัฐฯ ทั่วโลก จนกลายเป็นหนึ่งในคดีการเปิดโปงข้อมูลข่าวกรองครั้งใหญ่ที่สุดในประวัติศาสตร์
ผู้เชี่ยวชาญด้านนโยบายเทคโนโลยีอย่าง ซาราห์ โชเกอร์ ระบุว่า ถ้อยคำในสัญญาบางส่วน เช่น ไม่มีข้อจำกัด หรือ ใช้ได้ทั่วไป อาจให้อำนาจกองทัพกว้างขวางเกินไป ขณะที่มาตรการป้องกันทางเทคนิคอาจไม่สามารถหยุดการใช้งานที่เกิดจากการตัดสินใจของมนุษย์ได้
ข้อพิพาทครั้งนี้ยังทำให้เกิดความกังวลว่าสหรัฐฯ อาจกำลังเดินตามแนวทาง การผสานภาคทหารกับภาคพลเรือน แบบที่จีนใช้ ซึ่งหมายถึงการให้บริษัทเอกชนพัฒนาเทคโนโลยีเพื่อใช้ทางทหารโดยตรง นักวิเคราะห์บางส่วนจึงเรียกร้องให้มีการออกกฎหมายระดับประเทศ หรือแม้แต่สนธิสัญญาระหว่างประเทศ เพื่อกำหนด ข้อห้ามที่ชัดเจนในการใช้ AI ทางทหาร
กระแสวิจารณ์ยังลุกลามไปสู่ผู้ใช้ทั่วไป โดยเกิดแคมเปญออนไลน์ชื่อ QuitGPT ที่มีผู้ร่วมสนับสนุนกว่า 1.5 ล้านคน เรียกร้องให้เลิกใช้บริการของ OpenAI และหันไปใช้ AI ของ Anthropic แทน
เบื้องหลังของสัญญาเหล่านี้มาจากความพยายามของกระทรวงกลาโหมสหรัฐฯ ในการเร่งพัฒนา AI เพื่อแข่งขันกับมหาอำนาจอื่น โดย OpenAI ได้รับสัญญาแรกในเดือนมิถุนายน 2568 เพื่อพัฒนาระบบ AI ที่สามารถช่วยวางแผนและทำงานอัตโนมัติ ก่อนที่โครงการจะขยายไปยังบริษัทเทคโนโลยีรายอื่น
Anthropic เองได้พัฒนาแพลตฟอร์ม Claude Gov สำหรับช่วยวิเคราะห์ข่าวกรองและวางแผนปฏิบัติการ ขณะที่งบประมาณกลาโหมของสหรัฐฯ ในปี 2569 สูงถึง 9 แสนล้านดอลลาร์ หรือราว 32 ล้านล้านบาท แสดงให้เห็นถึงการลงทุนมหาศาลในเทคโนโลยี AI และระบบสงครามอิเล็กทรอนิกส์ ซึ่งคาดว่าตลาดจะเติบโตแตะ 2 หมื่นล้านดอลลาร์ ในอนาคต
แม้ความร่วมมือระหว่างบริษัท AI กับกระทรวงกลาโหมจะช่วยเพิ่มศักยภาพทางทหารของสหรัฐฯ แต่ก็ได้จุดประกายการถกเถียงด้านจริยธรรมและกฎหมายอย่างกว้างขวาง ซึ่งอาจกำหนดทิศทางของนโยบาย AI ของโลกในอนาคต โดยเฉพาะในยุคที่เทคโนโลยีปัญญาประดิษฐ์กำลังกลายเป็นเครื่องมือสำคัญในการแข่งขันทางยุทธศาสตร์ของมหาอำนาจ
อ้างอิง:
The Verge: How OpenAI caved to the Pentagon on AI surveillance
Nextgov: Pentagon awards multiple companies $200M contracts for AI tools
Reuters: AI contract restrictions could threaten military missions
DefenseScoop: Salesforce lands $5.6B Army contract
Inside Government Contracts: Pentagon Releases Artificial Intelligence Strategy
Business Standard: Pentagon casts cloud of doubt over Anthropic's AI business




