เปิดเบื้องหลังปฏิบัติการ Epic Fury กองทัพสหรัฐฯ ใช้ AI วางแผนถล่มอิหร่าน ท่ามกลางศึกหักเหลี่ยมระหว่าง 'จริยธรรมเทคโนโลยี' กับ 'อำนาจสั่งการของประธานาธิบดี' สั่นสะเทือนวงการความมั่นคงโลก
สถานการณ์ตึงเครียดระหว่างสหรัฐฯ อิสราเอลกับอิหร่านปะทุขึ้นอีกครั้งเมื่อปลายเดือนกุมภาพันธ์ 2569 ด้วยปฏิบัติการโจมตีทางอากาศขนาดใหญ่ที่สหรัฐฯ และอิสราเอลเรียกว่า Operation Epic Fury ซึ่งเริ่มต้นเมื่อวันเสาร์ที่ 28 กุมภาพันธ์ที่ผ่านมา
กองบัญชาการกลางสหรัฐฯ หรือ CENTCOM ใช้ Claude ซึ่งเป็นโมเดล AI ของ Anthropic ช่วยในสามส่วนหลัก ได้แก่ การประเมินข่าวกรอง การระบุเป้าหมาย และการจำลองสถานการณ์การรบ โดย AI ไม่ได้ควบคุมอาวุธโดยตรงแต่ช่วยประมวลผลข้อมูลจำนวนมหาศาลเพื่อสนับสนุนการตัดสินใจ
การใช้งานระบบปัญญาประดิษฐ์อย่าง Claude ยังเกิดขึ้น แม้ว่า โดนัลด์ ทรัมป์ จะโพสต์ข้อความผ่านแพลตฟอร์ม Truth Social ประณาม Anthropic ว่าเป็น “บริษัท AI ฝ่ายซ้ายสุดโต่งที่บริหารโดยคนที่ไม่เข้าใจโลกแห่งความเป็นจริง” และระบุว่าการกระทำของบริษัทเป็นภัยต่อความมั่นคงชาติ โดยสั่งให้หน่วยงานรัฐบาลหยุดใช้ Claude และผลิตภัณฑ์อื่นๆ ของ Anthropic โดยทันที ยกเว้นกระทรวงกลาโหมสหรัฐฯ หรือ กระทรวงการสงครามตามที่รัฐบาลทรัมป์เรียก ซึ่งได้รับเวลาให้ค่อยๆ ยุติการใช้งานระบบนี้ให้เสร็จสิ้นภายใน 6 เดือน เพื่อเปลี่ยนไปใช้เทคโนโลยีจากแหล่งอื่นแทน
สาเหตุมาจากการเจรจาสัญญามูลค่า 200 ล้านดอลลาร์ที่เพนตากอนเรียกร้องให้ Anthropic ยกเลิก Red lines หรือข้อจำกัดการใช้งานสองข้อหลัก คือ ห้ามใช้ Claude ในอาวุธอัตโนมัติไร้มนุษย์ควบคุมเต็มรูปแบบ (Autonomous lethal weapons) และห้ามใช้ในระบบเฝ้าระวังมวลชนภายในสหรัฐฯ (Mass domestic surveillance)
แหล่งข่าวระบุว่า กระทรวงกลาโหมสหรัฐฯ ต้องการให้บริษัท Anthropic เปิดทางให้ระบบ AI ของตนสามารถถูกนำไปใช้ได้ใน ทุกการใช้งานที่ถูกต้องตามกฎหมาย (All lawful uses) โดยไม่มีข้อยกเว้นใดๆ
อย่างไรก็ตาม บริษัท Anthropic ยืนยันว่าจะไม่ยอมเปิดทางให้ใช้ AI ในลักษณะดังกล่าว เนื่องจากขัดต่อนโยบายด้านจริยธรรมของบริษัท ซึ่งห้ามนำเทคโนโลยีไปใช้เพื่อวัตถุประสงค์รุนแรง การพัฒนาอาวุธ หรือการสอดแนมโดยปราศจากมาตรการควบคุมที่เข้มงวด อีกทั้งบริษัทยังเห็นว่าเทคโนโลยี AI ในปัจจุบันยังไม่น่าเชื่อถือเพียงพอสำหรับการตัดสินใจที่เกี่ยวข้องกับการใช้กำลังร้ายแรงโดยไม่มีมนุษย์กำกับดูแล
ก่อนหน้านี้มีรายงานว่า ระบบ Claude ของ Anthropic เคยถูกนำไปสนับสนุนภารกิจทางทหารของสหรัฐฯ รวมถึงปฏิบัติการที่เกี่ยวข้องกับ นิโคลัส มาดูโร อดีตประธานาธิบดีเวเนซุเอลา โดยเทคโนโลยีดังกล่าวถูกผนวกรวมอยู่ในระบบวิเคราะห์ข้อมูลลับ ผ่านความร่วมมือกับ Palantir Technologies ตั้งแต่ปี 2567 ซึ่งบริษัทมองว่าเป็นการใช้งานที่อ่อนไหวและใกล้เส้นจริยธรรมของตน
การโจมตีอิหร่านที่เริ่มต้นเมื่อ 28 กุมภาพันธ์ที่ผ่านมา ยิ่งตอกย้ำ การถอนระบบ AI ที่ฝังลึกในโครงสร้างปฏิบัติการทางทหารทำได้ยาก แม้จะมีคำสั่งระดับประธานาธิบดีก็ตาม โดยสื่อหลายแห่งรายงานว่า กองทัพสหรัฐฯ ยังใช้ Claude ในการวิเคราะห์เป้าหมายและจำลองสถานการณ์การโจมตี
ด้าน ดาริโอ อาโมเดอี ซีอีโอของ Anthropic ออกแถลงการณ์ยืนยันว่า บริษัทสนับสนุนการใช้ AI เพื่อช่วยงานด้านความมั่นคงและการป้องกันประเทศ แต่ต้องอยู่ภายใต้การกำกับของมนุษย์อย่างเข้มงวด และมีมาตรการป้องกันความเสี่ยงที่ชัดเจน
ขณะเดียวกัน พีต เฮกเซธ รัฐมนตรีว่าการกระทรวงกลาโหมสหรัฐฯ ผลักดันให้กองทัพเข้าถึง AI อย่างกว้างขวาง โดยประกาศให้ Anthropic เป็น ความเสี่ยงต่อความมั่นคงของชาติในห่วงโซ่อุปทาน หลังหมดเส้นตายที่กำหนด ส่งผลให้ผู้รับเหมาด้านกลาโหมต้องยุติความร่วมมือกับบริษัท
ช่องว่างดังกล่าวถูกเติมเต็มอย่างรวดเร็วโดย OpenAI โดย แซม อัลต์แมน ซีอีโอของบริษัท เปิดเผยว่าได้บรรลุข้อตกลงกับ กระทรวงกลาโหมสหรัฐอเมริกา เพื่อนำระบบ AI ไปใช้งานบนเครือข่ายคลาวด์ลับของกองทัพ
รูปแบบการใช้งานจะเป็นแบบคลาวด์เท่านั้น (Cloud-only) คือระบบ AI ที่จะทำงานผ่านโครงสร้างคลาวด์ที่มีการควบคุมจากบริษัท ไม่ได้ติดตั้งให้กองทัพถือครองหรือควบคุมตัวระบบโดยตรง พร้อมกำหนดเงื่อนไขการใช้งานอย่างชัดเจน เช่น ห้ามนำไปใช้สอดแนมประชาชนจำนวนมากภายในประเทศ และทุกการตัดสินใจที่เกี่ยวข้องกับการใช้กำลังจะต้องมีมนุษย์เป็นผู้รับผิดชอบ ไม่ปล่อยให้ AI ตัดสินใจเองโดยลำพัง
อัลต์แมนระบุว่า ข้อตกลงดังกล่าวมีมาตรการป้องกันที่เข้มงวดกว่ากรอบความร่วมมือก่อนหน้านี้ และเสนอให้รัฐบาลนำเงื่อนไขเดียวกันไปใช้กับบริษัท AI รายอื่น เพื่อให้เกิดมาตรฐานที่เท่าเทียมกัน
ขณะที่ก่อนหน้านี้ บริษัท xAI ของ อีลอน มัสก์ ได้ลงนามข้อตกลงให้นำระบบ Grok ไปใช้งานในเครือข่ายลับของกองทัพ โดยยอมรับหลัก All lawful use หรือการอนุญาตให้ใช้งานได้ในทุกกรณีที่ไม่ขัดต่อกฎหมาย
ความขัดแย้งครั้งนี้จึงกลายเป็นกรณีศึกษาสำคัญเกี่ยวกับเส้นแบ่งระหว่างเทคโนโลยี การทหาร และจริยธรรม เมื่อบริษัทเอกชนพยายามกำหนดเส้นแดงของตนเอง ขณะที่ภาครัฐต้องการความยืดหยุ่นสูงสุดในการนำ AI ไปใช้ในบริบทสงครามและความมั่นคง
อ้างอิง:
The Guardian: US military reportedly used Claude in Iran strikes despite Trump’s ban
The New York Times: OpenAI Reaches A.I. Agreement With Defense Dept. After Anthropic Clash
BBC: Trump has ordered government agencies to stop using Anthropic AI tools
OpenAI: Our agreement with the Department of War
Axios: Musk's xAI, Pentagon reach deal to use Grok in classified systems
The Wall Street Journal: U.S. Strikes in Middle East Use Anthropic, Hours After Trump Ban
Anthropic: Statement from Dario Amodei on our discussions with the Department of War




