Anthropic ในสงคราม เมื่อ AI ถูกนำมาใช้ในการรบเต็มรูปแบบ
Claude ของ Anthropic ถูกนำใช้ในปฏิบัติการทางทหาร วิเคราะห์ข้อมูลมหาศาลเพื่อวางแผนรบ แต่จุดยืนด้านจริยธรรมของบริษัทกลับชนกับรัฐบาลสหรัฐฯ
KEY
POINTS
- กองทัพสหรัฐฯ นำ AI "Claude" ของบริษัท Anthropic มาใช้ในการรบจริงเพื่อประมวลผลข้อมูลข่าวกรอง, วางแผนการรบ และโจมตีทางไซเบอร์ในความขัดแย้งกับอิหร่านและปฏิบัติการในเวเนซุเอลา
- Anthropic เกิดความขัดแย้งกับรัฐบาลสหรัฐฯ เนื่องจากแสดงความกังวลด้านจริยธรรมและปฏิเสธที่จะให้กองทัพเข้าถึงเทคโนโลยี AI โดยไม่มีข้อจำกัด
- ผลของความขัดแย้งทำให้ประธานาธิบดีทรัมป์สั่งยุติการใช้เทคโนโลยีของ Anthropic ส่งผลให้บริษัทสูญเสียสัญญามูลค่าสูง และเปิดทางให้ AI คู่แข่งเข้ามาทำสัญญากับกองทัพแทน
ความขัดแย้งของสหรัฐฯและอิหร่านลุกลามจนกลายเป็นการโจมตีเต็มรูปแบบ เปลี่ยนตะวันออกกลางให้กลายเป็นสมรภูมิสงครามรอบใหม่ พร้อมกันนั้นทางกองทัพสหรัฐฯเองก็เริ่มแสดงบทบาทให้เห็นถึง การเริ่มนำ AI และเทคโนโลยีปัญญาประดิษฐ์เข้ามามีส่วนร่วมกับสงครามเต็มรูปแบบ
วันนี้เราจึงจะมาพูดถึง AI อย่าง Anthropic ที่ถูกสหรัฐฯตัดสินใจนำมาใช้ในการรบจริง
Claude ในการรบ AI ถูกใช้ในการสงคราม
Claude ถือเป็นโมเดล AI ที่ได้รับการหยิบยกมาพูดถึงมากในช่วงหลัง ตั้งแต่ความพยายามในการเข้าถึงและสกัดข้อมูลของจีนเพื่อนำไปพัฒนาโมเดล ฟีเจอร์มากมายที่ได้รับการติดตั้งเพิ่มขีดความสามารถ ยกระดับขีดความสามารถทาง Agentic AI ส่งให้โมเดลนี้พุ่งทะยานแซงหน้าโมเดลอื่นได้สำเร็จ
อีกส่วนที่ทำให้โมเดลนี้ได้รับความสนใจคือ การหยิบไปใช้ในการรบจริง ในเหตุการณ์สหรัฐฯบุกโจมตีเวเนซุเอลาในช่วงเดือนมกราคม 2026 มีการใช้ Claude เป็นส่วนหนึ่งในปฏิบัติการจับกุมตัว อดีตประธานาธิบดี นิโกลัส มาดูโร และภรรยา ในข้อหาลักลอบค้ายาเสพติดและก่อการร้ายด้านยาเสพติด
การใช้งาน Claude ของกองทัพสหรัฐฯมาจากความร่วมมือของ Anthropic ร่วมกับบริษัท Palantir Technologies บริษัทซอฟต์แวร์วิเคราะห์ข้อมูลของกองทัพสหรัฐฯ รับบทบาทเป็นระบบประมวลผลหลัก ภายในเครือข่ายสั่งการและระบบควบคุมอุปกรณ์ทุกมิติของกระทรวงกลาโหมสหรัฐฯ
ในขั้นตอนนี้ Claude ถูกนำมาใช้การประมวลผลข้อมูลมหาศาลระดับ เพตาไบต์ เพื่อตรวจสอบข้อมูลข่าวกรองทั้งจากมนุษย์และสัญญาณโทรคมนาคมต่างๆ จากนั้นนำข้อมูลที่ได้มาประมวลผลเข้าด้วยกัน แล้วนำมาประกอบเป็นโปรไฟล์พฤติกรรมเชิงลึก พร้อมคิดค้นหาแผนการรบที่เหมาะสมในสถานการณ์จริง เข้ากับสถานที่และพิกัดเป้าหมายแบบเรียลไทม์
นอกจากนำมาใช้ในการสงครามโดยตรงแล้ว Claude ยังถูกนำไปใช้ในการโจมตีไซเบอร์ โดยอาศัย Claude Code ในการโจมตีระบบของหน่วยงานรัฐบาลเม็กซิโกในช่วงเดือนธันวาคม 2025 หลังใช้เวลาราว 1 เดือน กลุ่มแฮกเกอร์ก็ได้ข้อมูลไปกว่า 150 GB ประกอบไปด้วยทะเบียนราษฎร์ บันทึกการจ่ายภาษี ข้อมูลผู้มีสิทธิเลือกตั้ง ไปจนรายละเอียดทางสาธารณสุข
เห็นได้ชัดว่า Claude เป็นโมเดลที่ถูกมองว่ามีประสิทธิภาพสูงมากในท้องตลาด และเหมาะนำไปใช้งานทางทหารและการโจมตีทางไซเบอร์
ความไม่พอใจของ Anthropic สู่การแตกหักกับทรัมป์
การนำไปใช้ผิดวัตถุประสงค์และข้อกำหนดลักษณะนี้สร้างความไม่สบายใจแก่ทาง Anthropic เป็นอย่างมาก โดยเฉพาะเมื่อทางกระทรวงกลาโหมสหรัฐฯต้องการเข้าถึงโมเดลได้โดยไร้ข้อจำกัดใดๆ เพื่อให้สามรถเข้าถึงโมเดลและใช้งานได้อย่างเต็มประสิทธิภาพ สำหรับภารกิจทุกรูปแบบที่รองรับตามกฎหมาย
แต่ทางบริษัทไม่ยอมรับและแน่วแน่ในจุดยืนเดิมคือ ข้อกังวลทางจริยธรรม ทำให้ โดนัลด์ ทรัมป์ ประธานาธิบดีสหรัฐฯ ออกคำสั่ง ยุติการใช้เทคโนโลยีทั้งหมดจาก Anthropic ในทันที พร้อมประกาศให้บริษัทเป็น ความเสี่ยงต่อห่วงโซ่อุปทาน จนอาจส่งผลให้หน่วยงานภาครัฐยกเลิกและแบนสัญญาจ้างทั้งหมด ซึ่งมักใช้กับบริษัทที่เป็นศัตรูของประเทศเท่านั้น
ผลที่เกิดขึ้นทำให้ Anthropic สูญเสียสัญญามูลค่า 200 ล้านดอลลาร์ทันที ในขณะเดียวกันทรัมป์ยังขู่ว่า จะใช้กฎหมาย Defense Production Act (DPA) ที่จะใช้อำนาจประธานาธิบดีในการบังคับบริษัทเอกชนให้จัดลำดับความสำคัญหรือขยายกำลังการผลิต มีการใช้งานครั้งล่าสุดในช่วงวิกฤตโควิด-19 เพื่อเร่งการผลิตเครื่องช่วยหายใจและหน้ากากอนามัย
การใช้งานเพื่อแทรกแซงระบบป้องกันความปลอดภัยของซอฟต์แวร์ AI เป็นเรื่องที่ไม่เคยเกิดขึ้นมาก่อน แต่ทางเพนตากอนยืนยันว่า การใช้เทคโนโลยีของกองทัพควรเป็นไปตามการกำกับดูแลของกฎหมายและรัฐธรรมนูญสหรัฐฯ มิใช่จำกัดผ่านนโยบายขชองบริษัทเอกชน
ข้อโต้แย้งของ Anthropic อันตรายของ AI ในสงคราม
ข้อขัดแย้งระหว่าง Anthropic กับ Department of War สร้างเสียงวิพากษ์วิจารณ์อย่างกว้าง ในส่วนของทางบริษัทยังคงยืนยันและยึดมั่นในแนวทาง ปฏิเสธที่จะเซ็นสัญญาให้ทางกองทัพสหรัฐฯใช้งานโดยไร้ข้อจำกัด ในวัตถุประสงค์ที่ชอบด้วยกฎหมายทุกประการ โดยมีเหตุผลอยู่ 2 ข้อ
ข้อแรกคือการใช้ AI ในการสอดแนมประชาชนอเมริกัน ด้วยขีดความสามารถ AI รุ่นใหม่ที่พร้อมวิเคราะห์ข้อมูลปริมาณมหาศาล อาจนำไปสู่การเข้าถึงและวิเคราะห์หาความเชื่อมโยงระหว่างบุคคลจาก Big Data ขนาดมหึมา พร้อมวิเคราะห์ข้อมูลการสื่อสาร โซเชียลมีเดีย และกล้องวงจรปิดจากระบบจดจำใบหน้าแบบเรียลไทม์
สิ่งที่จะเกิดขึ้นคือการยืนยันตัวตนอัตโนมัติด้วย AI ที่จะระบุตัวตนด้วยฐานข้อมูลว่า ใครควรถูกสอบสวน ใครควรถูกห้ามเข้าประเทศ และใครควรถูกปฏิเสธเข้ารับทำงานหรือบริการสาธารณะ โดย AI อาจเกิดข้อผิดพลาดในการตรวจสอบจนส่งผลกระทบต่อชีวิตคนและไม่หาผู้รับผิดชอบได้
อีกกรณีที่พูดถึงคือ อาวุธอัตโนมัติเต็มรูปแบบ AI Chatbot อย่าง Claude สามารถนำไปใช้เป็นระบบสั่งการสำหรับอาวุธทางการทหารได้ โดยสามารถสรุปข่าวกรอง จัดลำดับภัยคุกคาม และแนะนำเป้าหมายโจมตีได้อย่างรวดเร็ว แต่การใช้ AI มาตัดสินใจเต็มรูปแบบ มีความเสี่ยงที่จะสั่งยิงอาวุธโดยพลการได้ง่าย โดยเฉพาะอาวุธร้ายแรงอย่างหัวรบนิวเคลียร์
นอกจากนี้คำว่า ถูกต้องตามกฎหมาย ยังมีความยืดหยุ่นและปรับเปลี่ยนไปตามบริบทได้สูงมาก จึงไม่เสถียรเพียงพอในการเป็นเกราะป้องกันทางจริยธรรมของ AI
AI ในสงครามอิหร่านและแนวโน้มต่อจากนี้
จริงอยู่ทรัมป์ออกคำสั่งแบน Anthropic ไปในวันที่ 27 กุมภาพันธ์ 2026 แต่ในวันถัดมา 28 กุมภาพันธ์ สหรัฐฯก็เปิดฉากโจมตีอิหร่านร่วมกับอิสราเอลทันที ทำให้ Claude ยังคงเป็นระบบที่ถูกใช้ในการโจมตีอิหร่านในช่วงแรกอยู่ดี เพาะไม่สามารถปรับเปลี่ยนแก้ไขอย่างกระทันหันได้
การใช้งาน AI ในสงครามนอกจากในด้านการระบุตัวตน ติดตามวิเคราะห์พฤติกรรมเป้าหมาย และตรวจสอบข่าวกรองแล้ว ยังถูกนำไปใช้กับโดรนพลีชีพรุ่นใหม่ที่ชื่อ LUCAS ที่ถูกใช้งานจริงเป็นครั้งแรก โดยอาศัย AI เป็นระบบนำวิถีเพื่อวิเคราะห์และโจมตีเป้าหมายอย่างแม่นยำ
ผลที่เกิดขึ้นทำให้สหรัฐฯและอิสราเอลโจมตีเป้าหมายกว่า 500 แห่ง ใน 153 เมืองทั่วประเทศอิหร่าน จนมีผู้เสียชีวิตนับพันราย อิหร่านจึงตอบโต้ด้วยการส่งขีปนาวุธและโดรนพลีชีพไปโจมตีดาต้าเซ็นเตอร์ของ AWS ในตะวันออกกลาง เพื่อขัดขวางการโจมตีด้วยเช่นกัน
ปัจจุบันสงครามยังคงอยู่ในภาวะคุกรุ่น เราคงต้องรอดูกันต่อไปว่า AI จะถูกนำไปใช้ในบทบาทใดเพิ่มเติม
ปัจจุบันการเปลี่ยนผ่านยังคงดำเนินการอย่างต่อเนื่อง XAI เจ้าของโมเดล Grok เริ่มถูกนำมาใช้ทดแทนระบบในกระทรวงกลาโหมสหรัฐฯ เช่นเดียวกับ OpenAI ที่เข้ามาเสียบเซ็นสัญญาให้ใช้ GPT ของพวกเขาทดแทน Claude ทันที แม้ทางซีอีโออย่าง แซม อัลท์แมน จะออกมาให้การสนับสนุน Anthropic ก็ตาม
ในคราวหน้าเราจะมาพูดถึงผลกระทบที่เกิดกับทาง Anthropic ภายหลังการบอกเลิกสัญญาของรัฐบาลสหรัฐฯไป
ที่มา
https://nanonets.com/blog/anthropic-pentagon-ai-control-problem/
https://venturebeat.com/security/claude-mexico-breach-four-blind-domains-security-stack
https://interestingengineering.com/military/us-forces-used-claude-iran-strikes
https://techcrunch.com/2026/02/24/anthropic-wont-budge-as-pentagon-escalates-ai-dispute/
https://www.theguardian.com/technology/2026/mar/01/claude-anthropic-iran-strikes-us-military


