การเติบโตของ AI ในการปฏิบัติการทางทหาร: ความหมายของมัน
2026-03-30
ในวันที่ 28 กุมภาพันธ์ 2026 สหรัฐอเมริกาและอิสราเอลได้เปิดตัวปฏิบัติการ Epic Fury — โจมตีเป้าหมายมากกว่า 1,000 แห่งภายในอิหร่านภายใน 24 ชั่วโมงแรก ซึ่งเกือบจะเป็นสองเท่าของจังหวะในแคมเปญ Shock-and-Awe ปี 2003 ที่อิรัก
ความแตกต่างตามที่เพนตากอนกล่าวคือสงคราม AI. ระบบ Maven Smart ซึ่งสร้างขึ้นบนโครงสร้างพื้นฐานข้อมูลของ Palantir และได้รับพลังงานจาก Claude ของ Anthropic ในบางส่วน สามารถบีบอัดระยะเวลาการมุ่งเป้าซึ่งเคยใช้เวลาหลายชั่วโมงให้อยู่ในเวลาเพียงไม่กี่วินาที
แอดมิรัลแบรด คูเปอร์ หัวหน้าฝ่ายบัญชาการกลางของสหรัฐฯ ได้กล่าวอย่างชัดเจนว่า "เครื่องมือ AI ขั้นสูงช่วยให้ผู้นำสามารถตัดผ่านเสียงรบกวนและตัดสินใจอย่างมีไหวพริบได้เร็วกว่าเมื่อศัตรูสามารถตอบสนอง"
แต่หลังจากหลายชั่วโมงที่ดำเนินการเดียวกัน ขีปนาวุธทอมอฮอว์กได้ตีโรงเรียนประถมศึกษาสำหรับเด็กหญิงชาจาเรห์ ทัยเยเบะในเมืองมินับ ทางตอนใต้ของอิหร่าน — ส่งผลให้มีผู้เสียชีวิตอย่างน้อย 168 คน,其中มากกว่า 100 คนเป็นเด็กอายุไม่เกิน 12 ปี
โรงเรียนได้ถูกแยกออกจากฐานทัพเรือ IRGC ที่อยู่ติดกันนับตั้งแต่ปี 2016 ซึ่งมีการทาสีใหม่เป็นสีฟ้าและสีชมพู พร้อมทั้งมีสนามกีฬาที่ใช้พื้นผิวแอสฟัลต์และมีการเข้าถึงโซเชียลมีเดียที่ใช้งานได้จริง การสอบสวนเบื้องต้นของกองทัพสหรัฐพบว่าการโจมตีมีแนวโน้มที่จะอิงจากข้อมูลการตั้งเป้าหมายที่ล้าสมัย.
เหตุการณ์เดียวนี้กลายเป็นกรณีศึกษาเชิงนิยามสำหรับสิ่งที่ปัญญาประดิษฐ์ในสงครามหมายถึงจริงๆ — ทั้งความสามารถของมันและโหมดการล้มเหลวที่มีผลกระทบอย่างรุนแรง
ข้อสรุปสำคัญ
- กองทัพสหรัฐฯ ใช้เครื่องมือจัดเป้าหมายที่ใช้ AI รวมถึงระบบ Maven Smart เพื่อโจมตีเป้าหมายกว่า 1,000 แห่งภายในอิหร่านในเวลา 24 ชั่วโมง — เร็วกว่าความเร็วในการปฏิบัติการของแคมเปญอิรักในปี 2003 ซึ่งเป็นสองเท่า
- การสอบสวนเบื้องต้นของเพนตากอนพบว่าการโจมตีโรงเรียนมินาบเมื่อวันที่ 28 กุมภาพันธ์ ซึ่งทำให้มีผู้เสียชีวิตอย่างน้อย 168 คน ส่วนใหญ่เป็นเด็ก เป็นผลมาจากข้อมูลที่เป็นข้อมูลซีดเซียวซึ่งมีการเลือกสรรโดยมนุษย์และป้อนเข้าสู่ระบบการกำหนดเป้าหมาย — ไม่ใช่ความผิดปกติของ AI.
- การประชุมสมัชชาสหประชาชาติที่ผ่านในเดือนธันวาคม 2025 และการประชุมระหว่างประเทศสามวันที่วางแผนไว้สำหรับเดือนมิถุนายน 2026 เป็นก้าวแรกอย่างเป็นทางการสู่การปกครองของ AI ในการต่อสู้ แต่กรอบทางกฎหมายที่มีผลผูกพันยังคงไม่น่าเป็นไปได้ในระยะใกล้。
เทรดอย่างมั่นใจ Bitrue เป็นแพลตฟอร์มที่ปลอดภัยและเชื่อถือได้ แพลตฟอร์มการเทรดคริปโตสำหรับการซื้อ ขาย และการซื้อขาย Bitcoin และเหรียญอื่น ๆ
AI กำลังถูกนำมาใช้ในสนามรบอย่างไร
ภาพลักษณ์ของ AI ในสงครามสมัยใหม่มักจะแกว่งไปมาระหว่างนิยายวิทยาศาสตร์และการปฏิเสธ ความเป็นจริงนั้นเฉพาะเจาะจงมากกว่า ระบบอัจฉริยะ Maven ของเพนตากอนใช้ AI ในการรวมข้อมูลจากภาพถ่ายดาวเทียม การส่งสัญญาณจากเซนเซอร์ และข้อมูลข่าวกรองสัญญาณ เพื่อให้คำแนะนำในการกำหนดเป้าหมายอย่างรวดเร็ว
ตามที่ Daniel Rothenberg ร่วมบริหารของมหาวิทยาลัยรัฐแอริโซนา กล่าวว่า สิ่งที่เคยต้องใช้เวลาหลายชั่วโมงในการวิเคราะห์ของมนุษย์ตอนนี้ใช้เวลาเพียงไม่กี่นาที
การดำเนินการของโดรนได้รับประโยชน์ในรูปแบบที่แตกต่างกัน — AI ช่วยให้มีการนำทางอัตโนมัติเมื่อการรบกวนอิเล็กทรอนิกส์ทำให้การควบคุมจากมนุษย์ทางไกลเป็นไปไม่ได้ และช่วยในการประสานงานของฝูง ซึ่งผู้ปฏิบัติงานคนเดียวไม่สามารถจัดการได้ด้วยตนเอง
หน่วยงานกองกำลังอวกาศสามารถตรวจจับการปล่อยขีปนาวุธจากอิหร่านได้ภายในมิลลิวินาที ด้วยการใช้การจดจำสัญญาณอินฟราเรด ซึ่งจะส่งการคำนวณการสกัดกั้นไปยังระบบป้องกันอัตโนมัติก่อนที่นักวิเคราะห์มนุษย์จะอ่านการแจ้งเตือนแรกได้
นี่ไม่ใช่การทดสอบการติดตั้ง แต่เป็นความจริงในการปฏิบัติงานที่ได้รับการยืนยันโดยเจ้าหน้าที่ทหารสหรัฐในระหว่างการปฏิบัติการรบที่เกิดขึ้นจริงในเดือนกุมภาพันธ์และมีนาคม ปี 2026.
อ่านเพิ่มเติม:AI สามารถคาดการณ์การเคลื่อนไหวของตลาดหุ้นได้หรือไม่?
การประท้วงของโรงเรียนมินับ: ข้อมูลกล่าวว่าอย่างไร
ข้อเท็จจริงเกี่ยวกับมิแนบได้ถูกสร้างขึ้นใหม่โดยการสอบสวนอิสระหลายครั้ง โรงเรียนชาจาเราะห์ ตัยเยเบะนั่งอยู่ห่างจากสถานที่ติดตั้งทางทะเลของ IRGC ไม่ถึง 100 หลา — เป็นสถานที่ที่เคยเป็นส่วนหนึ่งของบริเวณเดียวกันจนกระทั่งมีการสร้างกำแพงขึ้นระหว่างปี 2013 ถึง 2016.
โดยในเดือนกุมภาพันธ์ ปี 2026 สถานะพลเรือนของอาคารนั้นเห็นได้ชัดเจนในภาพถ่ายดาวเทียมที่เปิดเผยต่อสาธารณะ: ผนังที่ทาสี, สนามกีฬา, ทางเข้าเปิดสาธารณะสามแห่ง, และกิจกรรมการเรียนการสอนที่มีการบันทึกไว้ออนไลน์เป็นเวลาหลายปี.

หน่วยข่าวกรองกลาโหมไม่เคยปรับปรุงการจัดประเภทของเว็บไซต์นั้น เมื่อ CENTCOM สร้างพิกัดการโจมตี มันจึงอิงจากบันทึกที่ล้าสมัยนั้น
อดีตเจ้าหน้าที่ทหารยืนยันกับ Semafor ว่าความผิดพลาดนั้นมีต้นตอจากมนุษย์ — โดยเฉพาะข้อมูลที่ล้าสมัยซึ่งป้อนไปยังแพลตฟอร์ม Maven ปัญญาประดิษฐ์ประมวลผลและดำเนินการตามข้อมูลที่ได้รับด้วยความแม่นยำ。
หัวหน้าเจ้าหน้าที่ข่าวกรอง CENTCOM คนก่อน พล.ต.ท.การ์เรน กิ๊บสัน ได้ตั้งข้อสังเกตเกี่ยวกับหลักความรับผิดชอบอย่างตรงไปตรงมา: "ผู้บัญชาการที่ไหนสักแห่งจะต้องถูกถือว่ามีความรับผิดชอบในที่สุด — ไม่ใช่เครื่องจักรหรือวิศวกรซอฟต์แวร์" แต่ Human Rights Watch ได้โต้แย้งว่าการตั้งกรอบนี้มองข้ามปัญหาระบบที่อยู่เบื้องหลัง.
การทำงานที่รวดเร็วขึ้นและการสร้างเป้าหมายด้วยความช่วยเหลือจาก AI ทำให้เกิดช่วงเวลาการตรวจสอบที่กระชับ ความเร็วที่ทำให้ AI มีคุณค่าในสงครามก็คือคุณสมบัติเหล่านั้นที่สามารถเปลี่ยนข้อมูลในฐานข้อมูลที่ไม่สดใหม่ให้กลายเป็นการโจมตีที่ทำลายล้างก่อนที่การแทรกแซงของมนุษย์จะสามารถจับข้อผิดพลาดได้
อ่านเพิ่มเติม:ทองในปี 2026: การป้องกันความเสี่ยงทางแมโคร-ภูมิศาสตร์ที่ดีที่สุด
ช่องว่างการปกครองที่ไม่มีใครแก้ไขได้จนถึงขณะนี้
คดี Minab เปิดเผยถึงโครงสร้างความรับผิดชอบที่ไม่สอดคล้องกับเทคโนโลยีที่มันควบคุม มีสมาชิกพรรคเดโมเครตในสภาผู้แทนราษฎรมากกว่า 120 คนได้เขียนจดหมายถึงรัฐมนตรีว่าการกระทรวงกลาโหม Pete Hegseth เพื่อขอคำตอบเกี่ยวกับบทบาทของ AI ในการเลือกเป้าหมาย
กระทรวงกลาโหมของจีนได้เตือนต่อสาธารณะเกี่ยวกับ "การนำ AI ไปใช้อย่างไม่มีข้อจำกัดโดยทหาร" โดยเรียกว่าเป็นความเสี่ยงของ "การ runaway ทางเทคโนโลยี"
ความตึงเครียดภายในรัฐบาลสหรัฐฯ เริ่มชัดเจนเมื่อเพนตากอนได้เบี่ยงเบนแอนโธรปิก — หนึ่งในผู้จัดหาปัญญาประดิษฐ์หลักของตน — เพียงหนึ่งวันก่อนที่ปฏิบัติการ Epic Fury จะเริ่มขึ้น เนื่องจากมีข้อโต้แย้งเกี่ยวกับข้อจำกัดในระบบอัตโนมัติ
การลงมติของสหประชาชาติที่ผ่านในเดือนธันวาคม 2025 เกี่ยวกับ AI ในโดเมนทางทหาร เป็นการตอบสนองระหว่างประเทศที่ชัดเจนที่สุดจนถึงขณะนี้ โดยได้เปิดกระบวนการพหุภาคี โดยมีการประชุมผู้มีส่วนได้ส่วนเสียเป็นเวลาสามวันในเดือนมิถุนายน 2026 เพื่อพัฒนาขั้นตอนปฏิบัติที่ดีที่สุดร่วมกัน
การประเมินของ Chatham House เป็นไปอย่างตรงไปตรงมา: โครงสร้างพื้นฐานระหว่างประเทศที่มีผลผูกพันนั้นไม่น่าจะเกิดขึ้นในระยะสั้น แต่การพัฒนากฎภายในนั้นเป็นผลดีต่อกองทัพเอง
ปัญหาหลักตามการวิเคราะห์การกำกับดูแลของ TNGlobal คือ "ความสามารถได้พัฒนาขึ้นเร็วกว่าการมีความรับผิดชอบ" — และการประมวลผลที่เร็วขึ้นไม่สามารถแก้ไขข่าวกรองที่ล้าสมัยได้ โมเดลที่ดีกว่าไม่สามารถแก้ไขการตรวจสอบที่อ่อนแอได้ และการมีขั้นตอนการอนุมัติจากมนุษย์นั้นไม่เพียงพอหากมนุษย์นั้นทำงานจากข้อมูลที่มีข้อบกพร่องในความเร็วของเครื่อง
อ่านเพิ่มเติม:
การจดชื่อ Lobster Coin บน Bitrue: วิธีการซื้อ
บทสรุป
ความขัดแย้งของอิหร่านในปี 2026 ได้ทำสิ่งที่การอภิปรายทางวิชาการมายาวนานไม่สามารถทำได้: มันทำให้ความเสี่ยงของ
AI ในสงครามสมัยใหม่ไม่สามารถทำให้เป็นนามธรรมได้ ระบบที่สามารถทำการโจมตีได้ 1,000 ครั้งใน 24 ชั่วโมง ยังได้ส่งการโจมตีไปยังโรงเรียนที่เคยเป็นโรงเรียนมาเป็นเวลาหนึ่งทศวรรษ ปัญญาประดิษฐ์ไม่ได้เกิดความผิดพลาดในแง่ทางเทคนิคแต่อย่างใดข้อมูลที่มันทำงานด้วยนั้นผิด สิ่งที่แตกต่างนี้มีความสำคัญอย่างมากต่อวิธีที่กองทัพ รัฐบาล และสาธารณชนคิดเกี่ยวกับสิ่งที่ "การควบคุมโดยมนุษย์" หมายถึงในห่วงโซ่การกำหนดเป้าหมายที่ใช้ AI
การตรวจสอบที่เกิดขึ้นในขั้นตอนการอนุมัติขั้นสุดท้าย แต่นั่นคือหลังจากที่ AI ได้กำหนดแล้วว่าเป้าหมายใดที่มองเห็นได้และเป้าหมายใดที่ถูกกรองออกไปนั้นมีความไม่สมบูรณ์ในโครงสร้าง การประชุมสหประชาชาติในเดือนมิถุนายน 2026 จะไม่ผลิตสนธิสัญญาที่เป็นข้อผูกพัน
แต่การสอบสวนของ Minab, จดหมายจากสภาคองเกรส, ความขัดแย้งระหว่าง Anthropic-Pentagon และคำเตือนสาธารณะของจีน ได้เปลี่ยนศูนย์ถ่วงของการอภิปรายนี้โดยรวมแล้วการตัดสินใจในสนามรบด้วยปัญญาประดิษฐ์
ไม่เป็นปัญหาในอนาคตอีกต่อไป คำถามเกี่ยวกับการบริหารจัดการคือความรับผิดชอบสามารถตามให้ทันการใช้งานได้หรือไม่ — และหลักฐานในปัจจุบันแสดงให้เห็นว่ามันตามหลังอยู่
อ่านเพิ่มเติม:3 โมเดล AI ทำนายราคาของ BlockDag ในปี 2026: จะให้ผลกำไรหรือไม่?
คำถามที่พบบ่อย
โปรเจกต์ Maven คืออะไรและถูกใช้ในปฏิบัติการทางการรบอย่างไร?
โปรเจกต์ Maven เป็นโปรแกรม AI ทางทหารที่มีชื่อเสียงของเพนตากอน ซึ่งเริ่มต้นในปี 2017 เพื่อใช้การเรียนรู้ของเครื่องสำหรับการประมวลผลภาพถ่ายจากโดรน ตั้งแต่ปี 2026 เป็นต้นมา โปรแกรมนี้ได้พัฒนาไปสู่ระบบ Maven Smart System ซึ่งเป็นแพลตฟอร์มการจัดการข้อมูลการโจมตีและการรวบรวมข่าวกรองที่กว้างขึ้น โดยรวมภาพถ่ายจากดาวเทียม ข้อมูลจากเซ็นเซอร์ และข่าวกรองสัญญาณ เพื่อสร้างและกำหนดลำดับความสำคัญของแพ็คเกจการโจมตีให้รวดเร็ว
แหล่งข้อมูลไม่ระบุตัวตนสองแห่งยืนยันกับ NBC News ว่าการนำ Maven ของ Palantir มาใช้ ซึ่งรวมถึง Claude ของ Anthropic ถูกใช้งานอย่างกระตือรือร้นในการระบุตัวเป้าหมายระหว่างปฏิบัติการ Epic Fury ในอิหร่าน。
AI ทำให้เกิดการประท้วงที่โรงเรียน Minab ซึ่งทำให้มีผู้เสียชีวิต 168 คนหรือไม่?
ตามการสอบสวนเบื้องต้นของกองทัพสหรัฐฯ และการวิเคราะห์อิสระหลายครั้ง แสดงให้เห็นว่า AI ไม่ได้เลือกโรงเรียนเป็นเป้าหมายโดยอิสระ สาเหตุที่เป็นไปได้คือสถานที่ยังคงถูกจัดประเภทเป็นเป้าหมายทางทหารของ IRGC ในฐานข้อมูลของหน่วยข่าวกรองฝ่ายกลาโหม ซึ่งการจัดประเภทนี้ไม่เคยถูกอัปเดตหลังจากที่โรงเรียนแยกออกจากฐานที่อยู่ติดกันในปี 2016
ระบบ AI ได้ประมวลผลและดำเนินการตามข้อมูลที่เป็นการคัดเลือกโดยมนุษย์ที่ล้าสมัย เจ้าหน้าที่ทหารเก่าตรวจสอบให้กับ Semafor ว่า "มนุษย์ - ไม่ใช่ AI - คือต้นเหตุ" แต่ผู้วิจารณ์รวมถึง Human Rights Watch โต้แย้งว่ากระบวนการที่ใช้ AI ช่วยนั้นมีเวลาจำกัดในการตรวจสอบโดยมนุษย์เพียงพอที่จะจับข้อผิดพลาดไว้ได้
AI กำลังทำการตัดสินใจเกี่ยวกับชีวิตและความตายโดยอิสระในการสงครามหรือไม่?
ยังไม่ใช่ ตามคำแถลงอย่างเป็นทางการ ทั้งพลเรือเอก Cooper ของ CENTCOM และโฆษกหัวหน้าของเพนตากอน Sean Parnell ได้แถลงต่อสาธารณชนว่ามนุษย์เป็นผู้ตัดสินใจขั้นสุดท้ายเกี่ยวกับการโจมตีที่ร้ายแรงทั้งหมด Lauren Kahn จาก Center for Security and Emerging Technology ได้ยืนยันกับ NPR ว่า "AI ยังไม่ได้ทำการตัดสินใจเกี่ยวกับว่าใครจะมีชีวิตอยู่และใครจะต้องตายในขณะนี้."
อย่างไรก็ตาม ความเร็วและปริมาณที่การกำหนดเป้าหมายด้วยความช่วยเหลือของ AI ดำเนินการ — 1,000 เป้าหมายใน 24 ชั่วโมง — ทำให้เกิดคำถามเชิงโครงสร้างเกี่ยวกับความหมายของการตรวจสอบโดยมนุษย์ในระดับนั้น ซึ่งเป็นความกังวลที่มีร่วมกันโดยสมาชิกของคณะกรรมการบริการทางทหารวุฒิสภา
กฎระเบียบระหว่างประเทศใดบ้างที่ควบคุมการใช้ปัญญาประดิษฐ์ในสงคราม?
โครงสร้างระหว่างประเทศหลักคือมติของสหประชาชาติว่าด้วย "ปัญญาประดิษฐ์ในโดเมนทางทหารและผลกระทบต่อสันติภาพและความมั่นคงระหว่างประเทศ" ซึ่งผ่านการรับรองในเดือนธันวาคม 2025 เนื้อหารมติส่งเสริมการอภิปรายในรูปแบบหลายฝ่ายและเปิดกระบวนการมีส่วนร่วมอย่างเป็นทางการ โดยมีกำหนดการประชุมสามวันในเดือนมิถุนายน 2026 อย่างไรก็ตาม มติฉบับนี้ไม่ผูกพันทางกฎหมาย
กฎหมายว่าด้วยความขัดแย้งทางอาวุธ — รวมถึงกฎหมายมนุษยธรรมระหว่างประเทศและอนุสัญญาเจนีวา — โดยทางเทคนิคแล้วใช้บังคับกับการดำเนินงานที่มี AI ช่วย แต่ตามที่ Chatham House กล่าวไว้ มีการอภิปรายที่เพิ่มขึ้นเกี่ยวกับการที่ AI นำมาซึ่งมิติที่ต้องการกฎเพิ่มเติมที่กำหนดให้มีการควบคุมการกำหนดเป้าหมายตามอัตโนมัติโดยเฉพาะ
การบริหารจัดการ AI ในกองทัพควรพัฒนาตามการใช้งานปัจจุบันอย่างไร?
นักวิจัยด้านการป้องกันและผู้เชี่ยวชาญอิสระกำลังมุ่งสู่ความต้องการเฉพาะหลายประการ: โปรโตคอลความสดใหม่ของข้อมูลที่จำเป็นเพื่อป้องกันไม่ให้ข้อมูลข่าวกรองที่ล้าสมัยถูกประมวลผลในระดับความเร็วในการดำเนินการ, ความสามารถในการตรวจสอบการทำงานเพื่อให้การสอบสวนหลังเกิดเหตุสามารถติดตามได้ว่าผลลัพธ์จาก AI ส่งผลต่อการตัดสินใจของมนุษย์อย่างไร, ขีดจำกัดการเพิ่มระดับที่ชัดเจนซึ่งกำหนดว่าเมื่อใดที่คำแนะนำของ AI ต้องการการตรวจสอบจากมนุษย์เพิ่มเติม, และมาตรฐานการตรวจสอบย้อนกลับหลังเกิดเหตุ.
การวิเคราะห์ด้านการกำกับดูแลของ TNGlobal ชี้ให้เห็นว่า "การมีขั้นตอนการอนุมัติอย่างเป็นทางการ" ไม่เพียงพอ — คุณภาพของทั้งกระบวนการ ตั้งแต่การป้อนข้อมูลข่าวกรองไปจนถึงการอนุมัติขั้นสุดท้าย เป็นสิ่งที่กำหนดความรับผิดชอบที่แท้จริง ไม่ใช่แค่ลายเซ็นของมนุษย์ครั้งสุดท้ายในห่วงโซ่
คำชี้แจง:
มุมมองที่แสดงออกเป็นของผู้เขียนแต่เพียงผู้เดียวและไม่สะท้อนถึงมุมมองของแพลตฟอร์มนี้ แพลตฟอร์มนี้และบริษัทในเครือไม่รับผิดชอบต่อความถูกต้องหรือความเหมาะสมของข้อมูลที่ให้ไว้ ข้อมูลเหล่านี้จัดทำขึ้นเพื่อวัตถุประสงค์ในการให้ข้อมูลเท่านั้นและไม่ได้มีจุดประสงค์เป็นคำแนะนำทางการเงินหรือการลงทุน
ข้อจำกัดความรับผิดชอบ: เนื้อหาของบทความนี้ไม่ถือเป็นคำแนะนำทางการเงินหรือการลงทุน




