Рост ИИ в военных операциях: что это означает
2026-03-30
28 февраля 2026 года Соединенные Штаты и Израиль начали Операцию Эпическая Ярость — за первые 24 часа было нанесено ударов по более чем 1000 целям внутри Ирана, что почти вдвое превышает темп кампании шока и ужаса 2003 года в Ираке.
Разница, по данным Пентагона, составилаИскусственный интеллект в войне. Умная система Maven, построенная на инфраструктуре данных Palantir и частично powered by Claude от Anthropic, сократила сроки целевой работы, которые ранее занимали часы, до секунд.
Адмирал Брэд Купер, глава Центрального командования США, выразился прямо: продвинутые инструменты ИИ позволяют лидерам "прорезать шум и принимать более разумные решения быстрее, чем враг может отреагировать."
Но спустя несколько часов после той же операции крылатая ракета "Томагавк" поразила начальную школу девочек Шаджарех Таййебех в Минабе, на юге Ирана, убив как минимум 168 человек, среди которых более 100 детей младше 12 лет.
Школа была отделена от соседней военно-морской базы КСИР с 2016 года, заметно перекрашена в синий и розовый цвета с спортивными площадками на асфальте и активным присутствием в социальных сетях. Предварительное расследование, проведенное военными США, установило, что удар, вероятно, был основан на устаревших данных для целеуказания.
Этот единственный инцидент с тех пор стал определяющим примером того, что на самом деле означает искусственный интеллект в войне — как его возможности, так и его катастрофические режимы сбоев.
<мысли>Ключевые выводы
- Военные США использовали инструменты целеуказания на основе ИИ, включая систему Maven Smart, для удара по более чем 1,000 целям внутри Ирана за 24 часа — что вдвое превышает оперативный темп кампании в Ираке 2003 года.
- Предварительное расследование Пентагона показало, что удар по школе в Минабе 28 февраля, в результате которого погибли как минимум 168 гражданских лиц, в основном дети, вероятно, был вызван устаревшей информацией, подготовленной человеком и введенной в систему наведения, а не сбоем ИИ.
- Резолюция ООН, принятая в декабре 2025 года, и трехдневная многосторонняя встреча, запланированная на июнь 2026 года, стали первыми официальными шагами к международному управлению ИИ в вооруженном конфликте, однако обязательная рамочная структура остается маловероятной в краткосрочной перспективе.
Торгуйте с уверенностью. Bitrue - это безопасная и надежная крипто торговая платформадля покупки, продажи и обмена Bitcoin и альткоинов.
Зарегистрируйтесь сейчас, чтобы получить свой приз!
Как ИИ фактически используется на поле боя
Общественное восприятие ИИ в современных войнах, как правило, колеблется между научной фантастикой и отрицанием. Реальность более конкретна. Умная система Maven Пентагона использует ИИ для объединения данных с спутниковых изображений, сенсорных данных и сигналов разведки в быстрые рекомендации по целям.
Согласно словам со-директора Университета штата Аризона Дэниела Ротенберга, то, что когда-то требовало часов человеческого анализа, теперь занимает минуты.
Операции с дронами приносят различные преимущества — ИИ обеспечивает автономную навигацию, когда электронное подавление делает невозможным удаленное управление человеком, и он позволяет координировать рои, которые один оператор никогда не смог бы управлять вручную.
Сенсоры орбитальных войск космических сил теперь обнаруживают пуски иранских баллистических ракет за миллисекунды, используя распознавание инфракрасных сигнатур, передавая данные для расчетов перехвата автоматизированным системам обороны ещё до того, как человеческий аналитик прочитает первый оповестительный сигнал.
Эти не являются экспериментальными развертываниями. Это оперативные реалии, подтвержденные военнослужащими США во время активных боевых операций в феврале и марте 2026 года.
Читать также:Может ли ИИ прогнозировать, как движется фондовый рынок?
Страйк в школе Миниба: что говорят данные
Факты вокруг Минба были восстановлены несколькими независимыми расследованиями. Школа Шаджарех Тайебех находилась менее чем в 100 ярдах от морского объекта Корпуса стражей исламской революции (КСИР) — участка, который являлся частью того же комплекса до возведения стены в период с 2013 по 2016 год.
К февралю 2026 года гражданский статус здания был ясно виден на спутниковых снимках с открытых источников: покрашенные стены, спортивное поле, три общественных входа и годы задокументированной школьной деятельности в интернете.

Агентство разведки Министерства обороны никогда не обновляло классификацию данного объекта. Когда CENTCOM генерировало координаты удара, оно основывалось на этой устаревшей записи.
Бывшие военные чиновники подтвердили изданию Semafor, что ошибка имела человеческое происхождение — в частности, устаревшие данные, введенные в платформу Maven. Искусственный интеллект обработал и выполнил информацию, которую получил, с точностью.
Бывший директор разведки CENTCOM генерал-лейтенант Карен Гибсон четко сформулировала принцип ответственности: "Командир где-то в конце концов будет нести ответственность — не машина или инженер-программист." Однако Human Rights Watch утверждал, что такое формулирование упускает структурную проблему.
Более быстрые рабочие процессы и генерация целей с помощью ИИ создают сжатые сроки рецензирования. Скорость, которая делает ИИ ценным в войне, — это качество, которое может превратить устаревшую запись в базе данных в катастрофическую атаку, прежде чем какое-либо человеческое вмешательство обнаружит ошибку.
Читать тоже:Золото в 2026 году: Ультимативный хедж против макро-геополитики
График управления, который никто еще не решил
Случай с Минибом выявил структуру подотчетности, которая не успевает за технологией, которую она регулирует. Более 120 демократов из Палаты представителей написали министру обороны Питу Хегсету с требованием ответить на вопросы о роли ИИ в выборе целей.
Министерство обороны Китая публично предупредило против "неограниченного применения ИИ военными", назвав это риском "технологического безумия".
Напряженность внутри правительства США стала очевидной, когда Пентагон отстранил Anthropic — одного из своих основных поставщиков ИИ — всего за день до начала операции Epic Fury из-за разногласий по поводу ограничений на автономные системы.
Резолюция ООН, принятая в декабре 2025 года по вопросам искусственного интеллекта в военной сфере, является наиболее конкретным международным ответом на сегодняшний день. Она открывает многосторонний процесс, с трехдневной встречей заинтересованных сторон, назначенной на июнь 2026 года, для разработки общих наилучших практик.
Оценка Chatham House откровенна: обязательный международный рамочный закон в краткосрочной перспективе маловероятен, однако разработка внутренних правил является интересом самих вооруженных сил.
Основная проблема, как установил анализ управления TNGlobal, заключается в том, что «возможности развивались быстрее, чем ответственность» — и что более быстрая обработка не исправляет устаревшую информацию, лучшие модели не решают проблему слабой верификации, а наличие этапа одобрения человеком недостаточно, если этот человек работает с ошибочными данными на скорости машины.
Заключение
Конфликт в Иране 2026 года сделал то, что годы академических дебатов не могли: он прояснил рискиИИ в современном войненевозможно абстрагировать. Система, которая позволяла провести 1,000 ударов за 24 часа, также нанесла удар по школе, которая уже десять лет была школой. ИИ не сработал неправильно в каком-либо техническом смысле.
Данные, с которыми он работал, были неверными. Это отличие имеет огромное значение для того, как армии, правительства и общественность воспринимают то, что на самом деле означает "человеческий надзор" в цепочке целеполагания с использованием ИИ.
Наблюдение, которое происходит на этапе окончательного одобрения, но после того, как ИИ уже сформировал, какие цели видимы, а какие отфильтрованы, является структурно неполным. Заседание ООН в июне 2026 года не приведет к подписанию обязательного договора.
Но расследование в Минобе, письма в Конгресс, спор между Anthropic и Пентагоном, а также публичные предупреждения Китая в совокупности изменили центр тяжести этого дебата.Искусственный интеллект в принятии решений на поле боябольше не является проблемой будущего. Вопрос управления заключается в том, сможет ли ответственность догнать развертывание — и текущие доказательства предполагают, что она отстает.
Читайте также:3 ИИ модели прогнозируют цену BlockDag в 2026 году: предлагает ли это прибыль?
Часто задаваемые вопросы
Что такое проект Maven и как он используется в боевых операциях?
Проект Maven является флагманской программой военного ИИ Пентагона, впервые запущенной в 2017 году для использования машинного обучения в обработке видеозаписей дронов. К 2026 году он эволюционировал в Умную Систему Maven — более широкую платформу для целеполагания и интеграции разведывательной информации, которая объединяет спутниковые снимки, данные сенсоров и сигнальную разведку для быстрого создания и приоритизации пакетов ударов.
Два анонимных источника подтвердили NBC News, что реализация Palantir Maven, включающая Claude от Anthropic, активно использовалась для идентификации целей во время операции Epic Fury в Иране.
Согласно вашему запросу, перевод текста будет следующим:
Вызвала ли ИИ забастовку школы в Минабе, в результате которой погибли 168 человек?
На основе предварительного расследования американских военных и нескольких независимых анализов, ИИ не выбирал школу как цель самостоятельно. Вероятной причиной стало то, что объект оставался классифицированным как военная цель Корпуса стражей исламской революции в базах данных Управления оборонной разведки — классификация, которая никогда не была обновлена после того, как школа была физически отделена от соседней базы в 2016 году.
Система ИИ обработала и действовала на основе этих устаревших данных, собранных людьми. Бывшие военные чиновники подтвердили Semafor, что "виноваты люди, а не ИИ", но критики, включая Human Rights Watch, утверждают, что сжатый рабочий процесс с использованием ИИ оставил недостаточно времени для человеческой проверки, чтобы поймать ошибку.
Является ли ИИ принимающим автономные решения о жизни и смерти в войне?
Пока нет, согласно официальным заявлениям. Адмирал Купер из CENTCOM и главный пресс-секретарь Пентагона Шон Парнелл публично заявили, что все окончательные решения по летальным ударам принимает человек. Лорен Кан из Центра безопасности и новых технологий подтвердила NPR, что «ИИ не принимает решения о том, кто жив и кто мертв в данный момент».
Однако скорость и объем, с которыми работает целеуказание с помощью ИИ — 1 000 целей за 24 часа — поднимает структурные вопросы о том, насколько значимым может быть человеческое рассмотрение на такой скорости, что является беспокойством, разделяемым членами Комитета вооруженных сил Сената.
Каковы международные правила, регулирующие использование ИИ в войне?
Основным международным документом является резолюция ООН о "Искусственном интеллекте в военной сфере и его последствиях для международного мира и безопасности", принятая в декабре 2025 года. Она поощряет многосторонние обсуждения и открывает формальный процесс вовлечения заинтересованных сторон, с трехдневной встречей, запланированной на июнь 2026 года. Однако она не является обязательной к исполнению.
Законы вооруженного конфликта — включая Международное гуманитарное право и Женевские конвенции — технически применимы ко всем операциям с использованием ИИ, но, как отметило Chatham House, растет обсуждение о том, вводит ли ИИ аспекты, которые требуют дополнительных правил, специально регулирующих автономное целеполагание.
Как должно развиваться управление ИИ в армии, чтобы соответствовать текущему развертыванию?
Учёные в области обороны и независимые эксперты приходят к нескольким специфическим требованиям: обязательные протоколы актуальности данных для предотвращения обработки устаревшей информации на оперативной скорости, возможность аудита рабочих процессов, чтобы расследования после инцидентов могли точно отслеживать, какие результаты ИИ повлияли на какие человеческие решения, чёткие пороги эскалации, определяющие, когда рекомендации ИИ требуют дополнительной человеческой проверки, и стандарты отслеживаемости после инцидентов.
Анализ соблюдения норм TNGlobal утверждает, что "наличие формального этапа утверждения" недостаточно — качество всего процесса, от ввода информации до окончательной авторизации, определяет реальную подотчетность, а не только последнюю человеческую подпись в цепочке.
Мнения, выраженные здесь, принадлежат исключительно автору и не отражают мнений этой платформы. Эта платформа и ее дочерние компании уклоняются от какой-либо ответственности за точность или соответствие предоставленной информации. Она предназначена только для информационных целей и не является финансовым или инвестиционным советом.
Disclaimer: De inhoud van dit artikel vormt geen financieel of investeringsadvies.





