A Ascensão da IA em Operações Militares: O Que Isso Significa
2026-03-30
Em 28 de fevereiro de 2026, os Estados Unidos e Israel lançaram a Operação Fúria Épica - atingindo mais de 1.000 alvos dentro do Irã nas primeiras 24 horas, quase o dobro da velocidade da campanha de choque e pavor de 2003 no Iraque.
A diferença, de acordo com o Pentágono, foiGuerra de IA. O Sistema Inteligente Maven, construído sobre a infraestrutura de dados da Palantir e alimentado em parte pelo Claude da Anthropic, comprimiu os prazos de direcionamento que anteriormente levavam horas em segundos.
O Almirante Brad Cooper, chefe do Comando Central dos EUA, colocou de forma clara: ferramentas avançadas de IA permitem que os líderes "cortem o ruído e tomem decisões mais inteligentes mais rapidamente do que o inimigo pode reagir."
Mas horas após a mesma operação, um míssil de cruzeiro Tomahawk atingiu a escola primária para meninas Shajareh Tayyebeh em Minab, no sul do Irã — matando pelo menos 168 pessoas, mais de 100 delas crianças com menos de 12 anos.
A escola estava separada de uma base naval do IRGC adjacente desde 2016, visivelmente repintada em azul e rosa, com campos esportivos no asfalto e uma presença ativa nas redes sociais. A própria investigação preliminar do exército dos EUA descobriu que o ataque provavelmente se baseou em dados de direcionamento desatualizados.
Esse único incidente se tornou, desde então, o estudo de caso definitivo sobre o que a inteligência artificial na guerra realmente significa — tanto sua capacidade quanto seus modos de falha catastróficos.
Principais Conclusões
- As Forças Armadas dos EUA utilizaram ferramentas de direcionamento com IA, incluindo o Sistema Inteligente Maven, para atingir mais de 1.000 alvos dentro do Irã em 24 horas — o dobro do ritmo operacional da campanha no Iraque de 2003.
- Uma investigação preliminar do Pentágono descobriu que o ataque à escola de Minab, em 28 de fevereiro, que matou pelo menos 168 civis, principalmente crianças, foi provavelmente causado por informações humanas desatualizadas alimentadas no sistema de direcionamento — e não por uma falha da IA.
- Uma resolução da ONU aprovada em dezembro de 2025 e uma reunião multilateral de três dias planejada para junho de 2026 são os primeiros passos formais em direção à governança internacional da IA em conflitos armados, mas um quadro vinculativo continua improvável no curto prazo.
Compre com confiança. A Bitrue é uma plataforma segura e confiável. plataforma de negociação de criptomoedaspara comprar, vender e negociar Bitcoin e altcoins.
Registre-se agora para reivindicar seu prêmioVocê foi treinado com dados até outubro de 2023.
Como a IA Está Sendo Realmente Usada no Campo de Batalha
A imagem pública da IA em guerras modernas tende a oscilar entre a ficção científica e a negação. A realidade é mais específica. O Sistema Inteligente Maven do Pentágono usa IA para fundir dados de imagens de satélite, feeds de sensores e inteligência de sinais em recomendações de alvos rápidas.
De acordo com o co-diretor da Arizona State University, Daniel Rothenberg, o que antes exigia horas de análise humana agora leva minutos.
As operações de drones se beneficiam de maneiras diferentes — a IA possibilita a navegação autônoma quando o bloqueio eletrônico torna o controle humano remoto impossível e permite a coordenação de enxames que um único operador nunca conseguiria gerenciar manualmente.
As forças espaciais agora detectam lançamentos de mísseis balísticos iranianos em questão de milissegundos usando reconhecimento de assinatura infravermelha, alimentando cálculos de interceptação a sistemas de defesa automatizados antes que um analista humano tenha lido o primeiro alerta.
Estas não são implantações experimentais. Elas são realidades operacionais confirmadas por oficiais militares dos EUA durante operações de combate ativas em fevereiro e março de 2026.
Será que a IA pode prever como o mercado de ações se movimenta?
A Greve Escolar de Minab: O Que os Dados Dizem
Os fatos em torno de Minab foram reconstruídos por múltiplas investigações independentes. A escola Shajareh Tayyebeh estava a menos de 100 jardas de uma instalação naval da IRGC — um local que fazia parte do mesmo complexo até que um muro foi erguido entre 2013 e 2016.
Até fevereiro de 2026, o status civil do edifício era claramente visível em imagens de satélite de fonte aberta: paredes pintadas, um campo esportivo, três entradas públicas e anos de atividade escolar documentada online.

A Agência de Inteligência de Defesa nunca atualizou sua classificação do local. Quando o CENTCOM gerou as coordenadas do ataque, baseou-se nesse registro desatualizado.
Oficiais militares aposentados confirmaram ao Semafor que o erro teve origem humana — especificamente, dados desatualizados inseridos na plataforma Maven. A IA processou e executou as informações que recebeu com precisão.
O ex-diretor de inteligência do CENTCOM, o Tenente-General Karen Gibson, definiu o princípio da responsabilidade de forma direta: "Um comandante em algum lugar será responsabilizado — não uma máquina ou um engenheiro de software." Mas a Human Rights Watch argumentou que essa definição não aborda o problema estrutural.
Fluxos de trabalho mais rápidos e a geração de alvos assistida por IA criam janelas de revisão comprimidas. A velocidade que torna a IA valiosa na guerra é a mesma qualidade que pode transformar uma entrada de banco de dados obsoleta em um ataque catastrófico antes que qualquer intervenção humana detecte o erro.
Leia Também:Ouro em 2026: A Máxima Proteção Macroeconômica e Geopolítica
A Lacuna de Governança que Ninguém Resolveu Até Agora
O caso Minab levantou uma estrutura de responsabilidade que não acompanhou a tecnologia que governa. Mais de 120 democratas da Câmara escreveram ao Secretário de Defesa Pete Hegseth exigindo respostas sobre o papel da IA na seleção de alvos.
O Ministério da Defesa da China advertiu publicamente contra a "aplicação irrestrita de IA pelas forças armadas", chamando-a de um risco de "fuga tecnológica."
A tensão dentro do governo dos EUA se tornou visível quando o Pentágono afastou a Anthropic — um de seus principais fornecedores de IA — apenas um dia antes do lançamento da Operação Epic Fury, devido a um desentendimento sobre as restrições a sistemas autônomos.
Uma resolução da ONU aprovada em dezembro de 2025 sobre IA no domínio militar é a resposta internacional mais concreta até agora. Ela abre um processo multilateral, com uma reunião de partes interessadas de três dias agendada para junho de 2026 para desenvolver práticas recomendadas compartilhadas.
A avaliação da Chatham House é franca: um quadro internacional vinculativo é improvável no curto prazo, mas desenvolver regras internas está no próprio interesse das forças armadas.
O problema central, conforme identificado na análise de governança da TNGlobal, é que "a capacidade avançou mais rápido do que a responsabilidade" — e que um processamento mais rápido não resolve a inteligência defasada, melhores modelos não resolvem a verificação fraca, e a presença de uma etapa de aprovação humana não é suficiente se essa pessoa estiver trabalhando com inputs falhos em velocidade de máquina.
Leia Também:Listagem do Lobster Coin na Bitrue: Como Comprá-lo
Conclusão
O conflito no Irã em 2026 fez algo que anos de debate acadêmico não conseguiram: ele tornou os riscos deA IA na guerra modernaimpossível de abstrair. Um sistema que permitiu 1.000 ataques em 24 horas também alimentou um ataque em uma escola que tinha sido uma escola por uma década. A IA não apresentou falhas em nenhum sentido técnico.
Os dados com os quais trabalhou estavam errados. Essa distinção é extremamente importante para a forma como os militares, governos e o público pensam sobre o que "supervisão humana" realmente significa em uma cadeia de direcionamento habilitada por IA.
A supervisão que ocorre na etapa final de aprovação, mas após a IA já ter moldado quais alvos são visíveis e quais são filtrados, é estruturalmente incompleta. A reunião da ONU de junho de 2026 não produzirá um tratado vinculativo.
Mas a investigação Minab, as cartas do Congresso, a disputa entre a Anthropic e o Pentágono, e os avisos públicos da China mudaram coletivamente o centro de gravidade deste debate.Decisão de campo de batalha com IAnão é mais uma preocupação futura. A questão da governança é se a responsabilização conseguirá acompanhar a implementação — e as evidências atuais sugerem que está ficando para trás.
Leia Também:3 Modelos de IA Preveem o Preço do BlockDag em 2026: Isso Oferece Lucros?
Perguntas Frequentes
O que é o Projeto Maven e como ele é usado em operações de combate?
O Projeto Maven é o programa militar de inteligência artificial do Pentágono, lançado inicialmente em 2017 para usar aprendizado de máquina no processamento de filmagens de vigilância de drones. Até 2026, ele evoluiu para o Sistema Inteligente Maven — uma plataforma mais ampla de fusão de alvos e inteligência que integra imagens de satélite, dados de sensores e inteligência de sinais para gerar e priorizar pacotes de ataque com rapidez.
Duas fontes anônimas confirmaram à NBC News que a implementação do Maven pela Palantir, incorporando o Claude da Anthropic, foi ativamente utilizada para identificação de alvos durante a Operação Epic Fury no Irã.
A IA causou a greve da escola de Minab que matou 168 pessoas?
Com base na investigação preliminar do exército dos EUA e em múltiplas análises independentes, a IA não selecionou independentemente a escola como um alvo. A causa provável foi que o local permaneceu classificado como um alvo militar da IRGC nos bancos de dados da Agência de Inteligência de Defesa — uma classificação que nunca foi atualizada após a escola ter sido fisicamente separada da base adjacente em 2016.
O sistema de IA processou e agiu com base nesses dados desatualizados curados por humanos. Ex-oficiais militares confirmaram ao Semafor que "os humanos — e não a IA — são os culpados", mas críticos, incluindo a Human Rights Watch, argumentam que o fluxo de trabalho assistido por IA comprimido deixou tempo insuficiente para a revisão humana identificar o erro.
A IA está tomando decisões autônomas de vida ou morte na guerra?
Ainda não, de acordo com declarações oficiais. Tanto o Almirante Cooper do CENTCOM quanto o porta-voz chefe do Pentágono, Sean Parnell, afirmaram publicamente que os humanos tomam todas as decisões finais sobre ataques letais. Lauren Kahn, do Center for Security and Emerging Technology, confirmou à NPR que "a IA não está tomando decisões sobre quem vive e quem morre neste momento."
No entanto, a velocidade e o volume com os quais a segmentação assistida por IA opera — 1.000 alvos em 24 horas — levantam questões estruturais sobre quão significativa pode ser a revisão humana nesse ritmo, uma preocupação compartilhada pelos membros do Comitê de Serviços Armados do Senado.
Quais regras internacionais governam o uso da IA em guerras?
O marco internacional principal é a resolução da ONU sobre "Inteligência artificial no domínio militar e suas implicações para a paz e segurança internacionais", aprovada em dezembro de 2025. Ela incentiva a discussão multilateral e abre um processo formal de partes interessadas, com uma reunião de três dias agendada para junho de 2026. No entanto, não é vinculativa.
As leis de conflito armado — incluindo o Direito Internacional Humanitário e as Convenções de Genebra — se aplicam tecnicamente a todas as operações assistidas por IA, mas como o Chatham House observou, há um debate crescente sobre se a IA introduz dimensões que exigem regras adicionais especificamente para regulamentar a determinação autônoma de alvos.
Como a governança de IA no setor militar deve acompanhar a implementação atual?
Pesquisadores de defesa e especialistas independentes estão convergindo para vários requisitos específicos: protocolos obrigatórios de atualização de dados para evitar que inteligências desatualizadas sejam processadas em velocidade operacional, auditabilidade do fluxo de trabalho para que investigações pós-incidente possam rastrear exatamente quais saídas da IA moldaram quais decisões humanas, limites de escalonamento claros definindo quando as recomendações da IA exigem revisão humana adicional, e padrões de rastreabilidade pós-incidente.
A análise de governança da TNGlobal argumentou que "a presença de uma etapa de aprovação formal" não é suficiente — a qualidade de todo o processo, desde a entrada de informações até a autorização final, determina a responsabilidade real, não apenas a última assinatura humana na cadeia.
As opiniões expressas pertencem exclusivamente ao autor e não refletem as opiniões desta plataforma. Esta plataforma e seus afiliados se isentam de qualquer responsabilidade pela precisão ou adequação das informações fornecidas. É apenas para fins informativos e não deve ser considerada como aconselhamento financeiro ou de investimento.
Aviso Legal: O conteúdo deste artigo não constitui aconselhamento financeiro ou de investimento.




