L'essor de l'IA dans les opérations militaires : Ce que cela signifie

2026-03-30
L'essor de l'IA dans les opérations militaires : Ce que cela signifie

Le 28 février 2026, les États-Unis et Israël ont lancé l'Opération Epic Fury — frappant plus de 1 000 cibles à l'intérieur de l'Iran dans les 24 premières heures, presque le double du rythme de la campagne de choc et d'effroi de 2003 en Irak.

La différence, selon le Pentagone, était

. Le système intelligent Maven, construit sur l'infrastructure de données de Palantir et partiellement alimenté par Claude d'Anthropic, a compressé les délais de ciblage qui prenaient autrefois des heures en quelques secondes.

L'amiral Brad Cooper, chef du Commandement central des États-Unis, l'a exprimé clairement : les outils d'IA avancés permettent aux dirigeants de "découper le bruit et de prendre des décisions plus intelligentes plus rapidement que l'ennemi ne peut réagir."

Mais quelques heures après le début de la même opération, un missile de croisière Tomahawk a frappé l'école élémentaire pour filles Shajareh Tayyebeh à Minab, dans le sud de l'Iran — tuant au moins 168 personnes, dont plus de 100 enfants de moins de 12 ans.

L'école avait été séparée d'une base navale du CGRI adjacente depuis 2016, visiblement repeinte en bleu et rose avec des terrains de sport sur l'asphalte et une présence active sur les réseaux sociaux. La propre enquête préliminaire de l'armée américaine a révélé que la frappe était probablement basée sur des données de ciblage obsolètes.

Cet incident unique est depuis devenu l'étude de cas déterminante de ce que signifie réellement l'intelligence artificielle dans la guerre — à la fois sa capacité et ses modes de défaillance catastrophiques.

Les points clés

  • L'armée américaine a utilisé des outils de ciblage basés sur l'IA, y compris le système Maven Smart, pour frapper plus de 1 000 cibles à l'intérieur de l'Iran en 24 heures - soit le double du rythme opérationnel de la campagne en Irak en 2003.
  • Une enquête préliminaire du Pentagone a révélé que la frappe sur l'école de Minab, le 28 février, qui a tué au moins 168 civils, principalement des enfants, était probablement causée par des renseignements humains obsolètes intégrés dans le système de ciblage — et non pas par une défaillance de l'IA.
  • Une résolution de l'ONU adoptée en décembre 2025 et une réunion multilatérale de trois jours prévue pour juin 2026 constituent les premiers pas formels vers la gouvernance internationale de l'IA dans les conflits armés, mais un cadre contraignant reste peu probable à court terme.

 

sign up on Bitrue and get prize

Tradez en toute confiance. Bitrue est une plateforme sécurisée et fiable. plateforme de trading crypto

pour acheter, vendre et échanger des Bitcoins et des altcoins.



Enregistrez-vous maintenant pour réclamer votre prix Traduction

Vous êtes formé sur des données jusqu'en octobre 2023.

Comment l'IA est réellement utilisée sur le champ de bataille

L'image publique de l'IA dans la guerre moderne tend à osciller entre la science-fiction et le déni. La réalité est plus précise. Le système Maven Smart du Pentagone utilise l'IA pour fusionner des données provenant d'images satellites, de flux de capteurs et de renseignements d'origine électromagnétique en recommandations de ciblage rapides.

Selon Daniel Rothenberg, codirecteur de l'Université d'État de l'Arizona, ce qui nécessitait autrefois des heures d'analyse humaine ne prend maintenant que quelques minutes.

Les opérations de drones bénéficient différemment — l'IA permet une navigation autonome lorsque le brouillage électronique rend le contrôle humain à distance impossible, et elle permet la coordination de essaims qu'un seul opérateur ne pourrait jamais gérer manuellement.

Les capteurs orbitaux de la Force Spatiale détectent désormais les lancements de missiles balistiques iraniens en quelques millisecondes grâce à la reconnaissance de signatures infrarouges, alimentant des calculs d'interception aux systèmes de défense automatisés avant qu'un analyste humain n'ait lu la première alerte.

Ceci ne sont pas des déploiements expérimentaux. Ce sont des réalités opérationnelles confirmées par des responsables militaires américains lors d’opérations de combat actives en février et mars 2026.

Lire aussi :

Peut l'IA prédire comment le marché boursier évolue ?

L'Grève de l'École de Minab : Ce que les Données Disent

Les faits autour de Minab ont été reconstruits par plusieurs enquêtes indépendantes. L'école Shajareh Tayyebeh se trouvait à moins de 100 yards d'une installation navale du CGRI — un site qui avait fait partie du même complexe jusqu'à ce qu'un mur soit érigé entre 2013 et 2016.

D'ici février 2026, le statut civil du bâtiment était clairement visible dans les images satellites en source ouverte : murs peints, un terrain de sport, trois entrées publiques, et des années d'activités scolaires documentées en ligne.

AI in military.jpg

L'Agence de renseignement de la défense n'avait jamais mis à jour sa classification du site. Lorsque le CENTCOM a généré des coordonnées de frappe, il s'est appuyé sur cet enregistrement périmé.

Des anciens responsables militaires ont confirmé à Semafor que l'erreur était d'origine humaine - plus précisément, des données obsolètes introduites dans la plateforme Maven. L'IA a traité et exécuté les informations qui lui ont été fournies avec précision.

Le directeur du renseignement de CENTCOM, le général de division Karen Gibson, a formulé le principe de responsabilité de manière directe : "Un commandant quelque part sera finalement tenu responsable — pas une machine ou un ingénieur logiciel." Mais Human Rights Watch a soutenu que cette formulation passe à côté du problème structurel.

Des flux de travail plus rapides et une génération d'objectifs assistée par l'IA créent des fenêtres d'examen comprimées. La rapidité qui rend l'IA précieuse dans la guerre est la même qualité qui peut transformer une entrée de base de données obsolète en une frappe catastrophique avant que toute intervention humaine ne détecte l'erreur.

Lire aussi :L'or en 2026 : La couverture ultime en macro-géopolitique

BitrueAlpha.webp

Le fossé de la gouvernance que personne n'a encore résolu

Le cas Minab a mis en lumière une structure de responsabilité qui n'a pas suivi le rythme de la technologie qu'elle régit. Plus de 120 démocrates de la Chambre ont écrit au secrétaire à la Défense Pete Hegseth pour demander des réponses sur le rôle de l'IA dans la sélection des cibles.

Le ministère de la Défense de la Chine a publiquement averti contre "l'application sans restriction de l'IA par les militaires", qualifiant cela de risque de "derapage technologique".

La tension à l'intérieur du gouvernement américain est devenue visible lorsque le Pentagone a écarté Anthropic — l'un de ses principaux fournisseurs d'IA — juste un jour avant le lancement de l'Opération Epic Fury, en raison d'un désaccord sur les restrictions concernant les systèmes autonomes.

Une résolution de l'ONU adoptée en décembre 2025 sur l'IA dans le domaine militaire est la réponse internationale la plus concrète à ce jour. Elle ouvre un processus multilatéral, avec une réunion de parties prenantes de trois jours prévue pour juin 2026 afin de développer des bonnes pratiques partagées.

L'évaluation de Chatham House est franche : un cadre international contraignant est peu probable à court terme, mais le développement de règles internes est dans l'intérêt des militaires.

Le problème fondamental, tel que l'a identifié l'analyse de gouvernance de TNGlobal, est que "la capacité a progressé plus vite que la responsabilité" — et que des traitements plus rapides ne corrigent pas les informations périmées, de meilleurs modèles ne résolvent pas une vérification faible, et la présence d'une étape d'approbation humaine n'est pas suffisante si cette personne travaille avec des entrées défectueuses à la vitesse des machines.

Lisez aussi :

  • Lobster Coin Listage sur Bitrue : Comment l'acheter
  • Conclusion

    Le conflit en Iran de 2026 a fait quelque chose que des années de débats académiques n'ont pas pu réaliser : il a rendu les risques deL'IA dans la guerre moderneimpossible à abstraire. Un système qui a permis 1 000 frappes en 24 heures a également alimenté une frappe dans une école qui avait été une école pendant une décennie. L'IA n'a pas dysfonctionné dans un sens technique.

    Les données avec lesquelles il a travaillé étaient erronées. Cette distinction est immense pour la façon dont les militaires, les gouvernements et le public pensent à ce que signifie réellement "supervision humaine" dans une chaîne de ciblage habilitée par l'intelligence artificielle.

    L'évaluation qui se produit à l'étape d'approbation finale, mais après que l'IA a déjà façonné quels objectifs sont visibles et lesquels sont filtrés, est structurellement incomplète. La réunion de l'ONU de juin 2026 ne produira pas de traité contraignant.

    Mais l'enquête Minab, les lettres du Congrès, le conflit entre Anthropic et le Pentagone, et les avertissements publics de la Chine ont collectivement déplacé le centre de gravité de ce débat.La prise de décision sur le champ de bataille par l'IAn'est plus une préoccupation future. La question de la gouvernance est de savoir si la responsabilité peut rattraper le déploiement — et les preuves actuelles suggèrent qu'elle prend du retard.

    Lire aussi :3 modèles d'IA prédisent le prix de BlockDag en 2026 : offre-t-il des profits ?

    FAQ

    Qu'est-ce que le Projet Maven et comment est-il utilisé dans les opérations de combat ?

    Project Maven est le programme d'IA militaire phare du Pentagone, lancé initialement en 2017 pour utiliser l'apprentissage automatique dans le traitement des images de surveillance par drones. D'ici 2026, il avait évolué vers le Maven Smart System — une plateforme de fusion de ciblage et de renseignement plus large qui intègre des images satellites, des données de capteurs et du renseignement d'origine électromagnétique pour générer et prioriser les paquets de frappe rapidement.

    Deux sources anonymes ont confirmé à NBC News que l'implémentation de Maven par Palantir, intégrant Claude d'Anthropic, a été activement utilisée pour l'identification des cibles lors de l'Opération Epic Fury en Iran.

    AI a-t-il causé la grève scolaire de Minab qui a tué 168 personnes ?

    Sur la base de l'enquête militaire préliminaire américaine et de multiples analyses indépendantes, l'IA n'a pas sélectionné de manière indépendante l'école comme cible. La cause probable était que le site restait classé comme cible militaire des Gardiens de la révolution islamique dans les bases de données de l'Agence de renseignement de la défense — une classification qui n'a jamais été mise à jour après que l'école a été physiquement séparée de la base adjacente en 2016.

    Le système d'IA a traité et agi sur ces données humaines obsolètes. D'anciens responsables militaires ont confirmé à Semafor que "les humains — et non l'IA — sont à blâmer", mais des critiques, y compris Human Rights Watch, soutiennent que le flux de travail compressé assisté par IA a laissé un temps insuffisant pour que l'examen humain puisse détecter l'erreur.

    L'IA prend-elle des décisions autonomes de vie ou de mort dans la guerre ?

    Pas encore, selon des déclarations officielles. L'amiral Cooper de CENTCOM et le porte-parole en chef du Pentagone, Sean Parnell, ont déclaré publiquement que les humains prennent toutes les décisions finales concernant les frappes létales. Lauren Kahn du Center for Security and Emerging Technology a confirmé à NPR que "l'IA ne prend pas de décisions sur qui vit et qui meurt à ce moment."

    Cependant, la rapidité et le volume auxquels le ciblage assisté par l'IA opère — 1 000 cibles en 24 heures — soulèvent des questions structurelles sur la portée de l'examen humain à ce rythme, une préoccupation partagée par les membres du Comité sénatorial des services armés.

    Quelles règles internationales régissent l'utilisation de l'IA dans la guerre ?

    Le cadre international principal est la résolution de l'ONU sur "L'intelligence artificielle dans le domaine militaire et ses implications pour la paix et la sécurité internationales", adoptée en décembre 2025. Elle encourage la discussion multilatérale et ouvre un processus formel de parties prenantes, avec une réunion de trois jours prévue en juin 2026. Cependant, elle n'est pas contraignante.

    Les lois des conflits armés — y compris le droit international humanitaire et les conventions de Genève — s'appliquent techniquement à toutes les opérations assistées par l'IA, mais comme l'a souligné Chatham House, il y a un débat croissant sur la question de savoir si l'IA introduit des dimensions qui nécessitent des règles supplémentaires régissant spécifiquement le ciblage autonome.

    Comment la gouvernance de l'IA dans l'armée devrait-elle rattraper le déploiement actuel ?

    Les chercheurs en défense et les experts indépendants convergent vers plusieurs exigences spécifiques : des protocoles de fraîcheur des données obligatoires pour empêcher le traitement d'une intelligence obsolète à une vitesse opérationnelle, une auditabilité des flux de travail afin que les enquêtes post-incident puissent retracer exactement quelles sorties d'IA ont influencé quelles décisions humaines, des seuils d'escalade clairs définissant quand les recommandations de l'IA nécessitent un examen humain supplémentaire, et des normes de traçabilité post-incident.

    L'analyse de gouvernance de TNGlobal a soutenu que "la présence d'une étape d'approbation formelle" n'est pas suffisante — la qualité de l'ensemble du processus, de l'apport d'informations à l'autorisation finale, détermine la véritable responsabilité, et pas seulement la dernière signature humaine dans la chaîne.

     

    Avertissement :

    Les opinions exprimées n'appartiennent qu'à l'auteur et ne reflètent pas les opinions de cette plateforme. Cette plateforme et ses affiliés déclinent toute responsabilité quant à l'exactitude ou à la pertinence des informations fournies. C'est uniquement à des fins d'information et ne doit pas être considéré comme un conseil financier ou d'investissement.

    Feragatname: Bu makalenin içeriği finansal veya yatırım tavsiyesi niteliğinde değildir.

    Inscrivez-vous maintenant pour réclamer un package cadeau de 2018 USDT pour les nouveaux arrivants

    Rejoignez Bitrue pour des récompenses exclusives

    Inscrivez-vous maintenant
    register

    Recommandé

    Mot du jour Binance 31 mars 2026 : Répondez et gagnez
    Mot du jour Binance 31 mars 2026 : Répondez et gagnez

    Le mot du jour Binance pour le 31 mars 2026 aide les joueurs à apprendre des termes crypto grâce à un simple puzzle quotidien tout en gagnant des points, des jetons et des bonus supplémentaires.

    2026-03-30Lire