Articles

Guerre à l’ère de l’IA

Quand les algorithmes entrent sur le champ de bataille

Par Dr. Tawhid CHTIOUI, Président fondateur d’aivancity School of AI & Data for Business & Society ; sélectionné parmi les 25 personnalités mondiales les plus influentes dans le domaine de l’IA et des données par Keyrus (Janvier 2025).

Depuis toujours, la guerre repose sur une décision profondément humaine : identifier l’ennemi, évaluer la menace, décider de frapper. Même lorsque les armes se sont perfectionnées, même lorsque la technologie a transformé les champs de bataille, ce moment décisif, celui où l’on interprète la réalité et où l’on choisit d’exercer la violence, est resté un acte ‘humain’.

Aujourd’hui, une question nouvelle apparaît : que devient la guerre lorsque l’analyse qui précède cette décision est produite par des algorithmes ? Que signifie une frappe militaire lorsqu’elle repose sur un modèle statistique entraîné sur des masses de données ? Comment comprendre une erreur lorsque l’identification d’une cible résulte d’un calcul probabiliste ? Et plus largement, que devient la responsabilité humaine lorsque les systèmes d’intelligence artificielle commencent à structurer la manière dont les armées perçoivent, interprètent et priorisent le champ de bataille ?

Ces questions ne relèvent plus seulement de la science-fiction. Elles sont désormais au cœur des conflits contemporains.

Le 28 février 2026, au début des frappes américaines et israéliennes contre l’Iran, un missile frappe un complexe situé dans la ville de Minab, dans le sud du pays. Parmi les bâtiments détruits se trouve l’école primaire Shajareh Tayyebeh, fréquentée ce matin-là par des centaines d’enfants. L’attaque provoque une onde de choc internationale. Très rapidement, au-delà du drame humain, une interrogation plus large s’impose dans le débat public : plusieurs analyses évoquent l’usage de systèmes d’intelligence artificielle dans la préparation et la sélection des cibles de cette campagne militaire.

Dans les jours qui suivent, deux récits opposés s’affrontent. Pour certains, cet événement illustrerait l’entrée dans une nouvelle ère où les machines décideraient de la mort des humains. Pour d’autres, au contraire, l’intelligence artificielle permettrait d’améliorer la précision des opérations militaires et de réduire les erreurs humaines.

Entre ces deux interprétations souvent caricaturales, une question essentielle demeure pourtant largement obscurcie par la confusion technologique et l’émotion du moment : que fait réellement l’intelligence artificielle dans la guerre contemporaine ?

Car l’expression même d’« intelligence artificielle » recouvre aujourd’hui des réalités techniques extrêmement diverses. Dans le débat public, elle oscille entre deux représentations simplifiées : celle d’une guerre automatisée dominée par des machines autonomes, et celle d’une technologie capable de rendre les frappes presque chirurgicales. La réalité est plus complexe.

L’objectif de cette tribune n’est donc pas de commenter un épisode particulier du conflit ni de participer à la polarisation politique qu’il suscite. Il est plus modestement d’apporter un éclairage analytique sur la place réelle de l’intelligence artificielle dans les systèmes militaires contemporains, afin de comprendre ce que ces technologies transforment, et ce qu’elles ne transforment pas, dans la nature même de la guerre.

Car une mutation profonde semble en effet se dessiner. La guerre n’est plus seulement menée par des humains assistés par des machines. Elle commence à être structurée par des architectures algorithmiques capables d’analyser des volumes immenses de données, d’identifier des patterns, de hiérarchiser des cibles et de recommander des actions opérationnelles.

Autrement dit, les machines ne font pas encore la guerre à la place des humains. Mais elles participent désormais à l’organisation cognitive du champ de bataille.

Pour comprendre cette transformation, il faut d’abord dissiper un malentendu central : contrairement à ce que suggère souvent le débat public, la guerre actuelle n’est pas une guerre entièrement automatisée.

C’est précisément ce point qu’il faut examiner en premier lieu.

I. L’illusion d’une guerre automatisée

    La première difficulté lorsqu’on évoque l’intelligence artificielle dans la guerre contemporaine tient à un malentendu profond : l’idée largement répandue selon laquelle les conflits actuels seraient déjà conduits par des machines autonomes capables de décider seules de frapper.

    Cette représentation doit beaucoup à la science-fiction autant qu’à la fascination contemporaine pour les technologies dites « intelligentes ». Elle alimente l’image d’un champ de bataille dominé par des robots militaires, où des systèmes algorithmiques décideraient eux-mêmes de l’usage de la force létale.

    La réalité est très différente.

    Dans l’immense majorité des opérations militaires actuelles, la décision de frapper reste formellement prise par des humains. Les systèmes d’intelligence artificielle ne fonctionnent pas comme des agents autonomes capables de décider de tuer. Leur rôle se situe en amont de la décision, dans les phases d’analyse, d’interprétation et de priorisation de l’information.

    Or c’est précisément à ce niveau que la transformation est la plus profonde.

    La guerre contemporaine est devenue un phénomène informationnel d’une ampleur inédite. Satellites d’observation, drones, capteurs électroniques, interceptions de communications et systèmes de surveillance produisent aujourd’hui des volumes de données gigantesques. Dans certains théâtres d’opération, plusieurs millions d’images et de signaux peuvent être collectés chaque jour.

    Le défi stratégique n’est donc plus seulement d’obtenir de l’information. Il est de comprendre rapidement ce que cette information signifie.

    C’est dans ce contexte que l’intelligence artificielle est progressivement devenue un outil central pour les armées. Les systèmes d’apprentissage automatique permettent d’analyser des images satellites, de détecter des structures suspectes, d’identifier des comportements atypiques dans des flux de données ou encore de croiser des bases de renseignement issues de sources multiples.

    Autrement dit, l’intelligence artificielle agit aujourd’hui comme un accélérateur cognitif du renseignement militaire. Elle ne remplace pas la décision humaine, mais elle transforme profondément la manière dont cette décision est préparée.

    Dans la pratique opérationnelle, ces systèmes ne prennent pas la forme d’une « IA centrale » qui commanderait le champ de bataille. Ils s’inscrivent dans des architectures informationnelles complexes, interconnectant capteurs, bases de données, modèles d’analyse et interfaces de décision. Les doctrines militaires parlent désormais moins de « kill chain », une chaîne linéaire de détection et d’attaque, que de « kill web », une architecture distribuée dans laquelle les flux d’information circulent en permanence entre différents systèmes et acteurs.

    L’algorithme ne déclenche pas l’attaque. Il contribue à structurer l’image du champ de bataille, à hiérarchiser les menaces et à accélérer la planification opérationnelle. Cette évolution explique pourquoi certaines armées affirment aujourd’hui pouvoir conduire des opérations avec des effectifs beaucoup plus réduits qu’auparavant. Dans certains cas, quelques dizaines d’analystes assistés par des systèmes algorithmiques peuvent accomplir un travail qui mobilisait autrefois des centaines, voire des milliers de spécialistes du renseignement.

    Mais cette transformation introduit aussi une ambiguïté nouvelle.

    À mesure que les systèmes d’intelligence artificielle organisent le flux d’information et identifient des cibles potentielles, les responsables militaires ne perçoivent plus directement le champ de bataille. Ils en voient une représentation déjà filtrée, analysée et structurée par des modèles statistiques.

    La guerre ne devient donc pas automatisée.

    Elle devient algorithmique dans la manière dont elle est perçue et interprétée. Et c’est précisément dans ce déplacement que se situe la transformation la plus profonde. Car lorsque l’interprétation du réel passe de plus en plus par des systèmes algorithmiques, une autre mutation commence à apparaître : celle de la manière dont les décisions sont prises.

    II. Le véritable basculement et le risque d’une délégation cognitive

      La transformation la plus profonde introduite par l’intelligence artificielle dans les systèmes militaires ne réside peut-être ni dans les armes ni dans l’automatisation des opérations. Elle se situe ailleurs, dans un déplacement plus discret mais potentiellement beaucoup plus structurant : la manière dont les humains prennent leurs décisions.

      Traditionnellement, la décision militaire repose sur un processus relativement clair. Les responsables disposent d’informations issues du renseignement, les analysent, les confrontent à leur expérience et à leur jugement, puis prennent une décision. L’intelligence artificielle ne supprime pas ce processus. Mais elle en modifie progressivement l’équilibre.

      À mesure que les volumes de données disponibles augmentent (images satellites, flux de drones, signaux électroniques, données de surveillance…), l’interprétation directe de ces informations devient de plus en plus difficile pour les analystes humains. Les systèmes algorithmiques apparaissent alors comme des instruments indispensables pour détecter des corrélations, identifier des anomalies et hiérarchiser les éléments pertinents. Cette évolution introduit une transformation subtile mais fondamentale.

      Dans un premier temps, l’algorithme fonctionne comme un outil d’assistance. Les analystes examinent les données, utilisent les outils disponibles et conservent la maîtrise de l’interprétation. Mais lorsque les volumes d’information deviennent trop importants, la logique peut progressivement s’inverser.

      Les décideurs ne partent plus directement des données. Ils partent de l’interprétation déjà produite par les systèmes algorithmiques.

      Le processus décisionnel peut alors glisser imperceptiblement d’une situation où l’on décide à partir des données à une situation où l’on valide l’interprétation proposée par l’algorithme.

      Cette bascule peut sembler minime. Elle transforme pourtant profondément la nature de la décision. Car les responsables militaires ne voient plus directement la complexité du champ de bataille. Ils en perçoivent une représentation déjà filtrée, structurée et hiérarchisée par des modèles statistiques. L’algorithme ne prend pas la décision finale. Mais il contribue à définir l’espace des décisions possibles.

      Dans ce contexte, le risque majeur n’est pas celui d’une autonomie totale des machines, scénario encore largement hypothétique, mais l’émergence d’une dépendance cognitive progressive aux systèmes algorithmiques.

      Plus les modèles deviennent performants, plus ils sont perçus comme fiables. Et plus ils sont perçus comme fiables, plus les humains peuvent être tentés de s’appuyer sur leurs recommandations. Cette dynamique est bien documentée dans la littérature sur les systèmes automatisés. Les chercheurs parlent d’automation bias, c’est-à-dire de la tendance des opérateurs humains à accorder une confiance excessive aux recommandations produites par les systèmes algorithmiques.

      Dans un contexte militaire, cette évolution soulève une question fondamentale : lorsque l’interprétation de la réalité repose de plus en plus sur des systèmes algorithmiques, qui pense réellement le champ de bataille ?

      L’intelligence artificielle ne remplace pas encore la décision humaine. Mais elle participe déjà à structurer la manière dont cette décision est formée. Et c’est peut-être là que se joue la transformation la plus profonde de la guerre contemporaine.

      III. La guerre probabiliste

        L’un des effets les plus importants, et les moins bien compris, de l’intelligence artificielle dans les systèmes militaires tient à la nature même de ces technologies. Contrairement à une idée largement répandue dans le débat public, l’IA n’est pas une machine infaillible capable de produire des certitudes. Elle fonctionne au contraire sur un principe fondamentalement différent : l’estimation probabiliste.

        Les modèles d’apprentissage automatique ne déterminent pas qu’un objet est une cible militaire avec certitude. Ils évaluent la probabilité qu’il le soit à partir des corrélations détectées dans les données sur lesquelles ils ont été entraînés. Un système peut ainsi estimer qu’un bâtiment, un véhicule ou un individu correspond à un profil militaire avec une probabilité de 85 %. Dans de nombreux domaines civils, un tel niveau de probabilité peut être considéré comme suffisant pour orienter une décision. Mais dans la guerre, les 15 % restants ne sont pas une simple marge statistique. Ils peuvent signifier des vies humaines…

        Cette caractéristique introduit une transformation subtile mais profonde : à mesure que les systèmes d’intelligence artificielle se diffusent dans les infrastructures militaires, l’analyse du champ de bataille tend à être traduite dans le langage des probabilités. Les menaces ne sont plus seulement identifiées ; elles sont estimées, calculées, pondérées.

        Autrement dit, la guerre contemporaine commence parfois à se déployer dans un espace nouveau : celui d’une guerre probabiliste.

        Cette logique probabiliste repose sur un mécanisme central des systèmes d’apprentissage automatique : la détection de patterns dans les données. Les algorithmes apprennent à reconnaître des corrélations entre certains comportements, certaines infrastructures ou certaines configurations d’information et des activités considérées comme suspectes ou hostiles.  Mais ces corrélations ne correspondent pas toujours à des relations causales.

        Un modèle peut associer la présence de certains types de véhicules, l’activité nocturne d’un bâtiment ou la localisation d’une infrastructure à des activités militaires simplement parce que ces caractéristiques apparaissaient fréquemment dans les données d’entraînement. Dans la réalité, ces mêmes indices peuvent pourtant avoir des explications parfaitement civiles.

        Dans un environnement militaire, cette limite n’est pas anodine. Car une corrélation mal interprétée ne produit pas seulement une erreur technique ; elle peut conduire à une mauvaise identification de cible.

        À cette fragilité s’ajoute une autre caractéristique des systèmes algorithmiques : leur capacité à accélérer considérablement la prise de décision.

        Les technologies d’intelligence artificielle sont conçues pour analyser rapidement des volumes de données immenses et produire des recommandations opérationnelles en quelques secondes. Dans certains contextes stratégiques, cette vitesse est perçue comme un avantage décisif. La capacité à identifier une menace et à réagir plus rapidement que l’adversaire peut en effet constituer un facteur déterminant dans un conflit. Mais cette accélération comporte aussi un risque.

        Plus la décision doit être prise rapidement, plus il devient difficile de vérifier les interprétations produites par les systèmes algorithmiques. Les analystes humains disposent de moins de temps pour examiner les données, interroger les hypothèses du modèle ou confronter les résultats à d’autres sources d’information.

        Dans ces conditions, une erreur algorithmique peut se propager plus rapidement dans la chaîne décisionnelle. La vitesse, qui constitue l’un des principaux atouts de l’intelligence artificielle, peut alors devenir un facteur d’amplification du risque.

        C’est ici qu’apparaît le paradoxe central de la guerre à l’ère de l’intelligence artificielle. D’un côté, les systèmes algorithmiques peuvent permettre d’améliorer la précision de certaines opérations militaires. En analysant des volumes d’information considérables et en détectant des signaux invisibles pour les analystes humains, ils peuvent contribuer à réduire certaines erreurs d’interprétation et à affiner la sélection des cibles.

        Mais de l’autre, ces mêmes systèmes peuvent produire des erreurs à grande échelle lorsque leurs modèles sont mal calibrés, lorsque leurs données d’entraînement sont biaisées ou lorsque leurs corrélations statistiques sont mal interprétées. Autrement dit, l’intelligence artificielle peut à la fois réduire certaines erreurs humaines et introduire de nouvelles formes d’erreurs algorithmiques.

        La question qui se pose alors n’est plus seulement technologique. Elle devient profondément éthique.

        Car lorsque l’identification d’une cible repose sur un calcul probabiliste, et lorsque ce calcul peut être erroné, la responsabilité de la décision ne disparaît pas. Elle devient simplement plus difficile à situer dans la chaîne des décisions humaines et techniques qui conduisent à l’exercice de la violence.

        Et c’est précisément cette difficulté qui constitue l’un des défis majeurs de la guerre à l’ère de l’intelligence artificielle.

        IV. L’erreur algorithmique et la dilution de la responsabilité

          Au cœur du débat sur l’intelligence artificielle dans la guerre se trouve souvent une question technique : les algorithmes sont-ils suffisamment fiables pour être utilisés dans des opérations militaires ? Mais cette question, en réalité, n’est pas la plus importante. Le véritable enjeu est ailleurs. Il concerne la nature même de la décision de tuer.

          Historiquement, même lorsque les technologies militaires se sont sophistiquées, cette décision impliquait toujours une responsabilité humaine directe. Un individu (officier, pilote, commandant) devait interpréter une situation et assumer la responsabilité morale de l’usage de la violence.

          L’intelligence artificielle introduit une transformation nouvelle : une médiation algorithmique entre la perception du monde et la décision humaine.

          La décision finale reste formellement humaine. Mais l’interprétation de la réalité qui la précède est de plus en plus produite par des systèmes algorithmiques. C’est dans cette médiation que se situe aujourd’hui l’un des défis éthiques majeurs de la guerre à l’ère de l’IA.

          Dans les architectures militaires contemporaines, la décision de frappe peut résulter d’une chaîne complexe d’interactions entre plusieurs acteurs et plusieurs systèmes techniques. Des analystes humains interprètent des données issues du renseignement. Des algorithmes de ciblage identifient des corrélations et proposent des cibles potentielles. Des systèmes d’aide à la décision hiérarchisent les priorités opérationnelles. Enfin, des opérateurs militaires exécutent l’action. Dans ce type d’environnement sociotechnique, la responsabilité ne disparaît pas. Mais elle peut devenir progressivement plus diffuse.

          L’analyste peut considérer qu’il s’appuie sur des résultats produits par un modèle algorithmique. Le décideur peut estimer qu’il valide une recommandation issue d’un système techniquement fiable. Les concepteurs de l’algorithme peuvent rappeler que leur outil n’est qu’un instrument d’analyse et non un système décisionnel. La décision finale est pourtant bien prise…

          Ce phénomène est souvent décrit dans la littérature sur l’éthique des systèmes autonomes comme une fragmentation de la chaîne de responsabilité, où l’action résulte de l’interaction de multiples acteurs humains et techniques plutôt que d’un choix clairement identifiable.

          Mais un malentendu conceptuel apparaît souvent dans le débat public. Lorsqu’une erreur survient dans un système assisté par intelligence artificielle, on entend parfois dire que « l’IA a tué ». Cette formulation est pourtant trompeuse.

          Attribuer moralement la mort à une machine relève en réalité d’une erreur de catégorie. L’intelligence artificielle n’est pas un agent moral capable de décider. Elle est une infrastructure technique qui organise, filtre et hiérarchise l’information à partir de laquelle les humains prennent leurs décisions.

          La question pertinente n’est donc pas de savoir si l’IA est responsable, mais de comprendre comment la responsabilité se distribue dans le système qui l’utilise. Qui a conçu les modèles ? Qui les a paramétrés ? Qui a validé leur usage opérationnel ? Qui a interprété leurs résultats ? Et, finalement, qui a signé l’ordre de frappe, et avec quel niveau de doute accepté ?

          La philosophie morale décrit ce type de situation comme le « problème des nombreuses mains » : lorsque l’action résulte d’une chaîne complexe d’acteurs et de systèmes, il devient difficile d’identifier clairement celui qui doit répondre de ses conséquences.

          Or cette difficulté peut avoir des effets politiques considérables. Car l’intelligence artificielle crée une tentation permanente : celle de diluer la responsabilité en invoquant la complexité technique du système, « c’est l’algorithme », tout en revendiquant simultanément la puissance stratégique que ces technologies procurent.

          C’est précisément ce paradoxe que les sociétés devront affronter à mesure que l’intelligence artificielle s’installe dans les architectures de la guerre contemporaine.

          Comme l’a montré Peter Singer dans Wired for War (2009), les technologies militaires modernes ont tendance à éloigner progressivement les acteurs humains des conséquences directes de la violence qu’ils exercent. L’intelligence artificielle pourrait prolonger cette évolution en introduisant une nouvelle forme de distance : une distance cognitive entre la réalité humaine du conflit et les représentations statistiques qui guident la décision.

          La question posée par la guerre à l’ère de l’IA n’est donc pas seulement de savoir si les machines peuvent prendre des décisions militaires. Elle est de savoir ce que devient la responsabilité humaine lorsque l’interprétation du monde qui précède la décision de tuer est produite par des systèmes algorithmiques.

          C’est là que se situe probablement l’enjeu éthique le plus profond de la guerre algorithmique.

          L’enjeu fondamental de l’intelligence artificielle dans la guerre n’est peut-être pas la puissance des algorithmes. Il réside plutôt dans notre capacité collective à en maîtriser les conséquences.

          Car l’intelligence artificielle ne supprime pas la guerre. Elle la transforme.

          Elle accélère le rythme des décisions. Elle rend le conflit plus informationnel. Elle fait reposer l’interprétation du champ de bataille sur des systèmes capables d’analyser des volumes immenses de données et de détecter des corrélations invisibles à l’œil humain.

          Autrement dit, la guerre devient plus rapide, plus complexe et plus dépendante des architectures algorithmiques qui structurent désormais la production du renseignement et l’analyse stratégique. Mais au cœur de cette transformation demeure une question essentielle.

          La décision de tuer peut-elle devenir le simple résultat d’un calcul statistique ?

          La guerre a toujours été un domaine tragiquement humain. Elle implique des choix irréversibles, des responsabilités morales et des conséquences qui ne peuvent être réduites à des probabilités. À mesure que les machines prennent une place croissante dans l’analyse et l’organisation du champ de bataille, le véritable défi n’est donc pas seulement technologique.

          Il est éthique.

          Le débat contemporain se concentre souvent sur les cadres juridiques qui devraient encadrer l’usage de l’intelligence artificielle dans les systèmes militaires. Ces questions sont évidemment nécessaires. Mais elles ne sont peut-être pas les plus fondamentales. Le droit peut définir des règles, fixer des limites, attribuer des responsabilités. Il ne peut pas, à lui seul, répondre à l’interrogation morale que soulève la délégation croissante de l’analyse militaire aux machines.

          La question posée par la guerre à l’ère de l’intelligence artificielle dépasse en effet la seule conformité juridique des systèmes. Elle concerne la manière dont les sociétés humaines souhaitent continuer à exercer ou à déléguer l’une des prérogatives les plus graves qui soient : le pouvoir de décider de la violence.

          Au XXIᵉ siècle, l’humanité devra probablement répondre à une question qui dépasse largement le champ militaire : jusqu’où sommes-nous prêts à déléguer aux machines que nous avons créées notre capacité à interpréter le monde lorsqu’il s’agit de décider de détruire ?

          Car gouverner l’intelligence artificielle dans la guerre ne signifie pas seulement maîtriser une technologie. Cela signifie préserver, au cœur même des systèmes les plus avancés, la responsabilité humaine face aux conséquences de la violence.

          • Marcus, G., & Davis, E. (2019). Rebooting AI: Building Artificial Intelligence We Can Trust. Pantheon.
          • Scharre, P. (2018). Army of None: Autonomous Weapons and the Future of War. W.W. Norton.
          • Singer, P. W. (2009). Wired for War: The Robotics Revolution and Conflict in the 21st Century. Penguin Press.
          • Cummings, M. L. (2004). Automation bias in intelligent decision support systems. AIAA Conference.
          • International Committee of the Red Cross. (2021). Autonomous Weapon Systems: Technical, Military, Legal and Humanitarian Aspects.

          Ne ratez pas nos prochains articles !

          Recevez les prochains articles écrits par les experts et professeurs aivancity directement dans votre boîte de réception.

          Nous ne spammons pas ! Consultez notre politique de données personnelles pour plus d’informations.

          Ne ratez pas nos prochains articles !

          Recevez les prochains articles écrits par les experts et professeurs aivancity directement dans votre boîte de réception.

          Nous ne spammons pas ! Consultez notre politique de données personnelles pour plus d’informations.

          Related posts
          Articles

          Quand l’IA atteint la créativité humaine moyenne : l’école et le travail face à la fin d’un mythe confortable

          Par Dr. Tawhid CHTIOUI, Président-fondateur d’aivancity, la Grande Ecole de l’IA et de la Data Un étudiant rend un travail brillant. Les idées sont fluides, bien structurées, originales sans être déroutantes. Le raisonnement est cohérent,…
          Articles

          2026 : la vague des cours d’IA gratuits de Microsoft, Google, Stanford et du MIT. Apprend-on l’IA sans apprendre le monde qu’elle transforme ?

          Par Dr. Tawhid CHTIOUI, Président-fondateur d’aivancity, la Grande Ecole de l’IA et de la Data 1. L’illusion confortable de la formation technique À la fin de 2025, un consensus étrange s’est installé. Face à l’irruption…
          Articles

          Le cerveau de l’humanité monte en orbite : Google invente le cloud cosmique, l’Europe reste au sol

          Le 5 novembre 2025, Google a fait ce que peu d’États auraient osé imaginer : annoncer le lancement, pour 2027, d’une constellation de satellites capables d’exécuter des calculs d’intelligence artificielle directement depuis l’espace.
          La clinique de l'IA

          Vous souhaitez soumettre un projet à la clinique de l'IA et travailler avec nos étudiants.

          Laisser un commentaire

          Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *