Conférence sur l’IA dans la guerre moderne

Ce 3 novembre 2025, j’ai eu l’honneur de donner ma première conférence académique sur le thème de l’IA dans la guerre au sein de la faculté de théologie catholique de l’Université de Strasbourg.

Le coeur de cette conférence porte sur le problème de l’emploi des IA génératives dans l’aide à la décision et sur les enjeux de la guerre cognitive.

Palais universitaire - Strasbourg

Ce 3 novembre 2025, j’ai eu l’honneur de donner ma première conférence académique sur le thème de l’IA dans la guerre au sein de la faculté de théologie catholique de l’Université de Strasbourg.

Le coeur de cette conférence porte sur le problème de l’emploi des IA génératives dans l’aide à la décision et sur les enjeux de la guerre cognitive.

Vous pouvez en lire le texte intégral ci-dessous

1        Introduction

1.1      Propos liminaire

Le but de cette conférence est de vous apporter quelques éclairages sur la manière dont l’IA, ou plutôt les IA impactent la chose militaire et plus largement notre société. Sun Tzu, vers 200 avant notre ère, et Clausewitz, au début du XIXème siècle, n’ont-ils pas tous deux réaffirmé le lien indissoluble entre armée et société ?

Enfin, je ne m’exprimerai ni sur la stratégie d’intelligence artificielle de nos armées, ni sur son emploi opérationnel. Cette approche un peu plus distante devrait nous permettre d’éviter de nous perdre dans les détails et devrait nous aider à garder une certaine distance avec ce que nous lisons ou entendons quotidiennement dans les médias.

1.2      Présentation de l’intervention

L’intelligence artificielle est aujourd’hui considérée comme un facteur décisif dans les conflits armés : s’en passer reviendrait à se placer en situation d’infériorité et à consentir d’emblée à la défaite. Nous dirons que c’est un fait communément admis dans toutes les armées modernes.

Mais la réalité semble bien plus complexe.

L’intelligence artificielle est déjà présente dans de nombreux systèmes d’armes et la question ne s’était jamais posée par le passé.

Une autre question, inspirée de la science-fiction, surgit alors : devons-nous aller plus loin et confier la conduite de la guerre à des ordinateurs ? Devons-nous déléguer à des machines le choix de tuer ou épargner quelqu’un ?

Mais s’agit-il seulement d’aller plus loin dans l’art de tuer son prochain ou devons-nous réfléchir différemment et nous demander si le véritable pouvoir de l’IA n’est pas de permettre à un ennemi de s’attaquer à nos sociétés pour les fragiliser, les déstructurer et nous affaiblir à un tel point que la guerre telle que nous la connaissons deviendrait obsolète ?

1.3      Structure du propos

Nous allons aborder ensemble la présence de l’IA dans le fonctionnement d’une armée moderne, en insistant sur le poids croissant de la technologie dans les affrontements humains, qu’il s’agisse des systèmes d’armes ou des outils d’aide à la décision.

Puis, reprenant Clausewitz et Sun Tzu, qui rappellent le rôle essentiel de la société dans tout conflit armée, nous nous interrogerons sur les nouvelles formes de conflits qui utilisent massivement l’IA, mais se situent en dehors de notre conception traditionnelle de la guerre, c’est-à-dire un affrontement violent entre des armées.

1.4      Quand on parle d’IA de quoi parle-t-on ?

L’intelligence artificielle est un domaine de recherche aux contours souvent complexes : ce domaine est à la frontière des mathématiques, de l’informatique, des statistiques, des neurosciences, de la linguistique – très importante, la linguistique – de l’ensemble des sciences humaines et sociales et bien d’autres disciplines scientifiques. A ce propos, le Droit, la philosophie s’emparent également du sujet.

Mais il reste une partie centrale : l’informatique, car sans informatique, pas d’IA. D’ailleurs, je pourrais remonter plus loin : la vraie source de l’IA, c’est l’électricité… sans informatique, pas d’IA, mais surtout, sans électricité, plus d’informatique !

En revanche, réduire l’IA à sa dimension informatique constituerait une immense erreur : la recherche en IA s’est historiquement toujours intéressée aux autres disciplines pour trouver son chemin, notamment dans sa volonté de comprendre le fonctionnement du cerveau humain afin de le reproduire dans les calculs informatiques.

1.5      Pourtant les IA sont quelque chose de banal

Même si les IA génératives ont porté le sujet de l’IA sur la place publique, la présence des différentes formes d’intelligence artificielle dans notre quotidien est plutôt ancienne : la conception d’avions, la gestion des connaissances, les bibliothèques et les archives, l’optimisation des dépôts logistiques et la régulation du trafic routier dans les métropoles, la médecine et l’interprétation de l’imagerie médicale sont autant d’usages de l’IA dont nos sociétés bénéficient dans leur fonctionnement depuis des années.

En revanche, le véritable changement qu’apporte l’IA générative qui envahit les médias voire notre quotidien, du moins si on est accro aux réseaux sociaux, c’est que désormais son usage est à la portée de chacun et contourne la médiation qu’apporte l’expert dans tous les autres domaines dont je viens de citer quelques-uns.

Le plus surprenant a été la rapidité de son adoption par l’ensemble de la population et surtout le développement d’une croyance, désormais fermement ancrée, que le monde allait connaître un bouleversement complet et à un rythme effréné ; ce qui permet d’ailleurs de justifier ainsi des centaines de milliards d’investissements dans des compagnies comme OpenAI, le créateur de ChatGPT, ou bien encore MistralAI, présenté comme le champion français de l’IA générative, capable de rivaliser avec les géants de la Silicon Valley.

Mais au-delà des effets médiatiques et de cette recherche permanente de l’attention, attention qui permet d’attirer les financements, où en sommes-nous réellement, dans la mise en œuvre de l’IA, notamment dans les armées ?

2        L’omniprésence de l’IA dans les guerres actuelles

2.1      Les armées ont toujours accompagné ou précédé les progrès technologiques

Avant même d’évoquer l’emploi de l’intelligence artificielle dans les armées, donc dans la guerre, nous devons revenir à un principe élémentaire, tel que décrit par Clausewitz : la guerre est d’abord un acte violent visant à soumettre notre ennemi à notre volonté.

Cette violence originelle, le potentiel de destruction et le coût qu’elle induit pour un pays et sa population, nous contraint à rechercher la victoire en utilisant une logique d’optimisation des ressources consacrées à la guerre. Ce que je dis là est volontairement très général. Mais même lorsque la défaite est inéluctable, on recherche toujours à ce qu’elle soit la plus coûteuse possible pour son ennemi, et la plus économe de nos propres ressources.

Dans un tel contexte, les armées cherchent systématiquement à innover pour que ce ratio coût de la guerre contre les gains obtenus lors de la bataille soit le plus favorable.

Finalement, c’est très simple : toute innovation qui permet de détruire son adversaire à un coût minimum est la bienvenue, évidemment à condition de respecter les conventions et traités internationaux qui limitent ou prohibent l’usage de ces armes, comme lorsqu’il s’agit de protéger les populations civiles ou de bannir les armes chimiques.

Le plus frappant, lorsqu’on lit Maurice Genevoix, avec « Ceux de 14 » et Erich Maria Remarque avec « à l’Ouest Rien de nouveau », c’est l’automatisation de la guerre et l’industrialisation de la destruction. Dans ce monde brutal et inhumain, les tirs d’artillerie au chronomètre, l’acceptation de pertes par nos propres tirs font du soldat qui tombe une simple statistique ignorante des immenses souffrances décrites par ces deux auteurs majeurs.

Pour revenir à l’intelligence artificielle, celle-ci doit donc d’abord être abordée comme un simple prolongement de cette automatisation de la guerre et de l’industrialisation de la destruction. La guerre qui ravage l’Ukraine depuis plus de trois ans maintenant nous le rappelle chaque jour : le temps où il fallait peser longuement le pour et le contre de chaque vie prise lors d’une opération est désormais révolu, nous revenons à l’ère de la mort comme une statistique.

Et l’intelligence artificielle est ainsi à ranger parmi les outils qui facilitent la victoire et améliorent ces statistiques.

2.2      Le développement des usages de l’IA dans les affaires militaires : un sujet ancien

En reprenant cet attachement profond des armées au progrès technologique, toujours dans l’espoir d’atteindre plus facilement la victoire, les intelligences artificielles ont naturellement et progressivement imprégné la chose militaire depuis l’invention de cette expression, à la conférence de Dartmouth en 1956.

Depuis cette époque, à peu près partout dans le monde, les vagues successives de progrès de la recherche en intelligence artificielle ont accompagné le développement de nouveaux systèmes d’armes.

Les exemples sont nombreux et je vais vous en citer quelques-uns qui vous permettront de vous faire une idée de la généralisation des usages de l’intelligence artificielle dans les affaires militaires.

Nous pourrions commencer par la physique nucléaire : tout pays qui possède l’arme atomique fait appel à l’intelligence artificielle pour la conception, l’étude du vieillissement et la simulation des explosions nucléaires. En France, le Commissariat à l’Energie Atomique, le CEA, est un véritable centre d’excellence en intelligence artificielle.

L’intelligence artificielle est également utilisée pour la conception des avions de combat et ainsi que leur emploi : la maintenance prédictive fait appel à l’intelligence artificielle pour anticiper les pannes et l’usure des pièces et ainsi optimiser les opérations de maintenance et les remettre plus rapidement en configuration opérationnelle.

Le manuel technique des chaudières de sous-marins nucléaires est aussi géré par une intelligence artificielle. Mais soyez rassurés, il ne s’agit pas ici de ChatGPT et ses hallucinations. Il est alors fait appel à d’autres branches de l’intelligence artificielle, comme les graphes de connaissances, qui, bien conçus et mis à jour avec soin, permettent de garantir la fiabilité des procédures à suivre à trois-cents-mètres sous la surface.

Vous avez évidemment tous à l’esprit l’utilisation des drones et leur identification automatiques des cibles, avec ce que l’on appelle la « vision par ordinateur », c’est également une des branches de l’intelligence artificielle. Cela dit, le principe de la vision par ordinateur n’a rien de fondamentalement nouveau. En 1973, le film de science-fiction « Westworld » mettait en scène des humanoïdes qui se révoltaient dans un parc d’attraction. L’un de ces humanoïdes était joué par l’acteur américain Yul Brynner. Pour identifier ses victimes, cet humanoïde utilisait la vision par ordinateur.

Je peux également citer la cyberdéfense ou le renseignement. Nous pourrions ainsi énumérer les applications de l’intelligence artificielle à tous les domaines de la défense et des armées, mais cela deviendrait vite lassant. Nous avons en effet déjà évoqué ce sujet : les armées ont toujours accompagné, voire devancé le progrès technologique et l’ont systématiquement intégré à leurs systèmes d’armes dès lors qu’il permettait un avantage opérationnel.

Dans cette approche, l’expertise des ingénieurs, des informaticiens et des mathématiciens est cruciale pour intégrer l’intelligence artificielle dans des sous-systèmes eux-mêmes intégrés à des systèmes complexes destinés à être employés dans des conditions extrêmes, comme un sous-marin, un satellite ou un avion.

Ces systèmes intègrent également une interface homme-machine particulièrement soignée où la complexité de ces IA est dissimulée à leur utilisateur afin qu’ils puissent utiliser le système en toute confiance.

En approchant la notion même de confiance, nous touchons à d’autres concepts essentiels dans les usages de l’IA : la capacité à comprendre et à expliquer le comportement d’un système faisant appel à l’IA.

Pourquoi est-il si important de comprendre et expliquer le comportement de ces intelligences artificielles ?

En fait, comme toujours, c’est plutôt simple. Tout système mécanique ou informatique a vocation à évoluer en permanence : on détecte un comportement imprévu dans certaines circonstances et il faut le corriger. On installe un nouveau sous-système qui va apporter des capacités supplémentaires ; il faut alors s’assurer que les interactions de ce nouveau sous-système avec les autres sous-systèmes ne créent pas d’effets de bord indésirables susceptibles de dégrader les performances du système principal.

Il apparaît alors nécessaire d’évaluer l’impact de ces changements sur les IA contenues dans ces systèmes, puis de les actualiser, de les tester en laboratoire, de les déployer et enfin de s’assurer de leur fiabilité en conditions réelles, quitte à les régler à nouveau.

Pourquoi ai-je tenu à vous donner toutes ces explications ?

Tout simplement, parce que déployer une IA dans un système d’armes est par définition complexe et en aucun cas à la portée du premier venu.

2.3      La complexité intrinsèque des IA

2.3.1    Une architecture informatique faussement simple

Pour illustrer la complexité de ces systèmes d’intelligence artificielle, je vais m’attarder sur les IA génératives, ce qui nous permettra ensuite de comprendre pourquoi l’utilisation d’une IA dans un cadre militaire est toujours un sujet délicat, à aborder avec de multiples précautions.

Pour tout un chacun, l’intelligence artificielle consiste aujourd’hui à poser une question à ChatGPT, Mistral Le Chat, Google Gemini, Microsoft Copilot et bien d’autres robots conversationnels qu’il serait vain de citer tant ils sont nombreux.

Mais cette simplicité n’est qu’apparence.

Ces modèles d’intelligence artificielle sont à la fois une merveille à la fois du génie humain et l’expression d’un écosystème totalement mondialisé.

2.3.2    Le développement d’un système d’IA générative

Dans cette séquence de mon intervention, nous allons couper dans les virages et simplifier le sujet à outrance : n’étant pas informaticien, je préfère ne pas m’attarder dans les détails et nous risquerions d’y passer des heures.

En général, la première question à se poser avant de développer un système d’IA est de se demander pour quoi faire ? Cette question initiale va permettre de s’interroger sur la fiabilité attendue de ce système une fois déployé : serons-nous satisfait par une simple probabilité de bonne réponse, ou avons-nous besoin de résultats absolument fiables, reproductibles et explicables. Vous comprendrez aisément que l’on n’utilisera pas la même IA pour demander une recette de Mannele ou les procédures d’ouverture d’une vanne sur une chaudière nucléaire. Dans ce deuxième cas, on évitera même l’IA générative. Nous allons voir pourquoi.

Une fois cette première étape franchie, il va falloir s’interroger sur les algorithmes à utiliser : quels algorithmes avec quel paramétrage pour obtenir le meilleur résultat possible ? Peut-être devrons-nous aller jusqu’à la conception de nouveaux algorithmes.

Mais se pose alors la question de la capacité de calcul nécessaire pour atteindre ce résultat : Certaines IA ont juste besoin d’un ordinateur de bureau et d’un vrai travail de réflexion. À l’autre extrémité, les IA génératives ont besoin de data centers et de centres de calculs capables d’absorber des milliers, voire des dizaines de millions de documents pour être entraînées.

En effet, au prix d’algorithmes complexes et en utilisant les fameux réseaux neuronaux dont vous avez tous entendu parler, l’IA va décomposer tous ces documents pour ensuite associer les mots ou des morceaux de documents par probabilité d’occurrence. Ce sont ces associations qui permettent ainsi de rédiger des textes qui finalement, passent bien. Vous comprenez déjà mieux pourquoi on n’utilisera pas à la légère une IA générative pour le mode d’emploi d’un système critique, à fortiori d’un système nucléaire : qui accepterait une IA lui disant : avec une probabilité de 85%, en tournant la vanne à droite, tu résous le problème, mais tu as 15% de chances de te tromper…

Mais cet entraînement de l’intelligence artificielle ne s’arrête pas là : une fois que les données ont été récoltées, compilées et associées, il faut ensuite des petites mains pour s’assurer que les réponses de l’IA générative correspondent effectivement aux critères de qualité exigés.

Et c’est là qu’interviennent les travailleurs du click. Toutes les sociétés qui développent des modèles d’IA génératives s’appuient sur cette main d’œuvre bon marché pour valider les réponses. Pour l’espace francophone, ces travailleurs sont notamment localisés à Madagascar. A longueur de journée, pour quelques centimes d’Euros, ils valident des images, le contenu de tickets de caisse, des réponses plus élaborés.

Bien sûr, je vous épargne l’architecture des processeurs, la localisation et les capacités des data centers et bien d’autres acteurs de cet écosystème totalement mondialisé.

Pourquoi tous ces détails ?

En fait je souhaitais simplement vous illustrer que sous son apparente simplicité, l’IA est un toujours un élément d’un système informatique particulièrement complexe, nativement mondialisé et dont l’utilisation ne saurait se faire à la légère dans une situation critique comme peut l’être un conflit armé.

2.3.3    La difficulté du passage du laboratoire au monde réel

Mais pour l’instant nous sommes restés en laboratoire : cette IA n’est pas encore déployée auprès du grand public. Ou plutôt, est déployée auprès du grand public dans une indifférence totale au regard des usages que chacun en fera.

En effet, les IA génératives posent un problème majeur : la qualité de la réponse n’est jamais garantie. Et elle ne sera jamais garantie, puisque nous sommes dans un système probabiliste, basé sur des documents dont nous ne sommes certains ni de l’actualité, ni de la pertinence et avec un degré d’incertitude sur la manière dont la machine les a absorbés et interprétés. Certes, la technologie a fait d’immenses progrès et les réponses sont de plus en plus actuelles et précises, mais au prix d’un pillage systématique des contenus mis en ligne, car ces IA génératives sont assoiffées de contenus. En revanche, elles restent dans leur essence un assemblage probabiliste de mots ou d’expressions.

2.3.4    Les IA génératives dans l’aide à la décision

Les partisans les plus affirmés de l’IA générative nous dirons que le cerveau de l’être humain fonctionne également par association de mots et que ces IA parviennent à en reproduire le fonctionnement et s’approchent donc de l’intelligence humaine.

A titre personnel, je dirais que c’est très réducteur au regard de la complexité intrinsèque que porte chacun d’entre nous, mais admettons.

En revanche, ces systèmes d’IA générative nous proposent tous un modèle, modèle qui constitue une réduction de la réalité et donc une simplification de ce que nous sommes et de ce que sont nos organisations.

Nous pouvons ainsi revenir sur les idées développées par Mintzberg : une organisation est composée de plusieurs systèmes d’informations. Certains systèmes d’informations produisent des données, des e-mails, des procédures, des règlements, des directives que l’on peut utiliser pour entraîner une intelligence artificielle. Mais dans le même temps, et c’est également valable pour les armées, nos organisations fonctionnent d’abord autour de données informelles et d’une hiérarchie non-écrite. Et, ça, une organisation technocratique a du mal à l’admettre, elle a du mal à admettre que les éléments qui permettent de préparer la décision sont d’abord l’addition d’influences de tous ordres et parfois contradictoires, influences qui s’entrechoquent avec les multiples paramètres objectifs dont les interprétations peuvent varier en fonction du dirigeant, ou du chef militaire.

Ici à Strasbourg, qui pourrait admettre que le choix du maréchal Leclerc de libérer Strasbourg en passant par le col de Saverne était une décision modélisable et réductible à une intelligence artificielle, comme ChatGPT ? En effet, dans les IA, ce qui est sans précédent n’est pas modélisable, car il n’existe pas de donnée préexistante permettant d’entraîner l’IA.

2.3.5    Le piège de la vision technocratique de l’engagement militaire

Clausewitz, que j’ai déjà évoqué aujourd’hui, se plaignait déjà des stratèges qui prétendaient réduire le champ de bataille à une série d’équations. Cette tendance profonde à la simplification d’une réalité guerrière complexe et insaisissable nous la retrouvons en permanence : en réduisant la confrontation à des chiffres, à des rapports de force, à une « géométrie du champ de bataille », nous cherchons d’abord à plaquer une grille de lecture simplifiée sur une réalité complexe. En ce sens, nous avons également beaucoup de mal à admettre que la conduite de la guerre est d’abord un système rempli d’incertitudes et dont les paramètres essentiels nous échappent.

La tentation que nous retrouvons fréquemment dans les entreprises, administrations, comme les armées, c’est donc de nier cette complexité, nier l’incertitude. Mais cette négation de la complexité a un immense avantage : elle nous rassure en nous permettant de croire que le risque peut être calculé. En nous mentant à nous-mêmes, en nous mentant sur la réalité de ce que sont nos organisations, en simplifiant une réalité qui nous échappe, nous devenons capables de la modéliser.

Et en les modélisant, nous pouvons nourrir une intelligence artificielle qui nous aidera à décider et nous déchargera ainsi de l’insupportable fardeau de l’incertitude du champ de bataille.

Mais alors, se pose aussitôt la question de la fiabilité de cette intelligence artificielle, nourrie de données parcellaires, partiellement fausses et surtout omettent un ensemble de paramètres dont nous ignorons parfois volontairement, souvent involontairement, l’existence.

2.3.6    Le piège de la parole performative en matière technologique

Comme je l’ai déjà exposé, alors que les intelligences artificielles constituent un champ d’investigation particulièrement complexe à appréhender, nous cherchons à nous convaincre, collectivement, que l’adoption massive de l’IA, et surtout l’IA générative, va transformer la société sans avoir à faire d’effort autre qu’un modique investissement dans des robots conversationnels.

En effet, déstabilisés par l’adoption rapide des IA génératives par la population, les administrations, les entreprises et plus largement toutes les organisations, dont les forces armées de tous horizons se sont précipitées dans ces IA, espérant ainsi gagner en productivité, en efficacité et en capacité d’action sans avoir à s’encombrer de réformes structurelles, si compliquées à concevoir et à mettre en œuvre.

Nous nous rapprochons ainsi du grand principe de la parole performative : il suffit d’affirmer notre modernité pour être modernes. Il suffit d’avoir investi quelques centaines de milliers d’Euros dans une IA générative pour croire en la transformation d’une organisation qui vaut des milliards et qui compte des dizaines de milliers de collaborateurs est achevée.

Mais ce n’est pas le plus inquiétant.

2.3.7    Quand l’IA devient un totem

Le plus inquiétant est le regard que nous portons sur ces IA, regard semblable à celui que porte l’individu crédule sur un totem. Pour en avoir été témoin à de multiples reprises, je suis stupéfait de la rapidité avec laquelle les IA génératives abolissent notre esprit critique et notre capacité à nous distancier des réponses qu’elles proposent.

Leur langue est plutôt stéréotypée, lisse, sans aspérité, sans contradictions, sans rien qui puisse réellement nous aider à nous questionner sur les vrais sujets. D’ailleurs ces IA sont faites pour répondre. Elles ne sont pas conçues pour interpeller, pour approfondir, pour dire qu’elles ne savent pas.

De ce fait, elles servent parfaitement cette logique technocratique. En reprenant les propos de Niklas Luhmann, sociologue des entreprises, le cœur de toute organisation est la fluidité des flux d’informations. Dans cette approche, l’effet de l’organisation sur son environnement est finalement secondaire, tant que les processus sont respectés. Ainsi les IA génératives servent parfaitement les organisations militaires comme civiles : en proposant sans délai des solutions bien formulées, elles accélèrent la production écrite en supprimant la phase d’étude et de réflexion préalable, donnant corps à cette vision réductrice d’une organisation restreinte à ses organigrammes, à ses processus et ignorant tout de sa culture informelle, pourtant si importante et qui, comme je l’ai dit, ne peut être modélisée, car fluctuante, imprécise et toujours en mouvement. Evidemment la prise en compte de l’environnement et des circonstances extérieures est largement parcellaire.

Cette vision simplifiée de l’organisation et de son environnement nous conduit, à notre insu, à la négation de la complexité intrinsèque de la prise de décision, surtout en situation critique : quand des dizaines, voire des centaines de vie sont en jeu, jusqu’où peut aller le risque d’être abusé par une IA qui peut à tout moment vous imposer des raisonnements biaisés ?

Aujourd’hui, nous manquons encore de recul pour évaluer précisément les conséquences de l’IA sur les mécanismes de prise de décision. Les injonctions managériales à utiliser l’IA générative, le discours politique ambiant de soutien inconditionnel aux géants de l’IA comme Open AI, Google, Facebook ou Mistral AI empêchent de prendre cette distance, car on est aussitôt perçu comme des rétrogrades refusant le progrès et complices du déclassement de son pays.

Ce refus de la critique, du questionnement, de l’interrogation met en fait à jour les propres fragilités de nos sociétés : là où le débat d’idées n’est plus possible, la polarisation des opinions nous guette, ouvrant béante la porte à une nouvelle forme de guerre qui est la guerre cognitive.

3        La guerre cognitive, IA et dialectique : un champ conflictuel que nous avons du mal à appréhender

La guerre cognitive constitue un champ de recherche émergent et qui, en France, se structure progressivement en périphérie de la recherche en intelligence artificielle ; car oui, l’intelligence artificielle nous contraint à une nouvelle définition de la guerre.

3.1      Aller au-delà de la simple désinformation : changer notre regard sur la guerre

En tout premier lieu, nous devons nous interroger à nouveau sur ce que nous appelons la guerre.  Pour revenir à Clausewitz, la guerre est donc un acte violent qui vise à imposer sa volonté à l’autre. A l’origine nous étions dans l’affrontement physique entre des forces opposées, qu’il s’agisse d’armées régulières ou de mouvements de rébellion ou de résistance.

Si nous partons du principe que nos sociétés d’abord agricoles, puis industrielles, évoluent vers des sociétés où la circulation de l’information devient le principal facteur de croissance économique, nous devons alors considérer que l’espace informationnel devient un champ de bataille comme un autre. Un champ de bataille certes immatériel, mais un champ de bataille.

Or nous semblons encore captifs de notre perception de la guerre : des armées qui s’affrontent sur un champ de bataille, les concepts de jus ad bellum, le droit à faire la guerre et le jus in bello, le droit de la guerre, ont construit au fil des siècles notre approche de la guerre et nous ont permis de développer un référentiel nous permettant de séparer qui est juste et ce qui ne l’est pas.

Certes, selon qu’on est du côté du marteau ou de l’enclume, la notion de ce qui est juste varie considérablement, mais ce n’est pas le sujet aujourd’hui.

Pour reprendre Sir Basil Liddell Hart, le principal stratège britannique de l’après première Guerre mondiale, il faut d’abord comprendre comment pense notre ennemi. Il faut comprendre son propre regard sur la guerre.

Et son regard n’est pas nécessairement le nôtre.

La guerre cognitive convient parfaitement à une approche dialectique de la guerre où l’on transforme sa faiblesse en force, son désavantage en avantage. Plutôt qu’une course aux armements qu’il sait perdue d’avance, notre ennemi choisit de changer de champ. Sans renoncer totalement à l’emploi de la force, il choisit de nous attaquer sur ce qu’il perçoit comme à la fois comme l’épine dorsale et la faiblesse de nos sociétés : le champ informationnel.

3.2      L’effet déstabilisateur de la guerre cognitive

La guerre cognitive a ceci d’intéressant qu’elle intervient sur notre compréhension du monde, de la société dans laquelle nous vivons pour chercher à nous influencer de différentes manières. L’objectif n’est pas de nous diviser pour nous amener à nous affronter. L’objectif n’est pas de nous amener à rejeter les institutions. Favoriser la division, le complotisme et le rejet des institutions sont des effets opérationnels.

En guerre cognitive, l’objectif serait plutôt de nous affaiblir à un point où nous ne pouvons plus représenter une menace aux yeux de celui qui nous perçoit comme son ennemi.

Ces attaques vont prendre le visage d’opérations de désinformation, d’influence plus ou moins dissimulée, de pression auprès des opinions par des gesticulations militaires, mais surtout, au-delà des événements que nous relatent la presse et les réseaux sociaux, elles vont progressivement et insidieusement changer notre perception du monde, notre regard sur nos gouvernants, ou sur nos propres voisins que l’on n’a jamais vraiment aimés car trop différents de nous.

3.2.1    L’intérêt de l’IA dans la guerre cognitive

L’usage de l’intelligence artificielle offre de multiples avantages dans cette nouvelle forme de conflictualité. Je vais tenter de vous en décrire quelques-uns.

Je ne parlerai pas ici des tentatives de désinformation propagées par les fake news.

Parlons en premier lieu des réseaux sociaux. C’est un fait connu, documenté et les parlementaires français travaillent déjà sur le sujet. Les algorithmes d’IA utilisés par les réseaux sociaux nous conduisent à nous enfermer dans des bulles informationnelles qui nous correspondent à notre vision du monde. Leur objectif n’est pas de nous vouloir du mal. Ces réseaux sociaux veulent uniquement capter du temps d’attention pour nous glisser ensuite des publicités, car ces compagnies doivent bien générer du chiffre d’affaires. En revanche, cette faculté des réseaux sociaux est évidemment largement exploitée par nos adversaires.

Ces réseaux sociaux sont-ils pour autant neutres, dans leur propre vision du monde ? Nous pouvons en douter : après le rachat de Twitter, Elon Musk a clairement affirmé que son réseau social devait mettre en avant une certaine vision du monde que l’on pourrait qualifier de conservatrice.

Ainsi, en s’appuyant sur les algorithmes des réseaux sociaux, il est possible de diffuser des contenus qui enferment les utilisateurs dans ces bulles informationnelles en les ancrant dans des croyances qui les confortent tout en les conduisant à s’agréger avec d’autres utilisateurs qui pensent comme eux.

L’IA offre donc un double intérêt : pour un prix modique, et grâce à l’IA générative, vous pouvez générer des volumes importants de contenus qui vont alimenter les algorithmes et contribuer à capter l’attention de ces utilisateurs. Vous pouvez alors créer deux types de contenus pour couvrir l’ensemble du spectre de la cognition : certains inquiétants, pour générer la peur, d’autres rassurants pour vous montrer que celui que l’on vous présente comme votre ennemi n’est finalement qu’un gentil voisin où ses groupes folkloriques vous entraînent dans une Europe musicale et intemporelle… une Europe très rassurante. Manier en permanence le chaud et le froid auprès de millions d’utilisateurs permet de les déstabiliser et les faire basculer vers des positions extrêmes en quelques mois.

Comme vous le savez, la force et la faiblesse de nos démocraties est la pluralité des opinions. Si vous voulez attaquer une population, il suffit alors d’identifier des groupes ayant des intérêts convergents avec les vôtres pour les inclure dans le cercle de vos relations, ce qui leur donnera accès à vos contenus et contribuera à leur diffusion par effet viral. Il ne s’agit donc pas de corruption, il ne s’agit pas d’opérations d’influence où l’on cible des personnes en particulier, il s’agit juste de convergence d’intérêts, d’une alliance objective entre des utilisateurs et des créateurs de contenus.

En revanche, l’effet est le même : développer des croyances ou une certaine vision du monde.

Toujours dans cette même veine, nous voyons se développer des sites internet riches de contenus générés par l’IA. Ces contenus visent également à propager une certaine vision du monde et à influencer nos opinions.

Comment font-ils ? En fait, ils s’appuient tout simplement sur le mode de fonctionnement des IA génératives, comme ChatGPT et autres. La boulimie informationnelle de ces IA génératives les conduit à explorer le web en permanence à la recherche de nouveaux contenus à intégrer. Il suffit donc de créer grâce à l’IA des milliers de sites web subversifs, sites qui vont être exploités par les IA génératives et dont on va ensuite retrouver le contenu dans les réponses que ces IA génératives nous proposeront sans aucun filtre.

Enfin un intérêt supplémentaire de ces stratégies est constitué par les attaques indirectes, chères à Sun Tzu : plutôt que de s’attaquer directement à un système, vous allez prendre pour cible un corps intermédiaire en le plaçant en contradiction flagrante avec ce que vous estimez être le plus grand danger face à vos intérêts. Toujours dans cette dialectique : vous renforcez ce qui affaiblit votre adversaire et vous affaiblissez ce qui le renforce.

3.2.2    Une stratégie du faible au fort

Tout l’intérêt de la guerre cognitive réside donc en la capacité de refuser la course aux armements et d’aller attaquer un pays là où on le juge le plus faible : la cohésion sociale, la liberté d’expression, les valeurs de diversité et de dialogue. C’est un mode d’affrontement à bas coût, difficile à contrer et dont les effets réels sont difficiles à évaluer. Sauf peut-être après coup comme on l’a constaté avec la récente élection présidentielle en Roumanie. Mais encore une fois, comme il suffit d’une simple convergence d’intérêt entre un acteur étranger et un groupe de population, où se situe exactement la frontière entre l’ingérence étrangère et la crise politique interne à ce pays ?

Enfin, ce sont des modes opératoires extrêmement versatiles : l’IA va vous permettre de réorienter vos actions quasiment instantanément si votre cible ne répond pas, de mobiliser et faire croître des groupuscules qui avec quelques ressources limitées, s’occuperont d’occuper l’internet aux franges de la cybercriminalité et de l’activisme politique.

Ce côté protéiforme de la guerre cognitive est difficile à appréhender dans son ensemble et pose un véritable défi à nos organisations très structurées, ancrées chacune dans des rôles définis à la fois par les lois, par les habitudes et les moyens mis à leur disposition.

4        Conclusion : l’enseignement des Humanités ne devrait-il pas inclure une formation approfondie sur les technologies ?

Approchant de la fin de cette intervention, j’aimerais conclure en vous posant plusieurs questions dont je n’ai pas la réponse, mais qui, je l’espère vous permettront de prolonger cette réflexion dans un autre contexte.

En tout premier lieu, se pose la question de notre relation à la technologie. Voilà déjà quelques décennies, Simondon s’interrogeait sur la relation entre technologie et philosophie. Dans une époque où la technologie est omniprésente, où elle détermine nos vies et notre organisation sociale, devons-nous encore séparer l’enseignement des humanités de l’enseignement de l’informatique et de l’algorithmie ? Je suis toujours surpris de voir des étudiants en master II ignorer tout du fonctionnement de l’internet et de l’influence des moteurs de recherche sur l’accès aux savoirs.

Ensuite quelle réponse apporter aux différents groupes, états qui entendent influencer perturber l’ordre social démocratique, surtout lorsqu’ils trouvent des relais complaisants dans nos propres pays ? La démocratie consiste bien à permettre à toutes et tous de contribuer aux choix fondamentaux pour notre pays, mais comment agir face à ces attaques qui affectent nos esprits ?

L’Etat et ses institutions pourraient se charger de cette défense cognitive, mais alors, se pose la question de la confiance des populations à l’égard des institutions. L’état et ses différentes agences est-il suffisamment audible pour que son discours permette de contrer les effets de cette guerre dans les champs immatériels ? Nous pouvons constater l’émergence aux Etats-Unis d’une tendance profonde où toutes les décisions de ce qu’on appelle « l’état profond » sont systématiquement mises en doute pour ensuite servir d’argument électoral au parti d’opposition.

Une autre tendance émerge : celle de la constitution d’une forme d’union sacrée contre ces ingérences. Mais la force d’une démocratie est d’autoriser les controverses et d’ensuite parvenir à les dépasser. Ou se situe le plus grand danger pour nos démocraties ? Est-il dans la lutte contre ces ingérences ou dans l’extinction des controverses ? Même au plus fort de la première Guerre mondiale les affrontements politiques et les grèves n’ont jamais cessé.

Enfin, je terminerai par les corps intermédiaires, dont l’auditoire de ce soir fait partie. A la fois cibles de ces attaques cognitives, ils sont aussi ce lieu où le contrat social qui nous unit est renouvelé jour après jour. La confiance en l’avenir, en notre pays, en notre société et ses valeurs est entretenue au sein de ces corps intermédiaires. Quel rôle doivent-ils alors endosser, quelle relation renouvelée faut-il développer dans la relation à l’Etat pour que ces attaques cognitives restent circonscrites aux marges de la société et ne viennent pas la miner ?

Je vous laisse le choix des réponses et je vous remercie pour votre attention.

Avatar de Inconnu

Auteur : Fabrice Jaouën

Blog personnel portant sur les sujets d'intelligence artificielle et de société.

Laisser un commentaire