Hugo Micheron : "Avec l’IA, la force de frappe des Etats-Unis a été décuplée"
A quoi assistons-nous depuis le début de la guerre en Iran ? Quel rôle y joue l’IA d’un point de vue militaire ? Quelle place ont prise les géants de la tech dans la défense ? L'Europe regarde-t-elle passer les trains ?... Professeur associé à Sciences Po Paris, arabisant, spécialiste du Moyen-Orient, du djihadisme et de l'IA, Hugo Micheron est l'invité des Grands entretiens d'Anne Rosencher. L'intégralité de l'échange est à regarder en vidéo sur YouTube et Dailymotion, ou à écouter sur les plateformes traditionnelles de podcast, comme Apple Podcasts, Spotify, Deezer, Castbox ou encore Podcast Addict.
Anne Rosencher : En vingt-quatre heures, le 28 février, 1 000 cibles ont été touchées en Iran par les Etats-Unis et Israël. Le chef du commandement central américain Brad Cooper a dit à propos de ce bilan que "les outils d'IA avancés ont transformé des processus qui prenaient des jours en quelques secondes". Que fait l'IA dans cette guerre que l'homme ne faisait pas avant ?
Hugo Micheron : Le premier effet direct de l'IA sur les conflits est ce qu’on appelle le "passage à l'échelle" : on fait beaucoup plus avec beaucoup moins. Des milliers de décisions sont prises en quelques secondes, d’une façon inaccessible à un cerveau humain aussi affûté soit-il, pour des raisons de tension cognitive évidente. Un autre cas d’usage, dans la même guerre, est l'épisode qui a mené à l’élimination de Khamenei. On possède en la matière un point de comparaison historique : la traque contre Ben Laden, qui a duré dix ans, et dans laquelle la technologie a joué un rôle assez secondaire, l’essentiel étant alors fondé sur le renseignement humain. Pour Khamenei – même si les circonstances étaient différentes – il y a une évidente compression du temps, avec une opération sur le terrain dans laquelle la technologie a joué un rôle central.
Lequel ?
Revenons sur le détail de l’opération. En prévention de l'ascendant technologique américain, les Iraniens avaient décidé de se mettre dans le noir : ils avaient coupé les communications Internet, coupé les communications téléphoniques. Par ailleurs, un système russe de brouilleur de radars empêchait les satellites américains de pouvoir lire la situation au sol. Les Américains ont pu contourner ces restrictions et rétablir des connexions satellitaires à l’aide de système de type UAT 222 – un appareil de 50 centimètres carrés environ. Ce type de technologie, il y a six mois encore, c’était un satellite de plusieurs mètres sur un camion ! Ce dispositif a relayé de la donnée via les 450 satellites de Starshield (la version militaire de Starlink, l'entreprise d'Elon Musk), laquelle donnée a été envoyée au centre de commandement, puis traitée par des ingénieurs de Palantir (entreprise américaine de l’IA) déployés aux côtés des militaires. Les données collectées ont été croisées avec les informations de renseignements, pour élaborer, avec l’aide de Claude (le modèle de langage IA développé par l’entreprise américaine Anthropic) des scénarios quant aux lieux de réunion de Khamenei avec les responsables iraniens ce matin-là. Trois lieux qui ont été finalement pris pour cible, conduisant à la mort du Guide suprême.
C’est "l’homme augmenté" appliqué à la guerre…
Oui, l’homme "augmenté" par la puissance des systèmes d'IA, le traitement de données massives, la généralisation des estimations – et derrière, des prises de décision sur une base qui semble certaine, mais à partir d'une IA qui a fait les calculs de probabilité pour nous. D'un côté, beaucoup de volume très rapidement. De l'autre, énormément d'informations qui permettent de frapper de façon très ciblée. Et demain, probablement, la conjugaison des deux : viser à très grande échelle un certain nombre d'individus très précis, très rapidement, avec des décisions humaines qui prennent très peu de temps. Dans ce monde-là, le coût des frappes chirurgicales en masse est considérablement abaissé. Alors même que le coût politique derrière – pour régler la guerre, pour en assumer les conséquences à long terme – reste exactement le même. Donc la prime est à la destruction. Quand on a un président comme le président américain actuel, qui fait des coups très rapides sans penser au long terme, ça met le Moyen-Orient et probablement le monde dans des situations assez inédites.
Cet usage de l'IA militaire est-il asymétrique ? L'Occident est-il très avancé ou le ticket d'entrée n'est-il pas si grand que ça ?
C'est exactement l'enjeu. Pour l'instant, la première puissance militaire et technologique fait une démonstration de force face à un régime plus faible, l'Iran, qui est technologiquement dépassé. Et ça repose sur une doctrine américaine connue sous le nom de NOBUS – Nobody But Us, "personne sauf nous". Cette supériorité technologique doit rester la primauté américaine, d'où l'investissement massif dans l'IA. Mais la réalité de l'histoire technologique, c'est que ça ne tient pas. D’autant plus qu’avec l'IA, le coût pour disposer de modèles extrêmement puissants est proche de zéro. Aujourd'hui, il n'y a pas de différence fondamentale entre le modèle de Claude (Anthropic) utilisé par l'armée américaine et le modèle grand public. Ce qui est à craindre, c'est presque l'opposé du Nobody But Us : des petits groupes, probablement non étatiques, opérant dans la clandestinité, qui en investissant assez peu vont se retrouver avec des capacités technologiques décuplées.
Le système Maven, développé par Palantir, prend en charge l'ensemble de la chaîne : de l'identification de la cible à la validation juridique en passant par la recommandation de l'armement. Est-ce qu'on est encore dans l'aide à la décision, ou l'humain est-il devenu un simple tampon en bout de chaîne ?
L’un des problèmes soulevés, c'est la possible "désensibilisation" à l'acte de guerre, qui est pointé aussi bien par les militaires que par les psychologues. Cette réduction de l'humain, en nombre mais aussi en responsabilité, dans un temps extrêmement contraint, fait que soit on augmente considérablement le risque de prendre de mauvaises décisions, soit on augmente considérablement la responsabilité de la machine. Ce qui guette, le risque, c'est le détachement par le "jeu". On le voit jusque dans la communication qui est faite autour de cette guerre : il y a une "gamification" comme disent les Anglo-Saxons, c’est-à-dire une tendance à transformer la réalité en jeu pour la faire accepter. La plateforme Maven dont vous parlez est faite pour prendre des décisions très importantes, très rapidement, avec un système qui se rapprocherait beaucoup plus du jeu que de la guerre : des validations par "swipe" - ce système de gauche ou droite qu'on trouve au cœur des applications de rencontres. Sauf que là, c'est littéralement la vie humaine derrière. L'armée américaine communique sur ses frappes en réutilisant les codes des jeux vidéo, pour faire accepter la réalité guerrière comme quelque chose de cool, presque d'enfantin. Ça nous éloigne considérablement de la responsabilité humaine. Au-delà de la question du droit international, ça rouvre des questions morales, de processus décisionnel, de place de l'humain. La doctrine militaire française, c'est : la décision humaine est indispensable dans la boucle. Mais que voulez-vous faire quand des drones deviennent de plus en plus autonomes, de mieux en mieux guidés par l'IA, et qu'on peut verrouiller une cible pendant dix ans s'il le faut ?
Quelques jours avant les frappes sur l'Iran, Anthropic a refusé de donner un accès sans restriction au Pentagone. Le secrétaire à la Défense a qualifié ce refus de trahison, et OpenAI a immédiatement pris la place. Que nous dit cet épisode ?
Ce bras de fer révèle littéralement un rapport de force qui n'est pas si favorable qu'on le croit aux autorités politiques. Dario Amodei, le chef d'Anthropic, a mis une limite : il ne voulait pas que Claude serve à tuer directement, ni à la surveillance de masse. Son argument, c’est que ces outils sont des modèles probabilistes : ils font des "paris". Or nous sommes dans des domaines où l’on ne peut se permettre 1 % d'approximation, et encore moins 10 ou 15 %, comme c’est en réalité le cas avec ces outils. A ce niveau de marge d'erreur, c'est inacceptable. Ce refus a valu à Anthropic de perdre des contrats militaires. Mais deux ou trois semaines plus tard, les systèmes de Claude étaient utilisés dans l'opération qu'on a décrite, avec Khamenei en bout de chaîne : le département de la Défense n'a pas pu s’en passer totalement, parce que Claude est le meilleur système.
Comment décririez-vous le rapport de l’administration américaine vis-à-vis de ces Big Tech, notamment de la Défense ?
On est presque dans un système féodal : un Etat certes souverain, organisé et légitime, mais aussi des entreprises qui commencent à avoir leur mot à dire. Pour l'instant, cela file encore très droit. L’un des premiers gestes de Trump a été de mettre au pas les "seigneurs de la tech" : on se souvient de Mark Zuckerberg, le patron de Facebook, prêtant quasiment allégeance en début de mandat... Mais ce rapport de force peut aussi se tendre. C'est une tendance sous-jacente dont on a peu parlé à travers cette guerre, et qui témoigne du nouveau pouvoir politique des entreprises technologiques, dont elles sont parfaitement conscientes.
On a le sentiment que l’Europe regarde passer tout cela depuis le bord du terrain. Nous n'avons pas fait émerger de grands réseaux sociaux, nous n'avons pas de Palantir européen. Est-ce que c'est un problème ?
C'est une question de souveraineté. Ce qui se joue dans la guerre en Iran montre que le pouvoir qui concentre cette technologie peut infliger de tels dégâts à ceux qui ne la possèdent pas, qu’on ne peut pas regarder passer les trains ! On parlait de dissuasion nucléaire… eh bien, il doit y avoir de la dissuasion algorithmique. Le message que les Etats-Unis ont fait passer à l'Iran et au reste du monde est très clair : leur force de frappe a été décuplée. Ce qui ne veut pas dire que l'Iran, à grand renfort de drones, n'a pas montré sa capacité à tenir une guerre au long cours malgré un régime très largement décimé. Mais oui, il faut une souveraineté technologique, une souveraineté algorithmique, et l'Europe en a largement les moyens.
Que nous manque-t-il ? La volonté politique ?
D'abord il nous a manqué la compréhension stratégique, mais c'est beaucoup plus clair depuis la guerre en Ukraine puis la réélection de Trump...
… Dans les discours peut-être, mais on a le sentiment que ça ne mène jamais à rien…
Le constat est quand même fait. On part tellement de loin, dans une forme de dévotion à la puissance américaine, pensant qu'il ne pouvait rien nous arriver sous le parapluie américain. On réalise que cette dépendance est en train de vassaliser l'Europe, d'en faire une colonie technologique américaine. La réaction est tardive, probablement insuffisante, mais réelle. Il y a des acteurs européens positionnés sur des créneaux stratégiques, comme Helsing, l’entreprise franco-allemande, à la pointe de l’IA appliquée au drone, tout comme Harmattan AI, fondée à l'été 2024, et massivement financée par Dassault. Safran.AI, l'ancien Preligens, rachetée par Safran en 2024, est le leader européen de l'intelligence artificielle appliquée au renseignement géospatial. On pourrait multiplier les exemples surtout en France et en Allemagne. La limite, c'est le financement.
C’est-à-dire ?
Les Américains ont la Darpa : l'agence chargée de la recherche et du développement de nouvelles technologies militaires. En Europe, les programmes ont une force de frappe extrêmement limitée et surtout, nous avons 27 marchés distincts. Aux Etats-Unis, les fonds de capital-risque – qui prennent le risque d'investir dans des start-up en espérant un retour colossal – sont surdéveloppés dans la Silicon Valley. Ils alignent des milliards sur des projets a priori peu viables, mais à force de les soutenir, cela finit par payer. Typiquement Palantir : entre 2003 et 2023, pas rentable ; à partir de 2023, décollage – vingt ans financés à perte.
En Europe nous avons 27 types de fonds, limités parce qu'à l'échelle nationale, et dont la force de frappe est fragmentée. Cela paraît trivial, mais ce sont vraiment des discussions que l'on devrait avoir : unifier le marché des capitaux et du capital-risque en Europe, avoir un seul marché où des Suédois, des Allemands, des Espagnols, des Français investissent ensemble. Voilà qui redynamiserait tout, et ferait monter des acteurs européens. Pour cela, il faudrait un statut unique – qu'une entreprise créée en France puisse opérer en Suède sans ouvrir des branches à chaque fois. Ce sont des limites qui paraissent très lointaines des enjeux géopolitiques, mais c'est ce qui fait que les entreprises grossissent en France ou en Allemagne, et dès qu'elles arrivent à un certain niveau, se font capter par les fonds américains.




