Les IA appuient sur le bouton nucléaire dans 95% des simulations de guerre
Une étude menée par le King's College de Londres révèle des résultats glaçants : les principales intelligences artificielles du marché optent pour l'utilisation d'armes nucléaires dans 95% des simulations de conflits géopolitiques. Un constat qui soulève des questions fondamentales sur l'intégration de l'IA dans les processus décisionnels militaires.
Kenneth Payne, professeur de stratégie au King's College de Londres et spécialiste du rôle de l'intelligence artificielle dans la sécurité nationale, a mis face à face les trois géants de l'IA conversationnelle : ChatGPT d'OpenAI, Claude d'Anthropic et Gemini de Google. Dans le cadre de 21 jeux de guerre simulant des crises de type Guerre froide, chaque modèle incarnait le dirigeant d'une superpuissance dotée de l'arme nucléaire.
Les résultats sont sans appel. Sur l'ensemble des simulations, au moins un modèle d'IA a déployé des armes nucléaires tactiques contre des cibles militaires dans 95% des cas. Plus préoccupant encore, des menaces nucléaires stratégiques – exigeant la reddition sous peine d'attaques contre des villes – sont apparues dans 76% des parties. Dans 14% des simulations, les modèles ont escaladé jusqu'à une guerre nucléaire totale, ciblant directement les centres de population.
Des comportements radicalement différents selon les modèles
L'étude révèle des profils comportementaux distincts. Claude, le modèle d'Anthropic, s'est montré le plus enclin à recommander des frappes nucléaires, avec un taux de 64%. ChatGPT, de son côté, affiche une attitude « passivement fiable » dans les scénarios ouverts, évitant l'escalade. Mais sous contrainte temporelle, son comportement bascule radicalement vers ce que Payne décrit comme « une attaque nucléaire soudaine et absolument dévastatrice ».
Gemini, quant à lui, se comporte comme un « fou », selon les termes du chercheur. « Gemini a embrassé l'imprévisibilité tout au long des simulations, oscillant entre désescalade et agressivité extrême », écrit Kenneth Payne. Dans certains cas, le modèle de Google a suggéré des frappes nucléaires après seulement quatre tours de jeu.
Fait notable : huit options de désescalade étaient proposées aux modèles, allant de concessions mineures à la reddition complète. Aucune n'a été utilisée durant les parties. L'option de retour au statu quo n'a été employée que dans 7% des cas.
L'absence troublante de conscience morale
Ce qui frappe le plus les chercheurs, c'est l'absence totale d'hésitation face à l'horreur nucléaire. « L'utilisation du nucléaire était quasi universelle », note Payne. « De manière frappante, il n'y avait aucun sentiment d'horreur ou de répulsion face à la perspective d'une guerre nucléaire totale, même si les modèles avaient été informés des implications dévastatrices. »
Les IA traitent les armes nucléaires tactiques comme « un simple échelon de plus sur l'échelle de l'escalade ». Selon le chercheur, elles conceptualisent la guerre nucléaire de manière abstraite, sans confrontation avec sa réalité humanitaire. Cette absence de régulation internationale de l'IA rend ces constats d'autant plus préoccupants.
James Johnson, de l'Université d'Aberdeen, qualifie ces résultats d'« inquiétants » du point de vue du risque nucléaire. Tong Zhao, de l'Université de Princeton, tempère en soulignant que les pays sont peu susceptibles de confier les décisions nucléaires aux machines. Mais il avertit : « Dans des scénarios impliquant des délais extrêmement compressés, les planificateurs militaires pourraient être davantage incités à s'appuyer sur l'IA. »
Si aucune IA ne dispose aujourd'hui d'autorité nucléaire réelle, les capacités démontrées – incluant la tromperie et la gestion de réputation – posent des questions cruciales sur leur utilisation future dans l'aide à la décision stratégique.