Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 7 août 2025Flux principal

L'IA va contrôler les armes nucléaires et personne ne sait vraiment ce que ça veut dire

Par : Korben
7 août 2025 à 12:48

Bon, je vais encore vous raconter un truc qui devrait vous filer des sueurs froides. Désolé ^^.

En juillet dernier, des prix Nobel se sont réunis à l’Université de Chicago pour écouter des experts du nucléaire leur expliquer comment le monde pourrait finir. Et devinez quoi ? Ils sont tous d’accord sur un point : l’IA va bientôt s’infiltrer dans les systèmes d’armes nucléaires. C’est pas une question de “si”, c’est simplement une question de “quand”.

Bob Latiff, un général de l’US Air Force à la retraite qui aide à régler l’horloge de l’apocalypse chaque année, compare l’IA à l’électricité : “Ça va s’infiltrer partout”. Et quand un mec qui s’occupe littéralement de l’heure de la fin du monde dit ça, j’sais pas vous, mais moi je commences à me poser des questions.

Le problème, c’est que personne ne sait vraiment ce que ça signifie de donner le contrôle d’armes nucléaires à une IA. Jon Wolfsthal, ancien assistant spécial de Barack Obama et maintenant directeur du risque global à la Federation of American Scientists, le dit tout de go : “Personne ne sait vraiment ce qu’est l’IA”. C’est vrai ça, on parle de quoi exactement ? De ChatGPT avec les codes nucléaires ? D’une puce qui décide de lancer des missiles ?

Rassurez-vous (ou pas), tous les experts s’accordent pour dire que ChatGPT ou Grok n’auront pas les codes nucléaires de sitôt, par contre, Wolfsthal a entendu des trucs flippants dans les couloirs du pouvoir américain. Des gens proposent sérieusement de créer des LLM pour simuler Putin ou Xi Jinping, histoire d’aider le président à anticiper leurs réactions. “Super idée”, dit Wolfsthal, “mais comment tu sais que Putin croit vraiment ce qu’il dit ou écrit ?

L’année dernière, le général Anthony J. Cotton, le chef militaire en charge de l’arsenal nucléaire américain, a fait également un long discours sur l’importance d’adopter l’IA. Les forces nucléaires développent des “outils d’aide à la décision activés par l’IA mais dirigés par des humains”. Ça sonne bien sur le papier, mais dans la pratique, aucune idée de ce que ça donne…

Parlons maintenant de Stanislav Petrov, ce lieutenant-colonel soviétique qui a littéralement sauvé le monde en 1983. Selon le Bulletin of the Atomic Scientists, son système d’alerte précoce lui indiquait que les États-Unis avaient lancé 5 missiles. Et Petrov, sans se chier dessus, s’est dit : “C’est con, une première frappe américaine, ce serait tout ou rien, pas cinq missiles”. Il a donc décidé d’ignorer l’alerte. Bonne intuition ! En réalité, c’était le soleil qui se reflétait sur les nuages.

Du coup, si Petrov avait été une machine programmée pour répondre automatiquement à une attaque, c’est sûr qu’on aurait eu une guerre nucléaire. Petrov étant humain, il a su sortir de ses “données d’entraînement”, si je puis dire. Il a fait un jugement humain basé sur l’expérience et l’intuition. Une IA, par définition, ne peut pas faire ça.

Ce qui fait vraiment flipper Wolfsthal, ce n’est pas l’idée qu’une IA devienne skynet et lance une guerre nucléaire toute seule. C’est plutôt que quelqu’un décide d’automatiser certaines parties du système, créant des vulnérabilités qu’un adversaire pourrait alors exploiter. Ou pire, que l’IA produise des recommandations que les humains ne comprennent pas vraiment mais suivent quand même.

D’ailleurs, selon un rapport de Chatham House de juin 2025, l’IA pourrait aider à prévenir l’escalade nucléaire en étant intégrée dans les systèmes d’alerte précoce mais seulement si on comprend vraiment les risques. Et je vous spoile direct : On ne les comprend pas.

La France n’est pas en reste dans cette course. L’IFRI note que l’IA pourrait affaiblir la dissuasion nucléaire en rendant vulnérables des systèmes jusqu’alors considérés comme protégés. Les États-Unis développent également un projet pour frapper les lanceurs mobiles de missiles balistiques en utilisant l’IA pour analyser des données en temps réel. Les États pourraient alors avoir recours à l’arme nucléaire de manière préventive par peur de perdre leur capacité de riposte.

La Russie a aussi déjà son système Perimeter, surnommé “Dead Hand” (la main morte), et développe Poseidon, un drone sous-marin autonome armé nucléairement. Un drone qui peut traverser les océans tout seul pour livrer une bombe capable de vaporiser une ville entière. Qu’est-ce qui pourrait mal tourner, voyons ?

Le problème des biais d’automatisation est particulièrement vicieux. Brookings explique que les études montrent que les gens font naturellement confiance aux systèmes automatisés. Imaginez un opérateur stressé en temps de crise qui doit choisir entre son intuition et ce que lui dit l’IA. Et bah dans 99% des cas, il déposera son cerveau et suivra l’IA. Vous le savez, c’est ce que vous faites quand vous vibe codez ;-).

Le plus marrant dans tout ça (ou pas) c’est que Donald Trump et le Pentagone ont déclaré que l’IA était “le prochain projet Manhattan” et que “les États-Unis VONT GAGNER”. Sauf que comme le fait remarquer Lin : “Je sais quand le projet Manhattan s’est terminé… on a fait exploser une bombe. Mais je ne sais pas ce que signifie avoir un projet Manhattan pour l’IA.” Bah oui, ils vont faire exploser quoi ??

La revue de l’OTAN se demande si l’IA devrait être complètement bannie des systèmes d’armes nucléaires. En 2023, le Congrès américain a même proposé une loi dans ce sens et Biden a signé un décret sur le sujet. Mais il n’y a toujours pas de consensus global sur le fait que les humains doivent rester dans la boucle de décision nucléaire.

Voilà, donc pour l’instant, lancer une arme nucléaire américaine nécessite encore une chaîne complexe de décisions humaines et il faut toujours deux personnes qui doivent tourner des clés en même temps dans un silo pour lancer un missile. La politique nucléaire américaine exige ce qu’on appelle une “double phénoménologie”. Cela veut dire qu’une attaque doit être confirmée par satellite ET radar pour être considérée comme réelle. Mais combien de temps avant qu’on remplace un de ces phénomènes par une IA ?

Perso, je pense que l’IA dans le nucléaire c’est une idée à la con. Pourquoi jouer à la roulette russe avec l’humanité entière alors qu’on a déjà fort à faire avec tous nos dirigeants mentalement instables ?

Évidemment, vous l’aurez compris, l’IA ne lancera probablement pas des missiles toute seule, mais elle pourrait très bien nous convaincre de le faire nous-mêmes, à cause d’une mauvaise interprétation de données ou d’un bug qu’on ne comprend même pas. Et ça, c’est tout aussi flippant, je trouve.

Source

❌
❌