Alain De Neve
Les développements récents intervenus dans le domaine de l’intelligence artificielle, largement soutenus par les avancées opérées en matière de réseaux neuronaux profonds, de par leur intégration toujours plus poussée au sein des organisations de défense, ont fait émerger un certain nombre de questionnements quant à l’impact de cette technologie sur les mécanismes de la dissuasion. Déjà à l’époque de la guerre froide, tant les Etats-Unis que l’Union soviétique avaient développé des procédures de riposte nucléaire s’appuyant sur systèmes automatisés de lancement de missiles ICBM. Du côté soviétique, le système Perimetr (aussi dénommé Mertvaya Ruka, c’est-à-dire « Main Morte ») pouvait enclencher automatiquement des missiles balistiques intercontinentaux par l’envoi d’un ordre préenregistré émanant de l’état-major des forces armées et du Commandement de gestion stratégique des Forces de fusées stratégiques à l’attention des postes de commandement et des silos individuels dans le cas où une attaque nucléaire venait à être détectée par des senseurs sismiques, de rayonnement ou de radioactivité et de surpression. Perimetr devait ainsi assurer la continuité de la stratégie nucléaire de l’Union soviétique par le déclenchement automatisé de représailles même en cas de destruction de toute capacité de décision humaine pour le lancement des ICBM 2 . Du côté américain, un programme similaire avait également vu le jour : l’AN/DRC-8 Emergency Rocket Communication system (ERCS). L’objectif de l’ERCS, très similaire à Perimetr, était de garantir un système de communication stratégique pour la United States National Command Authority. Le système reposait sur le lancement d’une ogive radio UHF installé, en lieu et place d’une ogive nucléaire, sur un missile Minuteman II. Plus tard, les Etats-Unis poussèrent leurs réflexions sur l’automatisation des dispositifs nucléaires au travers du programme Survivable Adaptive Planning Experiment (SAPE). L’histoire militaire de ces 70 dernières années le montre : le débat sur l’automation et la délégation aux machines des fonctions de prise de décision de frappes – y compris les frappes incluant des moyens nucléaires – n’a cessé de figurer sur l’agenda des états-majors des nations les plus avancées sur les plans scientifique et technologique et, tout particulièrement, parmi les puissances nucléaires. L’interrogation à laquelle notre communication se propose de répondre est la suivante : les avancées récentes intervenues dans le domaine de l’IA sont-elles de nature à redéfinir le cadre stratégique de la dissuasion nucléaire ? L’IA En matière de dissuasion, notre examen de la place de l’IA dans le champ nucléaire comportera quatre niveaux d’analyse. Un premier niveau est celui de l’alerte avancée et de la collecte du renseignement. Les systèmes qui équipent les organismes d’analyse politico- militaires établissent des corrélations entre paquets de données issues de dispositifs de récolte hétérogènes, notamment pour l’identification rapide des déploiements de forces et la connaissance de situations évolutives sur des théâtres distant. Un second niveau d’analyse est l’apport de l’apprentissage machine et de l’IA dans le domaine des dispositifs de commandement et de contrôle (C2). L’intelligence artificielle offre des perspectives de percées réelles en matière prise de décision. Quelle est – et quelle sera – l’impact concret de l’IA en matière d’aide à la décision et de C2 ? Un troisième niveau portera sur le contrôle des vecteurs de frappe. Ici, des recherches exploratoires s’appuyant sur les dernières avancées de l’IA se font jour et pourraient déboucher sur un certain nombre de ruptures. Celles-ci concerneront sans doute la précision des engins et l’adaptation de leur manœuvrabilité (en ce qui concerne notamment les vecteurs hypersoniques) pour une meilleure assurance de la dissuasion. Enfin, un quatrième niveau d’analyse concernera le ciblage par les systèmes conventionnels défensifs et la riposte/résistance/résilience cybernétique. En filigrane de ces différents niveaux d’interrogations, nous poserons la question de l’explicabilité et de la compréhensibilité des solutions produites par l’IA dans le cadre des mécanismes de la dissuasion. L’un des risques majeurs que pourraient rencontrer les organisations de défense de puissances nucléaires (mais pas seulement nucléaires) dans les décennies à venir, au fur et à mesure des percées réalisées dans le champ de l’intelligence artificielle, serait de ne plus être en mesure d’évaluer la qualité des processus qui se situent au cœur des fonctions d’une IA venant à l’appui de la décision. Or, l’explicabilité et la compréhensibilité des mécanismes se situant au cœur des systèmes d’IA constituent des conditions indispensables à leur acceptabilité. Sur ce point encore, des initiatives programmatiques (à l’instar du programme conduit par la DARPA, dénommé eXplainable Artificial Intelligence) doivent anticiper et solutionner les dilemmes susceptibles de découler de l’association de l’IA aux décisions stratégique.
Plan provisoire
- Intelligence artificielle et dissuasion nucléaire : une hérédité partagée
La dissuasion nucléaire et de l’intelligence artificielle – à l’époque où celle-ci était
embryonnaire – partagent une histoire commune fait de multiples liaisons et
fertilisations croisées. - Explicabilité et compréhensibilité : enjeu de l’aide à la décision
Conçue comme une aide à l’analyse et à la prise de décision dans la perspective
d’un conflit nucléaire, l’intelligence artificielle a très rapidement conduit à une
multiplicité d’interrogations relatives à la capacité cognitive du décideur/commandement humain de comprendre la succession des opérations qui a conduit à la production d’une solution donnée.
- Comment l’intelligence artificielle renforce-t-elle ou déforce-t-elle la dissuasion
nucléaire ?
Nous proposerons, sur la base de sources ouvertes, une exploration des voies et
méthodes par lesquelles l’intelligence artificielle et les technologies qui lui sont
associées s’intègrent dans les mécanismes de la dissuasion nucléaire. Il s’agira de
déterminer le caractère disruptif ou subversif de cette technologie sur la stabilité
de la dissuasion dans le cadre d’un équilibre nucléaire des plus incertains. - IApocalypse, Flash Wars et hyperguerre : quels scénarios pour demain ?
L’intégration de l’intelligence artificielle au sein des systèmes militaires a donné
lieu à la production d’une grande variété de scénarios et d’anticipation parmi les
spécialistes des affaires stratégiques. Il est essentiel de faire la part entre ce qui
relève, d’une part, du fantasme catastrophiste et, d’autre part, des réflexions
doctrinales. - Conclusions
Bibliographie indicative
ALLEN, Greg, CHAN, Taniel, Artificial Intelligence and National Security, Belfer Center for
Science and International Affairs, 2017.
BEZOMBES, Patrick, « Intelligence artificielle et robots militaires », Défense & Sécurité
Internationale Hors-Série, numéro 65, avril-mai 2019.
BOULANIN, Vincent, (eds), The Impact of Artificial Intelligence on Strategic Stability and
Nuclear Risk, Volume I: Euro-Atlantic Perspectives, Solna, Stockholm International Peace
Research Institute (SIPRI), mai 2019.
CREVIER, Michel, À la recherche de l’intelligence artificielle, Paris, Flammarion,
coll. Champs, 1997.
DYÈVRE, Axel, GOETZ, Pierre, FERRANDO, Florence, Intelligence artificielle : applications et
enjeux pour les Armées, Paris, Compagnie européenne d’intelligence stratégique (CEIS), coll.
Les Notes Stratégiques, septembre 2018.
HAUTECOUVERTURE, Benjamin, « Applications nucléaires de l’automatisation : rappels
historiques », Bulletin mensuel de l’Observatoire de la dissuasion, sous la direction de
MAÎTRE, Emmanuel, et TERTRAIS, Bruno, Paris, Fondation pour la recherche stratégique (FRS)
& Direction générale des relations internationales et de la stratégie (DGRIS), numéro 67, été
2019.
HOADLEY, Daniel S., Lucas, NATHAN J., Artificial Intelligence and National Security, CRS,
2018.
HOROWITZ Michael C. & al., Strategic Competition in an Era of Artificial Intelligence, Center
for a New American Security, 2018.
IISS, « Big Data, Artificial Intelligence and Defence”, The Military Balance 2018, IISS,
2018.
KEMPF, Olivier, « IA, explicabilité et défense », Revue Défense Nationale, mai 2019.
KOSTOPOULOS, Lydia, The Role of Data in Algorithmic Decision-Making: A Primer, United
Nations Institute for Disarmement Research (UNIDIR), 2019, http://www.unidir.org.
LAFONTAINE, Céline, L’Empire cybernétique : des machines à penser à la pensée machine,
Paris, Éditions du Seuil, Essai, 2004.
NILSON, N. J., The Quest for Artificial Intelligence: A History of Ideas and Achievements?,
Cambridge, Cambridge University Press, 2009.
NOCETTI, Julien, Intelligence artificielle et politique internationale : les impacts d’une rupture
technologique, Paris, Institut français des relations internationales, Études de l’IFRI,
novembre 2019.
PISTONO, Federico, YAMPOLSKIY, Roman V., « Unethical Research: How To Create a
Malevolent Artificial Intelligence »,
cf. https://arxiv.org/ftp/arxiv/papers/1605/1605.02817.pdf
RAMAMOORTHY, Anand, YAMPOLSKIY, Roman, « Beyond MAD ? The Race for Artificial
General Intelligence », ITU Journal: ICT Dicoveries, Special Issue No. 1, 2 février 2018.
SAALMAN, Lora, « Fear of False Negatives: AI and China’s Nuclear Posture », Bulletin of
Atomic Scientists, 24 avril 2018, cf. https://thebulletin.org/2018/04/fear-of-false-negatives-ai-
and-chinas-nuclear-posture/
SAYLER, Kelly M., Artificial Intelligence and National Security, CRS Report, R45178, 21
novembre 2019.
SÉGAL, Jérôme, Le zéro et le un. Histoire de la notion scientifique d’information au 20 ème
siècle, Paris, Syllepses, coll. Matériologiques, 2003.
YAMPOLSKIY, Roman V., « Unexplainability and Incomprehensibility of Artificial
Intelligence », cf. https://arxiv.org/ftp/arxiv/papers/1907/1907.03869.pdf
