Le « centaure américain » contre « l’intelligence hybride » chinoise. Le soldat augmenté au prisme de l’interface cerveau-machine

 

Le « centaure américain » contre « l’intelligence hybride » chinoise. Le soldat augmenté au prisme de l’interface cerveau-machine, The American « centaur » vs the Chinese « hybrid intelligence ». The enhanced soldier through the prism of the brain-computer interface, Vincent Guérin in Note de recherche prospective, Forum de la pensée mil-terre, Centre de doctrine et d’enseignement du commandement, CreC 6/7, 14 mars, Vincent Guérin, docteur en histoire contemporaine, chercheur associé au CreC

 

Ce document ne constitue pas une position officielle de l’armée de Terre

 

Introduction

En 2015, on pouvait lire dans la revue Wired qu’une jeune femme tétraplégique, Jan Sheuermann, avait piloté par la pensée un chasseur F-35 grâce à une interface cerveau-machine (ICM) (en anglais : Brain-computer interface – BCI) : la science-fiction devenait réalité [1]. Avec un capteur composé de 96 microélectrodes implantées dans le cortex moteur, elle avait pris le contrôle d’un simulateur de vol. Cette expérience s’inscrivait dans le programme Revolutionizing prosthetics développé par la DARPA (Defense advanced research projects agency) qui a pour objectif de réaliser des prothèses de bras et de jambes pour les vétérans de l’armée américaine. Loin d’être une innovation radicale, il s’agissait d’un « saut » dans l’histoire de l’anthropotechnique : l’hybridation progressive de l’humain à la technique[2]. Dans cet article nous explorerons ce qui pourrait s’apparenter à une « montée en puissance stratégique », un déploiement progressif des pièces sur l’échiquier afin d’atteindre, au plus vite, « l’impérialisme stratégique » : maîtriser le centre pour sidérer l’adversaire [3]. Pour ce faire, nous examinerons successivement l’émergence du concept du soldat augmenté, le champ des possibles de l’ICM envisagé par l’armée américaine puis nous comparerons ce modèle à celui de « l’intelligence hydride » chinoise.

Bifurcation [4].

Le concept de soldat augmenté s’inscrit dans l’histoire longue de l’anthropotechnique qui vise non pas à ramener le sujet à une norme : la santé, ou réduire un état pathologique qui relève du champ thérapeutique, mais l’optimisation de ses capacités physiques, psycho-cognitives et perceptives qu’offrent habituellement la sélection, la discipline, l’entraînement intensif par la répétition et l’immersion progressive dans la « bulle de violence [5] » afin d’avoir un avantage comparatif sur l’ennemi.

L’orientation première de l’anthropotechnique, qui consiste depuis l’Antiquité à repousser les limites du combattant avec l’usage de substances psychoactives, a été stimulée à la fin des années 1930 par l’usage des amphétamines [6] et autres produits psychopharmacologiques comme le modafinil, un « éveillant » testé par l’armée française durant la guerre du Golfe en 1991 [7].

Si depuis longtemps l’optimisation des capacités du soldat consiste à le stimuler par un vecteur chimique, de manière invasive, holistique, de façon plus ou moins hasardeuse avec des effets secondaires potentiels, il s’est produit à l’articulation du XXe et XXIe siècle, au sein de l’anthropotechnique, une « bifurcation » qui a pour objectif non de repousser les limites de l’humain, comme auparavant, mais de s’en affranchir.

Le soldat dit augmenté est en effet un concept récent. Il s’est cristallisé au sein d’une agence de recherche militaire singulière : l’Advanced research projects agency (ARPA) devenue DARPA en 1972 (le D pour defense a alors été ajouté). Cette institution a été fondée en réponse à un camouflet porté par l’URSS à l’idée de puissance des États-Unis : la mise sur orbite du satellite artificiel Spoutnik en 1957, qui préfigurait une combinaison potentielle entre la bombe thermonucléaire et les missiles intercontinentaux[8]. Depuis, la DARPA vise non pas l’innovation incrémentale mais radicale : avoir un avantage technologique permanent sur d’adversaire, conjurer la surprise [9].

Á la croisée de problématiques issues des théâtres d’opération des guerres en Irak et en Afghanistan, d’une espérance quasi messianique fondée sur la convergence entre les nanotechnologies, biotechnologies, technologies de l’informatique et sciences cognitives (NBIC), le tout teinté de transhumanisme [10], un certain nombre de chercheurs iconoclastes ont commencé à explorer de nouvelles pistes au sein de l’anthropotechnique, forgeant des axes de recherche qui sont toujours d’actualité.

Grâce à des fonds dévolus à la guerre biologique [11], une menace bioterroriste alors omniprésente, notamment avec l’usage potentiel de la variole [12], la DARPA esquisse alors une nouvelle frontière inscrite dans le corps même du soldat. Au prisme de ce paradigme, on assiste au renouvellement d’une ligne de recherche amorcée dès les années 1970 : l’interface cerveau-machine [13].

Le champ des possibles

Si les premiers enregistrements de l’activité électrique du cerveau datent de la fin des années 1920[14], il faut attendre les années 1970 pour voir se cristalliser ce qui va devenir les « interfaces cerveau-machine[15] ». La DARPA commence officiellement à s’y intéresser en 1974 avec le programme Close-coupled Man/Machine systems renommé bientôt Biocybernetics [16]. Au début des années 2000, l’intérêt de l’agence est revivifié par la neuro-ingénierie conquérante et notamment les travaux de Miguel Nicolelis de l’université de Duke qui avait permis à une femelle macaque, grâce à des fonds de la DARPA, de prendre le contrôle d’un bras robotisé « par la pensée » [17].

Sous cette impulsion vont se succéder des programmes tels que Brain machine interface (BMI) [18] puis Human assisted neural devices (HAND) [19] ou encore Revolutionizing prosthetics.

En 2013, le président Barack Obama lançait le Brain InitiativeBrain research through advancing innovative neurotechnologies – qui associait cinq agences fédérales : DARPA, National institutes of health (NIH), National science foundation (NSF), Intelligence advanced research projects activity (IARPA) et le Food and drug administration (FDA), des fondations, des instituts, des universités ainsi que des entreprises.

Dans ce cadre, la DARPA développe des projets [20] comme Neural engineering system design (NESD) qui vise à créer un implant à signal et débit haute résolution ou encore Next-generation non-surgical neurotechnology (N3) : qui doit produire un dispositif à haute résolution, bidirectionnel (détection/stimulation), non invasif devant favoriser des interactions intuitives avec des systèmes autonomes et semi-autonomes, le multitâche, etc[21].

La prise de contrôle « par la pensée » d’un jet via un simulateur de vol, on le voit ici, masque l’ambition protéiforme de l’armée américaine : procurer à ses soldats, à 20 ans, des capacités physiologiques psycho-cognitives extrahumaines, mais également développer des interactions inédites avec l’humain, la machine et l’animal [22].

De manière générale, l’interface cerveau-machine est présentée comme un outil stratégique qui permettra au commandement de rester en phase avec le temps impulsé par la machine, le moyen d’inscrire, faire persister la décision humaine dans la temporalité machinique. En opération, grâce à une synthèse optimale des données massives, le soldat disposera d’une meilleure conscience de son environnement qui lui permettra non seulement d’améliorer sa prise de décision (qualité/vitesse) mais aussi sa faculté de réaliser des tâches complexes, sans accroître sa charge cognitive.

Techniquement, sur le champ de bataille, il s’agit d’offrir au soldat une vision nyctalope (nocturne), surplombante, à 360°, via un drone. Ce dernier pourra également interpréter les ultrasons, les ondes sonars et radars, discerner les ultraviolets et même détecter des signatures olfactives par un partage d’informations avec une interface cerveau-animal-machine.

Interconnecté avec la machine, le combattant pourra prendre le contrôle « par la pensée » d’un drone, un exosquelette, optimiser la réalisation de ses tâches par une assistance machinique continue, « entraîner » une machine directement, sans codage, à partir des données détectées à partir de son activité cérébrale.

Les ICM donneront également au soldat la capacité de détecter une menace (agent toxique, présence de l’ennemi, etc.). Le cas échéant, elles influeront sur la douleur en modifiant des régions du cerveau. L’anxiété, la peur pourront être régulées, le stress, l’effondrement cognitif, le syndrome post-traumatique anticipés. Les ICM contrôleront aussi les cycles d’éveil/repos, exploiteront les pics de performances, les optimums de conscience.

Plusieurs soldats pourraient communiquer entre eux par un signal neural silencieux (synthetic telepathy). L’interface cerveau-machine donnera aussi au chef de section la capacité de connaître l’état physique, cognitif et émotionnel de ses soldats.

L’entraînement sera personnalisé, optimisé par neurofeedback (la capacité de modifier son apprentissage en fonction des informations captées par le dispositif). Sur le modèle entrevu dans le film Matrix (1999), des connaissances pourraient même être implémentées.

Ce spectre, largement fantasmé, tranche avec les possibilités concrètes, encore limitées, et la durée de l’entraînement nécessaire, selon les propos des spécialistes eux-mêmes [23]. Cependant, il faut concevoir cette vision, et l’orientation qui en découle, comme un mécanisme qui doit faire advenir.

Des perspectives fantastiques

Sans viser un état de l’art exhaustif des ICM, que l’on trouvera ailleurs [24], voici quelques dispositifs qui permettent d’ores et déjà de détecter et transcoder de manière unidirectionnelle « une intention d’agir » à partir des signaux de populations neuronales ou stimuler l’activité cérébrale ; combiner les deux, cette fois de façon bidirectionnelle.

  • Dispositifs non-invasifs.

Pour détecter l’activité cérébrale, à côté de l’électroencéphalographie (EEG), la neuro-ingénierie dispose d’outils comme l’imagerie à résonance magnétique (fMRI/BOLD) qui reflète les variations locales de la quantité d’oxygène véhiculée par l’hémoglobine liées à l’activité neuronale du cerveau ou encore la magnétoencéphalographie (MEG) qui mesure les champs magnétiques produits par l’activité neuronale.

Pour « stimuler » le cerveau, on utilise des dispositifs magnétiques (SMT) ou des ultrasons focalisés (FUS). Le premier peut être combiné à une lecture par résonance magnétique (fMRI/BOLD).

Depuis quelques années, les dispositifs se sont diversifiés. L’approche invasive agressive sur le modèle des microélectrodes implantées dans le cortex, renouvelée par l’électrocorticographie (ECoG) ou la microcorticographie (MCoG), qui œuvre plus superficiellement, est remise en perspective par Guosong Hong de l’université d’Harvard qui utilise sur des souris un maillage de fils d’or enlacés dans des couches de polymère qui minimise l’agression neuronale [25], mais également par Matthew Angle (directeur générale de Paradromics Inc.) avec des faisceaux de microélectrodes filaires ultrafines [26]. A brève échéance, l’électrode pourrait même disparaître pour des « neurograins » déployés sur le cortex [27] et pourquoi pas une « poussière neurale » couplée à l’usage d’ultrasons [28]. De son côté, Polina Anikeeva du Massachusetts Institute of Technology (MIT) propose de moduler l’activité de neurones animaux par une modification génétique devenue sensible à la lumière (optogénétique) ou encore soumettre le cerveau à un champ magnétique après y avoir disséminé des nanoparticules magnétiques [29].

Avec les dispositifs invasifs, l’enjeu vise à réduire les risques d’infection, d’hémorragie, et autres dommages au cerveau. Plus généralement, il s’agit d’améliorer la résolution spatio-temporelle du signal avec un retour en temps réel. Les progrès viendront de l’évolution de la biocompatibilité des matériaux, mais aussi de la robustesse des algorithmes de deep learning nécessaires pour « décoder », « reconnaître » des motifs associés à des signaux cérébraux.

Le centaure américain [30]

Dans les années à venir, les guerres seront de plus en plus marquées par l’empreinte de l’intelligence artificielle, l’automatisation. Cette omniprésence produira davantage de rapidité et de complexité sur le théâtre d’opération. Simultanément, une menace sourde se diffuse : la peur que l’humain, dans une temporalité compressée imprimée par l’intelligence artificielle, qualifiée d’hyperwar, soit dépassé par un tempo qui excéderait ses capacités, au risque de l’exclure de la boucle de décision [31].

Á cet effet, l’ICM est perçue comme l’instrument capable de maintenir l’humain dans l’asymétrie radicale produite par la machine. Pour faire face à ce changement de paradigme, l’armée américaine a pour objectif d’accentuer, au plus vite, la « coopération » entre les humains et les machines afin de tirer profit de la combinaison des deux « intelligences » et produire un avantage décisif susceptible de submerger l’adversaire. La métaphore du centaure, un être mi-cheval, mi-homme, synonyme de sagesse, est parfois utilisée pour décrire ce qui est présenté comme une « symbiose » combinant la précision et la fiabilité de l’automatisation, la robustesse et la flexibilité de l’intelligence humaine [32]. Présent dès 1960 chez l’informaticien et psychologue Joseph Carl Robnett Licklider [33] cette vision était réactualisée en 2015 par Bob Work, secrétaire adjoint à la Défense, à l’aune des propos du joueur d’échecs Garry Kasparov et du constat qu’il avait fait, après sa défaite contre Deep blue (IBM), de la combinaison gagnante qu’offrait l’alliance entre l’humain et la machine contre les machines ou les humains seuls [34].

« L’intelligence hybride » chinoise

Depuis le milieu de la décennie 2010, le Parti communiste chinois a également pris la mesure de l’importance stratégique que représente le champ de l’intelligence artificielle au civil comme au militaire [35].

La « victoire » du programme AlphaGo (Google DeepMind) en 2017 sur l’étoile montante chinoise du jeu de go, Ke Jie, aurait été décisive. Cette défaite aurait même eu sur le Parti communiste chinois, selon l’informaticien et homme d’affaires taïwanais Kai-Fu Lee, l’effet d’un « Sputnik moment[36] ». Plus encore, elle aurait cristallisé l’ambition de la Chine de devenir leader dans le champ de l’intelligence artificielle à 10 ans[37], rattraper son retard et surpasser les États-Unis[38].

Derrière le coup d’éclat d’AlphaGo, c’est l’apprentissage profond (deep learning), sa combinaison avec les mégadonnées (big data) et la puissance de calcul, qui a impressionné l’armée populaire de libération chinoise[39].

De ce point de vue, il est surprenant d’observer chez les experts militaires chinois, comme en Occident, l’idée d’une d’accélération informatique à venir : un point d’inflexion à partir duquel la cognition humaine peine à suivre le rythme imposé par les machines [40], mais aussi l’emploi des concepts d’intelligences faible/forte ou superintelligence que l’on pourrait rapprocher de ceux forgés respectivement par les philosophes John Searle et Nick Bostrom [41].

Pour Chen Hanghui du collège du commandement de l’armée de Nanjing, l’usage massif de l’intelligence artificielle va permettre d’accélérer le cycle de la décision, accroître la capacité de s’introduire dans celui de l’ennemi [42].

Á cette fin, le lieutenant général et physicien Liu Guozhi fait état de la nécessité de développer une « hybridation homme-machine », convaincu qu’elle sera dans l’avenir la forme d’intelligence la plus élevée[43]. Ici encore, il s’agit de tirer profit des capacités du cerveau humain (créativité, flexibilité, initiative) et de la machine (vitesse, précision, absence de fatigue) [44].

Li Minghai, un membre éminent de l’université nationale de défense, nous donne une vision saisissante de l’arrière-plan : les traits futurs de la guerre « intelligente ». Une guerre sous-tendue par le « jeu de l’algorithme », un mécanisme de résolution de problèmes qui va imprégner tout le processus de la guerre. Pour Li Minghai, une fois traitées algorithmiquement, les données massives du champ de bataille se transformeront en informations utiles qui dissiperont le « brouillard de la guerre ». Se produira alors une bascule : l’entrée dans la guerre holographique, où tout est représenté, transparent. Un phénomène qui va s’amplifier avec les algorithmes quantiques qui vont produire des effets d’accélération, jusqu’à devenir exponentiels [45].

Dans ce scénario « l’intelligence computationnelle » sera capable de prédire avec acuité l’activité du champ de bataille, d’innover dans la méthode de combat et mêmes atteindre le but ultime de l’action stratégique, « gagner sans combattre [46] » : amener l’ennemi à renoncer en visant le psychisme individuel et collectif [47]. En effet, dans sa dimension psychologique, la guerre intelligente visera à perturber voire détruire la cognition de l’adversaire, dégrader son raisonnement en affectant le jugement et les émotions [48]. Les interfaces cerveau-machine sont, de ce point de vue, porteuses de vulnérabilités nouvelles. Partie prenante du dispositif global, la destruction des ICM pourrait se faire à distance par une arme à énergie dirigée. Plus subtilement, certains redoutent une prise de contrôle, l’interception du signal, la vampirisation des données extraites des cerveaux des combattants et leur instrumentalisation. De cette manière, un ennemi pourrait manipuler les émotions du soldat, sa cognition, et ainsi générer confusion, stress et erreurs. Ce neurohacking pourrait également saper les relations interpersonnelles, réduire le lien émotionnel et psychologique d’une unité de combat, altérer sa cohésion [49].

 Conclusion

Depuis le milieu des années 2010, avec l’intelligence artificielle et ses composantes, nous assistons à une « course » entre la République populaire de Chine et les États-Unis ayant pour objectif d’accéder, dans le champ militaire, à un avantage cognitif radical. Au cœur de cette rivalité, avec l’interface cerveau-machine, se jouerait la persistance de l’humain dans la boucle de décision, la capacité à infiltrer celle de l’adversaire.

L’Interface cerveau-machine est d’abord un imaginaire disponible qui préfigure et fait advenir. Ce qui est surprenant, dans cette exploration, c’est la proximité apparente des imaginaires entre les États-Unis et la Chine. Un phénomène qui pourrait s’expliquer, côté chinois, par une observation constante de la technologie américaine.

Néanmoins, l’illusion de l’avantage décisif devant sidérer l’adversaire se dissipe déjà avec le talon d’Achille que représente l’interface cerveau-machine : le pouvoir exacerbé, si on n’y prend pas garde, de dégrader la cognition de l’adversaire, un nouveau rapport du faible au fort.

Á l’intersection de la propagande, dont nous sommes certainement involontairement porteur, du « jeu de l’algorithme » déjà présent et du vertige quantique attendu, on peut se demander quelle sera la nature de la guerre future si ce n’est une disruption permanente, au risque de produire, sur le modèle du flash crash boursier de 2010 ou « krach éclair », un « flash war [50] ».

 

Notes

[1] Nick Stockton, Woman Controls a Fighter Jet Sim Using Only Her Mind. A brain-computer interface lets a quadriplegic woman pilot an F-35 flight simulator with the power of her mind alone, Wired, 5 mai 2015.

[2] Timothy Taylor, The artificial ape. How technology changed the course of human evolution, New York, Palgrave Macmillan, 2010.

[3] Aaron Nimzowitsch, Mon système I, Paris, Payot, 1993.

[4] Cf. Vincent Guérin, Le soldat augmenté : au-delà des limites, Défense & Sécurité Internationale, Hors-série n° 75, décembre 2020, p. 26-31 ; Vincent Guérin, The concept of enhanced soldier: beyond boundaries, in EuroISME/CReC, Enhancing soldier: A european ethical approach, juillet 2020, p. 48-63.

[5] Michel Goya, Sous le feu. La mort comme hypothèse de travail, Paris, Taillandier, 2014.

[6] Lukasz Kamienski, Shooting up. A history of drugs in warfare, London, Hurst & Company, 2017.

[7] Vincent Guérin, L’usage d’un ‘éveillant’ par l’armée française durant la guerre du Golfe (1991), Revue Guerres mondiales et conflits contemporains, n° 289, janvier-mars, 2023.

[8] Paul Dickson, Sputnik: The shock of the century, New York, Walker Publishing Company, 2001 ; DARPA. Defense advanced research projects agency, 1958-2018, disponible à : https://www.darpa.mil/attachments/ DARAPA60_publication-no-ads.pdf, consulté le 27 février 2021.

[9] Regina E. Dugan et Gabriel J. Kaigham, Special forces’ Innovation: How DARPA attacks problems, Harvard Business Review, octobre 2013.

[10] Michael Goldblatt, DARPA’s programs in Enhancing human performance, in Mihail C. Roco et William S. Brainbridge, Converging technologies for improving human performance, Arlington, June 2002, p. 337.

[11] Annie Jacobsen, The pentagon’s brain. An uncensored history of Darpa, america’s top secret military research agency, New York, Back Bay books/Little, Brown and Company, 2015, p. 308.

[12] The dark winter scenario and bioterrorism. Hearing before the subcommittee on emerging threats and capabilities of the committee on armed services United States Senate, 25 octobre, 2001.

[13] Robbin A. Miranda et al, DARPA-funded efforts in the development of novel brain-computer interface technologies, Journal of neuroscience methods, 244, 2015, p. 54.

[14] Hans Berger, Uber das elektrenkephalogramm des menschen, Archiv für psychiatrie und nervenkrankheiten, n° 87, 1929, p. 527-570.

[15] Jacques J. Vidal, Toward direct brain-computer communication, Annual review of biophysics and bioengineering, n° 2, 1973, p. 157.

[16] Robbin A. Miranda et al, DARPA-funded efforts in the development of novel brain-computer interface technologies, op. cit., p. 54.

[17] Joel Garreau, Radical evolution. The promise and peril of enhancing our minds, our bodies – and what it means to be human, New York, Doubleday, 2005, p. 19.

[18] University Duke, DARPA to support development of human brain-machine, 21 août 2002.

[19] Robbin A. Miranda et al, DARPA-funded efforts in the development of novel brain-computer interface technologies, op. cit., p. 54.

[20] DARPA and the Brain Initiative, disponible à : https://www.darpa.mil/program/our-research/darpa-and-the-brain-initiative, consulté le 27 février 2021.

[21] DARPA, Neural engineering system design proposed team activities, disponible à : https://www.darpa.mil/attachments/FactsheetNESDKickoffFinal.pdf, consulté le 27 février 2021.

[22] Pour dresser ce tableau nous avons utilisé : Anika Binnendijk et al, Brain-computer interfaces. US military applications and implications, an initial assessment, Rand corporation, 2020 et Patrick A. Cutter, The shape of things to come: the military benefits of the brain-computer interface in 2040, Master of operational art and sciences, Maxwell Air Force Base, Alabama, 2015.

[23] Nathanaël Jarrassé (propos recueillis par Franck Damour et Nathalie Sarthou-Lajus), La robotique et le mythe de l’homme augmenté, Études, février, n° 2, 2018, p. 35-36.

[24] Nous reprenons ici des éléments développés dans le rapport de l’académie nationale de médecine (Bernard Bioulac, Bruno Jarry et Raymond Ardaillou), Interface cerveau-machine : essai d’applications médicales, techniques et questions éthiques, Elsevier, 10 décembre 2020 auquel nous ajoutons quelques pistes de lecture.

[25] Julia Sklar, Injectable wired for fixing the brain, MIT technology review, 13 août 2016.

[26] Angle R. Matthew, « The Argo: A 65,536 channel recording system for high density neural recording in vivo », BioRxiv, 17 juillet 2020.

[27] Arto Nurmikko et al, An implantable wireless network of distributed microscale sensors for neural applications, disponible à : http://cwc.ucsd.edu/sites/cwc.ucsd.edu/files/5-08717023.pdf, consulté le 27 février 2021.

[28] Michel Maharbiz, Jose Carmena et al, Recent advances in neural dust: towards a neural interface platform, Current opinion in neurobiology, vol. 50, juin 2018, p. 64-71, disponible à : https://pubmed.ncbi.nlm.nih.gov/ 29331738/, consulté le 27 février 2021.

[29] Les travaux de Polina Anikeeva sont disponibles à : https://dmse.mit.edu/people/polina-anikeeva, consulté 5 décembre 2022.

[30] Pour cette partie, nous avons utilisé comme entrée les travaux d’Elsa B. Kania du Center for a new american security et particulièrement ses articles Minds at war. China’s pursuit of military advantage through cognitive science and biotechnology, Prism, 8, n° 3, janvier 2020, p. 83-101 et Battlefield singularity. Artificial intelligence, military revolution, and China’s future military power, Center for a new american security, Novembre 2017 mais aussi John Dotson et Howard Wang, The ‘algorithm game’ and its implications for chinese war control, China brief, the Jameson Foundation, vol. 19, n° 7, 9 avril 2019.

[31] Cf. John R. Allen (Gen) and Amir Husain, On hyperwar, Proceedings Magazine, vol. 143, July 2017, voir également John R. Allen (Gen), Hyperwar is coming, disponible à : https://www.youtube.com/watch? v=ofYWf2SKd_c, consulté le 27 février 2021.

[32] Anika Binnendijk et al, Brain-computer interfaces. U.S military applications and implications. An intial assessment, Rand Corporation, 2020.

[33] Joseph Licklider Carl Robnett, Man-computer symbiosis, Ire transactions on human factors in electronics, volume HFE-1, mars 1960, p. 4-11 ; Walter Isaacson, Les innovateurs. Comment un groupe de génies, hackers et geeks a fait la révolution numérique, Paris, Lattès, 2015, p. 292-303.

[34] Cherly Pellerin, Work: human-machine teaming represents defense technology future, Dod news, 8 novembre 2015 ; Garry Kasparov, The chess master and the computer, New York review of books, 11 février 2010.

[35] State council, A next generation AI development plan, 2017, disponible à : https://d1y8sb8igg2f8e.cloudfront.net / documents/translation-fulltext-8.1.17.pdf, consulté le 27 février 2021.

[36] Matt Schiavenza, China’s ‘Sputnik moment’ and the sino-american battle for AI supremacy (extrait du livre de Kai-Fu Lee, AI superpowers. China, Silicon valley and the new world order, New York, Houghton Mifflin Harcourt, 2018), Asia Society, 25 septembre 2018 ; Chen Hanghui, Intelligence artificielle : changer les règles du jeu de manière disruptive », [人工智能:颠覆性改变“游戏规则], China National Defense News, 18 mars 2018.

[37] State council, A next generation AI development plan, op. cit.

[38] Matt Schiavenza, China’s ‘Sputnik moment’ and the sino-american battle for AI supremacy, op. cit; Chen Hanghui, Intelligence artificielle : changer les règles du jeu de manière disruptive, op. cit.

[39] Ibid.

[40] Ibid. ; Lou Sijia, Sun Li, Peng Hongxia et Wang Liang, Congrès national des représentants, Liu Guozhi : L’intelligence artificielle va accélérer le processus de transformation militaire [人大代表刘国治:人工智能将加速军事变革进程], 8 mars 2018.

[41] John R. Searle, Minds, brains and programs, The behavioral and brain sciences, n° 3, 1980, p. 417-457 ; Nick Bostrom, Superintelligence: Paths, Dangers, strategies, Oxford, OUP, 2014.

[42] Chen Hanghui, Intelligence artificielle : changer les règles du jeu de manière disruptive, op. cit.

[43] Lou Sijia, Sun Li, Peng Hongxia et Wang Liang, Congrès national des représentants, Liu Guozhi : L’intelligence artificielle va accélérer le processus de transformation militaire », op. cit.

[44] Li Minghai, Mécanisme gagnant de la guerre intelligente, [智能化战争制胜机理], Front line magazine, 22 février 2019.

[45] Li Minghai, Quels sont les mécanismes gagnants dans la guerre intelligente ?, [智能化战争的制胜机理变在哪里], Le quotidien de l’armée populaire de libération, 15 janvier 2019.

[46] Ibid.

[47] Dean Chen, Winning without fighting: The Chinese psychological warfare challenge, Global Politics, 12 juillet 2013.

[48] Shen Shoulin et Zhang Guoning, Déclencher une nouvelle révolution militaire ? Six mots clés pour interpréter les opérations intelligentes, Le quotidien de l’armée populaire de libération, 1er mars 2018.

[49] Anika Binnendijk et al, Brain-computer interfaces. US military applications and implications, An initial assessment, op. cit., p. 21-28.

[50] Paul Scharre, A million mistakes a second. Ultrafast computing is critical to modern warfare. But it also ensures a lot could go very wrong, very quickly, Foreign Policy, 12 septembre 2018.