Inscrivez-vous à la newsletter

Robots et intelligence artificielle : quelle place pour l’homme dans les futures capacités militaires françaises ?

Mis en ligne le 03 Mai 2018

Source : CHEM

Olivier BEAURENAUT

Robots et intelligence artificielle : quelle place pour l’homme dans les futures capacités militaires françaises ?
Voir le profil

L’article aborde la question avec une double approche, celle du militaire en veille stratégique vis-à-vis de ruptures pouvant bouleverser l’art de la guerre, celle de l’ingénieur en veille technologique vis-à-vis des innovations susceptibles d’accoucher des capacités et services décisifs du futur. C’est bien à la croisée de ces deux exigences que s’inscrit cette analyse rigoureuse et prospective des conséquences de la révolution robotique et de l’intelligence artificielle dans les affaires militaires.


Les opinions exprimées dans cet article n’engagent pas le CSFRS.

Les références originales de ce texte sont : Olivier Beaurenaut, «Robots et intelligence artificielle: quelle place pour l’homme dans les futures capacités militaires françaises?», CHEM.

Ce texte, ainsi que d’autres publications peuvent être visionnés sur le site du CHEM : http://www.dems.defense.gouv.fr/chem/


Robots et intelligence artificielle : quelle place pour l’homme dans les futures capacités militaires françaises ?

 

 

La robotique correspond à la convergence de plusieurs domaines technologiques qui ne sont pas nouveaux : mécanique, électronique et télécommunications, technologies de l’information et intelligence artificielle. Née dans les années 1950, cette dernière a d’abord vu son développement contrarié par des puissances de calcul limitées malgré une croissance exponentielle suivant la loi de Moore. Ce n’est qu’à partir des années 1990 que les premiers systèmes intégrant une intelligence artificielle sont apparus au sein de systèmes experts, mono-tâche dans un premier temps. Les puissances disponibles et la miniaturisation des composants permettent aujourd’hui, pour un coût modique, d’intégrer des logiciels capables d’accomplir de plus en plus de tâches qui, jusqu’à présent, n’étaient réalisables que par l’homme.

Cette note vise à fournir un éclairage, le plus objectif possible, sur les enjeux, les débats, les opportunités et les risques liés à la robotisation des capacités militaires ; elle propose des actions pouvant contribuer à la définition et la mise en œuvre d’une stratégie robotique globale de défense. La description des technologies et de leurs développements a été volontairement exclue, afin de rester accessible à un public non scientifique. La perspective sur l’intelligence artificielle a été limitée à une quinzaine d’année, pour ne pas entrer dans les débats trans-humanistes sur des intelligences artificielles supérieures à l’homme[1], dont l’apparition est prédite au-delà de 2030.

Parmi les nombreuses définitions disponibles, le terme robot employé ci-après correspond à une machine disposant à la fois de moyens de perception de l’environnement (senseurs), de capacités de traitement de l’information (de calculs voire cognitives) et de moyens d’action sur son environnement. Cette définition a l’intérêt de ne pas fermer la question de la place de l’homme et de l’autonomie, ni de se limiter aux robots « physiques » : en effet, nous verrons plus loin que les questions attachées aux robots intervenant dans le champ informationnel ou immatériel présentent une criticité importante pour le domaine militaire.

 

LA QUATRIEME REVOLUTION INDUSTRIELLE EST EN MARCHE

Transformation importante et rapide du secteur civil

Le développement des véhicules autonomes, technologie dans laquelle s’engouffrent non seulement tous les constructeurs automobiles, traditionnels (Ford, BMW, PSA…) ou nouveaux entrants (Google, Tesla…), vient en premier à l’esprit quand il s’agit d’illustrer l’irruption de l’intelligence artificielle et de la robotique dans les activités humaines. Cette transformation, souvent qualifiée de « quatrième révolution industrielle », sera bien plus profonde que ses manifestations les plus médiatiques. Elle progresse déjà actuellement dans tous les secteurs de l’économie, y compris les plus inattendus comme en atteste par exemple l’adoption du robot Ross d’IBM dans les cabinets d’avocat ou dans le domaine de l’assurance.

De multiples études parues ces derniers mois mettent en évidence l’impact majeur prévisible sur les activités humaines : la numérisation pourrait concerner à terme plus d’un tiers des emplois des pays de l’Organisation de Coopération et de Développement Économiques (OCDE), et, d’ici 2020, nécessiter la reconversion de 7 millions d’emplois dans les pays développés.

Les précédentes révolutions industrielles (mécanisation ou communications par exemple) avaient profondément modifié le monde militaire. Il ne fait pas de doute qu’une fois encore, celui-ci se verra profondément impacté par ces transformations.


Malgré une longue histoire, des perspectives actuellement limitées dans le domaine militaire

Les premiers systèmes d’armes robotisés sont apparus il y a tout juste un siècle avec des prototypes d’engins télécommandés aériens, de surface ou terrestres testés à la fin de la 1ère guerre mondiale. Le secteur aérospatial a vu se poursuivre le mouvement au milieu du 20ème siècle, avec le développement des engins cibles issus notamment des technologies de missiles V1 et V2 (en France le CT10 à partir de 1946).

Ce n’est réellement qu’à partir de l’engagement israélien au Liban en 1982 que les drones ont commencé à trouver leur place dans les capacités militaires, en participant pleinement à la manœuvre aérienne dans la plaine de la Bekaa : utilisés pour la reconnaissance et le renseignement électronique, mais également pour stimuler les défenses, provoquer des tirs de missiles antiaériens syriens permettant aux chasseurs à capacités antiradar de riposter.

Les robots sont aujourd’hui devenus incontournables pour certaines capacités en opérations ; leur nombre et la fréquence de leur utilisation croissent rapidement dans l’ensemble des armées occidentales[2]. Ainsi, pour lutter contre les engins explosifs improvisés, la France a déployé en 2012 le robot Minirogen en Afghanistan. Dans la bande sahélo-saharienne, elle emploie ses drones Reaper au maximum des capacités des vecteurs et des équipages : le cap des 15 000 heures de vol cumulées a été franchi début 2016 (2 400 heures seulement en 2014). De manière moins visible, la marine nationale utilise depuis plusieurs années des engins robotisés pour la détection de mines sous-marines.

Au-delà de ces « robots physiques », des « robots informatiques » sont déjà opérationnels dans les forces. Les frégates françaises Horizon disposent d’un mode d’engagement totalement automatique pour l’autoprotection anti-missile, à l’instar du système Phalanx américain. Plus récemment, les logiciels de data mining se sont imposés dans le domaine du renseignement.

Malgré cette accélération récente, les perspectives à 15 ans de la robotique sur les grands programmes d’armement apparaissent encore assez limitées, sans comparaison avec l’explosion en cours dans le secteur civil. Dans le domaine terrestre, une robotisation significative ne semble accessible qu’au-delà de 2025 dans de futures étapes du programme Scorpion. Dans le domaine aérien, les travaux de conception d’un prototype d’aéronef de combat non habité débutent à peine (projet FCAS – future combat air system – franco-britannique). Enfin, si les avancées sont réelles pour le naval avec le lancement en 2016 du programme de guerre des mines futur (programme SLAMF  – système de lutte anti-mines futur – qui intègrera plusieurs systèmes robotisés de surface et sous-marins dont un prototype est en cours de réalisation en coopération franco-britannique), les frégates de taille intermédiaire (FTI) constitueraient a contrario une régression du point de vue de l’automatisation, tout en répondant à un besoin de soutenabilité sur le plan des ressources humaines (équipage probablement plus nombreux que celui des frégates multi-missions FREMM conçues à partir du début des années 2000).

D’ici une quinzaine d’années, le paradigme qui prévalait d’excellence technologique des capacités militaires par rapport aux produits de grande consommation pourrait se trouver totalement inversé.

 

Evolution des rapports de force et fin de la suprématie des grandes nations occidentales

Le développement de la robotique et de l’intelligence artificielle vient remettre fortement en question un des fondements de notre puissance militaire : notre modèle, calqué sur celui des Etats-Unis, repose notamment sur notre supériorité technologique.

La première raison est le caractère naturellement proliférant des technologies du numérique, qui ne nécessitent pas, pour être implémentées, les savoir-faire spécifiques détenus par une base industrielle de défense, qui sont parfois non « documentables » ou numérisables et dont la transmission passait jusqu’à maintenant essentiellement par le transfert d’expérience[3].

Les logiciels sont par nature proliférants (ils peuvent être transférés aisément et dupliqués à l’infini). En outre, toutes les briques nécessaires pour réaliser des robots autonomes seront accessibles dans le monde civil : en caricaturant à peine, les briques logicielles et les capteurs des voitures autonomes permettront d’appréhender l’environnement, d’assurer la mobilité et de déterminer des itinéraires, y compris en milieu non coopératif ou variable ; les moteurs de jeux vidéo permettront d’élaborer des stratégies victorieuses, ainsi que des modes et lignes d’action face à un adversaire non coopératif comme c’est déjà le cas pour les jeux d’échec ou de go ; les drones du commerce quant à eux permettront de disposer des liaisons de données et traitements vidéo nécessaires pour l’appréciation de la situation, de l’environnement, ainsi que les communications. Ceci sans parler de la facilité à fabriquer les robots par impression 3D, ou à les armer : explosifs, armes, générateurs de signaux pour le brouillage étant aisément accessibles.

La seconde raison mettant à mal l’excellence technologique française est liée à notre capacité à investir suffisamment dans ces technologies pour ne pas se faire très rapidement distancer : le budget fédéral américain a consacré en 2014 près de 400 M$ aux investissements dans le domaine de l’intelligence artificielle, huit fois plus qu’en 2012 et, parmi les 18 Md$ qui doivent être consacrés aux nouvelles technologies pour la défense, 3 Md$ devraient être consacrés au seul sujet de la coopération homme machine sur les 5 prochaines années. Les Etats-Unis ne sont pas les seuls à s’engager massivement dans cette transformation. Au niveau mondial, le nombre de publications dans le seul domaine du deep learning[4] a été multiplié par douze entre 2012 et 2015. Depuis 2014, la Chine a dépassé en volume les Etats-Unis dans ce domaine : elle publie dorénavant presque dix fois plus que la France, et a prévu de consacrer 13 Md€ d’ici 2019 à l’intelligence artificielle[5].

La France pourrait fort bien se trouver avant dix ans en position de forte asymétrie technologique face aux Etats-Unis et la Chine. Conséquemment, elle pourrait le devenir également face aux pays constituant leurs marchés export. L’accessibilité importante de ces technologies pourrait en outre nous amener en position de symétrie technologique ou de faible avantage face aux organisations non étatiques de type terroriste utilisant des technologies civiles.

 

LES OPPORTUNITÉS DE LA ROBOTIQUE ET L’INTELLIGENCE ARTIFICIELLE POUR L’ACTION MILITAIRE

Les robots confrontés aux principes de la guerre et à son évolution

Si jusqu’à présent, l’introduction des robots dans les capacités militaires a été limitée à la seule volonté d’affranchir l’homme de certaines tâches précises liées à des situations répétitives ou dangereuses[6], la robotique et l’intelligence artificielle vont en réalité modifier bien plus profondément et globalement notre stratégie, notre modèle d’armée, voire les modalités et les fondements de l’action militaire, de l’usage légitime de la force.

En effet, confrontés aux principes traditionnels de la guerre, l’intelligence artificielle et les robots sont susceptibles de présenter des progrès importants par rapport aux capacités traditionnelles en termes d’économie des moyens (optimisation des dispositifs en qualité et quantité sur la base de nombreuses simulations d’engagement et de désengagements, capacité accrue de renseignement…), de concentration des efforts (réunion des forces et synchronisation des actions, fulgurance des effets via le réseau, rapidité de traitement des informations et de conduite de l’action…) et de liberté d’action (mobilité affranchie des capacités physiques humaines, …).

Au-delà de ces progrès potentiels qui relèvent de la tactique, c’est bien plus en terme de stratégie que ces technologies démontreront tout leur intérêt et constitueront un game changer. Elles ont ainsi été placées au cœur de la stratégie américaine du Third offset, élément majeur de l’initiative d’innovation de défense américaine lancée en 2014 : il s’agit en particulier de contrer les capacités croissantes, russes et chinoises, de déni d’accès et d’interdiction de zone, ainsi que de pouvoir faire face au volume important de forces militaires que la Chine est capable d’opposer. Quant aux robots numériques opérant dans le domaine du cyber, sur les médias numériques et réseaux sociaux, ils offrent de nouvelles possibilités de gagner la guerre, sans engagement cinétique, et sont d’une importance majeure dans les doctrines de guerre hybride.

Confrontés aux évolutions récentes de la guerre et aux leçons stratégiques qui peuvent aujourd’hui être tirées, les robots pourraient également constituer une réponse globale, pour affronter les quatre évolutions majeures des engagements : durcissement, digitalisation, distances, durée (4D).

Le domaine de la robotique n’est pas liée à un milieu : des robots peuvent opérer sur terre, mer et dans les airs. Ils ne sont pas limités par l’hostilité des milieux sous-marins et l’espace, dans lesquels ils sont déjà présents. Ils se développent naturellement dans l’espace numérique (cyber). La robotique peut ainsi être un outil de mise en œuvre de stratégies globales et polyvalentes, y compris dans le champ des perceptions avec les robots numériques interactifs (chatbots).

Les robots semblent en outre à même de compléter des capacités traditionnelles numériquement contraintes par la ressource financière ou humaine, afin de satisfaire le besoin du nombre qui résulte à la fois de la taille inédite depuis la seconde guerre mondiale des théâtres d’opérations (exemple de la bande sahélo-saharienne), du besoin de compenser la diminution du format des armées accéléré depuis l’abandon de la conscription et la fin de la guerre froide. En l’espèce, les robots compenseront la diminution de la densité humaine d’occupation militaire[7] et n’ont pas de limite autre que celles de leurs batteries (domaine dans lequel le monde civil apportera sans nul doute des gains de performances majeurs ces prochaines années) pour durer sur le terrain.

Ils permettront de compenser l’aversion croissante au risque de notre société, d’éviter les pertes humaines susceptibles de mettre à mal la résilience de la nation et donc la volonté politique. Les robots pourront constituer la nouvelle « chair à canon » nécessaire pour combattre dans les milieux difficiles et dangereux, face à un adversaire mettant en œuvre des modes d’action d’une violence exacerbée et faisant preuve d’un niveau de détermination maximal allant jusqu’au suicide. Ils offrent vitesse et précision à des niveaux inégalables par l’homme, réduisant par la même occasion le nombre des soldats et pilotes exposés à la mort ou aux blessures de guerre. Ceci est d’autant plus important que le risque augmente dans tous les milieux : les avions de combat voient leur impunité et leur liberté d’action contrariées par les capacités A2AD (Anti-Access – Area Denial) ; la zone urbaine, particulièrement meurtrière pour le fantassin, (re)devient un lieu d’affrontement habituel des forces terrestres ; les capacités militaires navales de surface et sous-marine se banalisent dans le monde. En sauvant des vies[8], les robots seraient ainsi à même de préserver ce qui constituerait la principale vulnérabilité de nos forces, le centre de gravité ami[9].

 

Les avantages des robots militaires sur le soldat

Contrairement à l’homme, les robots n’ont pas faim, n’ont pas peur, n’oublient pas les ordres et ne sont pas influençables par les pertes ou le niveau de danger. Ils ouvrent la voie à un dépassement des limites de l’homme au combat au profit de l’efficacité militaire. En mesure d’agir « à la vitesse de l’électron » et non plus limités par nos capacités cognitives, ils s’imposeront dès lors que l’accélération du tempo ne laissera plus de place à l’homme. Dans un monde de plus en plus numérisé et connecté, ils sont seuls à même de mobiliser et d’accéder rapidement aux données de masse. Ils pourraient permettent enfin de mettre en oeuvre des capacités tactiques « inhumaines », telle que la modification de forme ou d’échelle[10].

En termes d’entraînement, l’apprentissage d’un robot est naturellement en progression continue (par enrichissement d’une expérience digitalisée) et quasi instantané (par mise à jour logicielle), alors que la transmission de l’expérience, imparfaite, est à recommencer à chaque génération de soldat ou d’officier et nécessite des durées importantes de formation.

 

Les robots comme opportunité pour maintenir un modèle d’armée dans un budget contraint

Comment, dans la durée, maintenir des capacités de haut niveau en conservant un niveau de dépenses de défense acceptable, alors que le coût des systèmes d’armes, à quelques exceptions près, bondit à chaque nouvelle génération ?

Pour Peter Warren Singer, spécialiste américain de la guerre moderne, le coût de déploiement d’un soldat (1 M$ par an entraînement compris) était en Afghanistan considérablement plus élevé que celui d’un robot. L’introduction de robots aura un effet à la baisse sur les dépenses budgétaires liées à l’homme ou à son activité, en volume mais également par recours accru à la simulation pour l’entraînement. Or, l’ensemble constitué par la masse salariale, l’activité opérationnelle et l’entretien programmé des matériels représente une part significative de notre budget de la défense (environ 40%). L’effet sur les pensions (de l’ordre de 10 Md€ par an) est également à prendre en compte dans cette équation.

Sur les dépenses d’équipements de défense, des effets positifs sont possibles par simplification et allègement des systèmes par rapport aux plateformes habitées (gain de charge utile mais également d’équipements d’accueil des servants et équipages). En outre, la réutilisation de technologies développées par le secteur civil permettra de limiter l’effort de R&D à leur seule adaptation aux besoins de la Défense.

 

Des technologies dont nous sommes encore loin d’avoir perçu tout le potentiel

« Avant qu’une arme nouvelle ne parvienne à son plein épanouissement, son emploi connaît plusieurs stades : le premier est celui d’auxiliaire modeste des armes en places. […] Au deuxième stade de son développement, l’arme nouvelle est admise à l’intervention directe dans le combat […]. Au troisième et dernier stade, [elle] s’est créée ses missions propres qui n’ont plus qu’un rapport indirect avec la conduite des opérations telle qu’on la concevait antérieurement à sa naissance[11] ».

S’il est difficile de prévoir a priori les usages de nouvelles technologies, cette difficulté est exacerbée pour la robotique et l’intelligence artificielle, dont les recherches foisonnent tous azimuts aujourd’hui. Il est par exemple frappant de constater que les concepts envisagés en France pour les futures applications militaires sont limités par rapport à l’ampleur des champs explorés par la recherche.

Les perspectives actuelles de robotique militaire, quand elles ne concernent pas une « niche » (contre-IED par exemple), sont pour l’essentiel fondées sur les technologies d’autonomie décisionnelle centralisée, sur les communications et la fusion des informations. Ce concept de robotique, prolongement naturel de nos plateformes de combat aux systèmes centralisés et mettant en oeuvre de nombreux capteurs et effecteurs, est décrit par P. W. Singer qui le nomme Mothership. Fondé sur la concentration de la puissance de feu, le pouvoir de décision repose sur des manœuvres mécaniques, l’allocation de ressources s’effectue en mode point and click.

A l’inverse, les réflexions sur les intelligences distribuées et les concepts d’essaim (Swarm) sont en France limitées à quelques recherches académiques (travaux sur les algorithmes de meutes de drones sous-marins par l’ENSTA Brest par exemple), alors que l’US Air Force expérimente déjà des démonstrateurs d’essaims d’une centaine de mini drones aériens. Elles correspondent cependant à des tactiques militaires bien connues et à l’efficacité éprouvée : tactiques de guérilla employées par Lawrence d’Arabie, attaque en meute des convois de l’Atlantique par les U-Boot… Les caractéristiques militaires de ce concept d’essaim sont radicalement différentes du précédent (action d’ensemble pouvant être peu lisible par l’adversaire, flexibilité et robustesse intrinsèque aux pertes de combat, grande zone d’action, « mise à l’échelle », c’est-à-dire capacité à fonctionner quelle que soit sa taille…). Il en est de même des technologies nécessaires (robots moins sophistiqués, moins performants ou mono tâche, communications et moyens de détection locaux, limités aux drones voisins). Le développement important d’un concept similaire dans le domaine de l’observation spatiale (constellations importantes de microsatellites susceptibles de concurrencer les gros satellites d’observation traditionnels) devrait nous faire nous interroger sur la nécessité d’élargir la recherche à des concepts non traditionnels.

Ainsi, s’il n’est pas possible aujourd’hui de percevoir l’ampleur des apports de la robotique sur les capacités militaires, il est primordial de ne pas considérer le domaine comme un ensemble monolithique. Compte tenu du rythme actuel des progrès technologiques, il s’agit au contraire d’intégrer à nos réflexions la diversité des technologies émergentes. Se limiter aux applications les plus évidentes nous fait sinon courir le risque de passer à côté de futures « révolutions dans les affaires militaires ».

 

DES RÉTICENCES ET OBJECTIONS PARFOIS INFONDÉES, SINON SUJETTES A DÉBAT

Pertinence des réticences morales ou éthiques ?

Les robots ne constituent pas des armes classiques opérées par l’homme : acteurs du champ de bataille, ils sont susceptibles de se substituer à un être humain. L’autonomie décisionnelle et l’autoapprentissage font par contre surgir le spectre d’une perte de contrôle.

La question du caractère immoral du développement et de l’acquisition de nouvelles armes s’est posée à plusieurs reprises au cours de l’histoire en Occident. L’interdiction de l’usage de l’arc et de l’arbalète en 1139[12] ne fut aucunement respectée lors des conflits qui suivirent. De même, les prises de position des évêques d’Orléans et de Verdun en 1973 montrent que les oppositions à la dissuasion nucléaire continuèrent à être vives dix ans après sa mise en place en France, mais sans effet[13].

Il est peu probable que les débats actuels sur la limitation pour raisons morales des drones militaires, soupçonnés de déshumaniser la guerre, soient conclusifs, dès lors qu’une telle limitation, de même que pour l’arbalète, ne saurait être universelle. En effet, la question ne semble pas se poser en Orient par exemple, probablement du fait d’une distinction moindre entre les êtres animés et les objets inanimés. Le Shintoïsme et le Bouddhisme semblent en effet favoriser naturellement l’intégration des robots dans la société, ceux-ci faisant partie de l’ordre naturel des choses, faisant même parfois l’objet de rites funéraires. De plus, la prolifération des technologies étant inéluctable et renforcée par leur diffusion pour des applications civiles, une telle restriction s’opposerait à la justice ou l’équité, valeurs fondamentales de la morale. Enfin, il est curieux de constater qu’alors que le débat est intense sur les robots armés autonomes qui n’existent pas encore, il n’a jamais eu lieu véritablement concernant l’usage d’animaux – avéré ou potentiel – par les russes (« chiens antichar » de la 2nde guerre mondiale, « dauphins de combat » actuels).

En réalité, la qualité d’agent moral ne se pose pas pour le robot dès lors qu’on exclut l’hypothétique « Singularité » qui le doterait d’une conscience. D’un point de vue philosophique, même si le robot autonome peut sous certains aspects ressembler au mercenaire ou à l’animal domestiqué, il ne pourrait être maître de ses actes puisqu’il dépend de sa programmation. Il serait en outre incapable de l’empathie résultant de la transposition à autrui d’un instinct de survie, nécessaire pour générer une morale.

Sur la question de l’éthique, les débats actuels sont très intenses et focalisés aussi sur les systèmes d’armes létaux autonomes (SALA), qualifiés de « robots tueurs ». A grand bruit, de nombreuses personnalités reconnues, incluant Elon Musk et Stephen Hawking, ont demandé récemment leur interdiction. On peut évidemment s’interroger sur les raisons d’un tel geste, pouvant être motivé, par corporatisme des chercheurs roboticiens ou par mercantilisme des industriels du secteur, par une volonté de ne pas freiner le développement de la robotique civile : les robots militaires pouvant lui conférer une image négative. Mais les arguments de fond invoqués sont également sujets à caution : la volonté d’éviter une nouvelle course aux armements est un vœu pieu ou susceptible de désavantager les Etats de droit, la robotique militaire n’ayant que peu de spécificités par rapport à la robotique civile. De même, bien que certains considèrent les robots comme une nouvelle catégorie d’armes de destruction massive – considérant qu’un niveau d’autonomie suffisant permettrait à un faible nombre d’opérateurs de provoquer des destructions importantes en dirigeant une myriade de robots – ce risque ne saurait être maîtrisé par une mise au ban. La facilité d’accès ne permet en effet pas d’appliquer les recettes qui sont efficaces en termes de lutte contre la prolifération nucléaire. Plus généralement, on peut s’interroger sur l’efficacité d’une interdiction dans un contexte de délitement du droit international (emploi de l’arme chimique en Syrie, annexion d’îlots en mer de Chine, remise en cause des frontières en Europe…).

Penser que le robot autonome puisse être un agent éthique serait également une erreur. Une vision anthropomorphique de l’éthique conduit en effet à exclure cette possibilité, le manque de créativité du robot ne lui permettant pas de sortir de sa programmation. Les règles prédéfinies seront toujours insuffisantes, de même que les lois n’ont pas fait disparaître le juge[14].

Le robot ne serait ainsi pas immoral mais amoral, et aussi incapable d’éthique qu’une flèche ou qu’un missile.

Néanmoins, ceci ne signifie pas que le comportement des robots ne puisse pas être maîtrisé pour retranscrire la morale et l’éthique de leurs concepteurs. De nombreux travaux sont en cours[15], visant à la définition de réels algorithmes de gouvernance : leur complexité ira croissant au fur et à mesure qu’il faudra tenir compte d’environnements et de situations variés afin d’imiter plus fidèlement l’homme. En outre, les acteurs français de la recherche académique, incluant le commissariat à l’énergie atomique et aux énergies alternatives (CEA) et l’office national d’études et de recherches aérospatiales (ONERA), ont récemment proposé des modalités d’intégration des considérations liées à l’éthique dans les projets robotiques et ont mis en évidence le besoin de sensibiliser et d’accompagner les équipes de recherche sur le sujet. Cette stratégie apparaît préférable à l’imposition de règles ou normes éthiques qui seraient mal acceptées ou stérilisantes pour l’innovation. Elle pourrait être envisagée pour les projets de défense.

 

Les robots posent-ils des questions juridiques ?

Les travaux visant à la mise en place d’un cadre juridique spécifique pour les robots militaires ont débuté. Les débats se focalisent là aussi uniquement sur la question de l’interdiction des systèmes d’armes létaux autonomes, avec un engagement fort des organisations non gouvernementales (ONG) depuis plusieurs années en faveur d’une interdiction (en premier lieu Amnesty International et Human Rights Watch). Cette pression a conduit au lancement d’une réflexion informelle dès 2014 sous couvert de l’ONU, dans le cadre de la convention sur certaines armes classiques (Certain Conventional Weapons ou CCW). Fin 2016, un groupe d’experts a été officiellement créé pour deux ans. L’objectif visé et l’issue restent incertains : une vingtaine d’Etats se sont d’ores et déjà prononcés pour une réglementation internationale. Les membres permanents occidentaux du conseil de sécurité quant à eux souhaitent orienter les travaux vers le partage des bonnes pratiques et la transparence sur les modalités de prise en compte des aspects juridiques dans l’acquisition des nouveaux armements.

Le premier problème posé par ces travaux est la possibilité de la mise en place d’un droit international a priori spécifique pour de nouvelles armes, ce qui serait une première. Encore très fantasmés, il est difficile d’anticiper ce dont seront réellement capables les robots autonomes militaires, quels seront leurs usages et les contextes dans lesquels nous pourrions ou devrions y avoir recours, avec le risque de mettre en place un droit inadapté. De même, la vitesse d’évolution du monde et le risque de résurgence de dangers inédits à l’horizon de 15 ans (horizon crédible de généralisation de certains types de robots militaires) incitent à la prudence et à relativiser l’intangibilité du droit par rapport aux circonstances[16].

La raison originelle invoquée par les ONG favorables à une interdiction est le manque actuel de clarté sur les chaînes des responsabilités dans l’emploi des robots armés, l’absence de responsabilité pouvant faciliter l’usage illégitime de la force voire les comportements inhumains ou non conformes aux règles du droit international. Or, il ne fait pas de doute que des clarifications seront rapidement apportées par le secteur civil, car elles sont nécessaires pour le développement des marchés, tel que celui des voitures autonomes (responsabilités entre le concepteur, le programmeur, le propriétaire, l’opérateur…). Il est possible d’ailleurs qu’elles s’inspirent du droit appliqué sur les dommages causés à autrui par les animaux de compagnie.

La nécessité de compléter le droit international est également discutable : rien ne permet pour l’instant d’affirmer avec certitude que le droit existant est insuffisant et il ne semble pas apparaître d’incompatibilité a priori entre les robots et le droit de la guerre (ou droit de la Haye[17] ) ou le droit humanitaire[18]. Sous réserve d’une programmation adéquate, il n’y a pas d’obstacle technique insurmontable à l’implémentation des obligations de protection des civils et des combattants, et en particulier l’interdiction de « ne pas faire de quartier[19] ».

Certains auteurs vont même au-delà. Plutôt que de voir les robots comme un problème possible pour le respect du droit international, certains mettent au contraire en avant des avantages indéniables en termes de respect des trois principes fondamentaux des conflits armés : humanité, discrimination et proportionnalité. On peut en effet considérer que les robots sont plus précis et prédictibles que l’homme, ne connaissent pas l’esprit de vengeance. Ils pourront être astreints à des règles d’engagement plus contraignantes que les hommes (par exemple n’ouvrir le feu qu’en riposte, même si cela conduit à un risque de perte plus élevé), ils disposeront de capacités sensorielles supérieures à l’homme (caméras numériques avec zoom de grande performance, caméras thermiques…).

Quant à la question de l’impossibilité pour un robot d’appliquer « le principe d’humanité dans l’acte de guerre » (clause dite de Martens[20] ), elle dépasse largement le seul champ juridique et doit être considérée sous l’angle philosophique, de la psychologie ainsi que des neurosciences. Le débat ne peut se limiter à ne voir que l’inhumanité du robot sans aborder également l’humanité de l’être humain lui-même. Les écrits d’Hannah Arendt à la suite du procès d’Eichmann[21], les comptes rendus des expériences de Milgram[22] ou de Stanford[23] mettent en évidence la relativité de l’humanité de l’individu et de sa capacité à distinguer le bien du mal, en particulier dans des contextes autoritaires, agressifs ou en situation de stress. Ils relativisent le risque de « bulle de technologisation » qui serait susceptible de conduire à des comportements immoraux, conscients ou non, par les opérateurs de robots[24]. A l’extrême, le robot pourrait même être considéré comme un rempart contre l’inhumanité : surveillant l’homme combattant à côté de lui, il pourrait le dissuader d’avoir des comportements déviants pouvant être liés aux traumas subis pendant l’action (pertes amies, stimuli…).

 

Les robots facteurs de banalisation de la guerre et d’augmentation et de la violence ?

Les effets des innovations technologiques dans le domaine de l’armement ne se limitent pas aux affaires militaires mais transforment également les relations internationales, les sociétés. De Cortès à Lyautey, la poudre et la mécanisation ont ainsi été décisives pour les colonisations. L’arme nucléaire a été au centre des relations Est-Ouest de l’après-guerre. Les nouveaux armements peuvent dissuader de la guerre, mais aussi inciter à la déclarer.

Les ONG hostiles aux robots, mais également certains auteurs, pointent que les robots sont une nouvelle étape dans l’éloignement progressif entre l’armée et la nation qui s’est amplifié depuis la professionnalisation, entraînant par rebond une distanciation du politique. Ils considèrent que celui-ci serait alors plus enclin à décider de l’usage de la force armée, décision plus facile et moins risquée politiquement compte tenu de la réduction du risque de perte humaine. La guerre se verrait en quelque sorte vidée de sa signification politique, banalisée : l’armée ne serait plus l’Ultima ratio. Ces raisonnements, théoriques car fantasmant une hypothétique armée totalement robotisée, apparaissent totalement déconnectés de la réalité : les armées n’ont eu de cesse d’utiliser la technologie pour proposer au politique des modes d’action permettant d’éviter les pertes et d’opérer le plus impunément possible : les vols d’U2 au-dessus de l’URSS auraient-ils eu lieu si l’avion n’avait pas été hors de portée des défenses ? La France aurait-elle planifié une frappe de missiles de croisière en Syrie en 2013 en rétorsion à l’usage d’armes chimiques si le risque de perdre des pilotes avait été important ? La robotique militaire ne changera pas la nature de la guerre, qui restera un choc des volontés ; par contre les robots nous permettront de conserver notre liberté d’action, en limitant le risque de pertes amies.

Dans le cadre d’engagement asymétrique, il est souvent évoqué par les détracteurs que l’effet sur l’ennemi des robots serait délétère pour notre population, en reportant sur elle les attaques d’un ennemi vengeur devenu impuissant à nous occasionner des pertes. Il est aussi reproché que l’efficacité de l’action militaire serait amoindrie par la robotique, compte tenu de l’image de lâcheté qu’elle véhiculerait, incitant l’ennemi à poursuivre le combat. Antonin Tisseron souligne que cette idée est depuis longtemps utilisée dans la propagande des Talibans et de leurs alliés. C’est faire un faux procès aux robots : l’adversaire asymétrique est déjà impuissant contre nos drones et avions de chasse, et nous n’avons de cesse d’améliorer le blindage de nos véhicules. En réaction, il déploie d’ores et déjà des modes d’action terroristes, tant contre les forces sur le terrain que contre les populations civiles. Encore une fois, ce n’est pas aux robots qu’il faut attribuer ces risques mais à notre modèle occidental de supériorité technologique. En engagement asymétrique, le robot est la continuation d’un modèle créant entre nous et notre adversaire les conditions d’une asymétrie du risque (pertes matérielles encourues contre pertes humaines), indispensable pour ne pas être amené à l’inaction quand il y a asymétrie des enjeux (expédition extérieure contre guerre existentielle).

Dans le cadre d’engagements symétriques, les robots augmenteront la résilience de notre volonté tout en diminuant celle de l’ennemi. Un belligérant équipé de robots disposera en effet d’avantages décisifs face à son adversaire qui verrait son potentiel militaire plus durablement atteint par les pertes, mais également sa volonté et son moral plus durement ébranlés par les pertes humaines consenties jugées de valeur bien supérieures aux pertes matérielles occasionnées.

La question qui reste à traiter sur l’impact au niveau stratégique de la robotique est son effet sur le règlement des conflits. Les robots, seuls, seront en effet incapables de « gagner la paix », dès lors que le centre de gravité ennemi sera le soutien que lui apporte la population locale et qu’il s’agira de gagner « les cœurs et les esprits ». Dans le cadre des opérations de contre insurrection, l’effet de distanciation créé par rapport à la population peut être contreproductif.

Nos réflexions sur la place des robots au sein des capacités militaires devront ainsi tenir compte de la nécessité de conserver le point fort du modèle français qui place depuis longtemps le contact humain et le soldat au centre de la guerre « au sein des populations ».

 

PILOTER LA TRANSFORMATION ET MAÎTRISER LES RISQUES

L’introduction d’une part croissante d’éléments robotiques dans nos capacités militaires est inéluctable et a déjà débuté. Il en sera de même de l’intelligence artificielle, indispensable pour limiter le besoin en servants et dès lors que la charge cognitive sera trop importante pour l’homme, les temps de réflexion trop contraints ou qu’il sera nécessaire de pallier la vulnérabilité aux communications (vulnérabilité des systèmes au déni de spectre électromagnétique).

Pour se préparer à cette transformation, une réflexion globale doit être menée. Les éléments ci-après portent sur les axes de travail apparus, à l’issue de l’étude menée, les plus urgents à ouvrir, sans souci d’exhaustivité ni prétention que d’autres questions d’importance supérieure puissent résulter d’une analyse plus approfondie.

Il apparaît en premier lieu nécessaire de rassurer et lever les réticences initiales naturelles, en maîtrisant les vulnérabilités nouvelles et en objectivant la place à laisser pour l’homme, dans un esprit de complémentarité. Il sera également nécessaire de créer les conditions favorables au développement des futures capacités robotisées, d’adapter nos méthodes et d’intégrer les nouveaux acteurs nécessaires.

 

Anticiper et se prémunir des vulnérabilités (ou des limitations)

Le risque d’une perte de contrôle des systèmes numériques est réel. Celle-ci peut être le fait d’une action de l’adversaire, tel que le détournement en 2007 par les Tamouls d’un satellite Intelsat. Elle peut également être involontaire, liée à une erreur humaine comme cela été le cas lors de plusieurs alertes nucléaires américaines dans les années 1970-80[25], ou bien résulter d’un manque de maîtrise de la technologie, illustré par les dérives d’un chatbot de Microsoft en 2016[26].

L’enjeu sera, au-delà de la mise en place de dispositifs de protection comme cela est fait classiquement, de chercher à limiter les effets d’un inéluctable piratage ou bug. Dès la conception, la possibilité de barrières physiques sur le robot pourra être envisagée (limitations sur le rayon d’action, la vitesse ou la charge utile par exemple). De même que pour la programmation de règles éthiques ou juridiques, des algorithmes de gouvernance pourront aussi limiter les actions ou cadres d’emploi autorisés en implémentant des règles d’engagement, y compris pour les systèmes à forte autonomie. Ces règles pourront être simples (inaction en situation non connue ou conforme, action limitée aux véhicules ou systèmes d’armes, tir uniquement en riposte, kill boxes,…) ou plus complexes (à l’exemple des trois lois de la robotique définies par l’auteur de science-fiction Isaac Asimov[27] ).

Au-delà des robots physiques, cette logique de limitation des effets non désirés pourrait être à appliquer également aux logiciels opérationnels. En effet, les systèmes d’intelligence artificielle se développeront également dans les systèmes d’information et les logiciels d’aide à la décision. Il conviendra d’être vigilant sur la gravité des risques encourus en cas de mauvais fonctionnement voire, si nécessaire, de limiter volontairement l’interconnexion des réseaux pour limiter l’impact.

Le niveau de souveraineté à atteindre sur les intelligences artificielles doit également être défini. Si cela s’avérait nécessaire, l’internalisation d’une partie de la recherche et technologie (R&T), voire la réalisation de certains développements in house au sein du ministère de la défense pourrait s’avérer nécessaire (comme c’est le cas à DGA/Maîtrise de l’Information pour une partie des activités de cyber).

 

Définir la place de l’homme

Le combattant humain ne va pas disparaître. En revanche, le monopole des actions de guerre, incluant le droit de vie et de mort, sera à l’avenir partagé entre l’homme et le robot. Ceci amène le militaire à des réticences naturelles pouvant conduire au rejet. Cette évolution pourrait aussi être perçue comme une contestation de sa « légitimité qui s’appuie sur une spécificité : le militaire se doit au final de mettre sa vie en jeu[28] ». Si cette question de la place laissée au militaire est exacerbée quand il s’agit de robots, on pourra néanmoins noter qu’elle se pose déjà avec l’importante « civilianisation » de domaines tels que le renseignement.

Afin d’objectiver cette question et sortir de l’émotion, un audit global des métiers et fonctions au sein des armées permettrait de définir et distinguer, à l’instar des études réalisées dans l’industrie, ceux qui pourraient être remplacés par des robots de ceux qui devront s’adapter à leur présence. Se poser la question systématique de la possible robotisation permettra de faire émerger les places et les fonctions pour lesquelles l’homme est indispensable.

La catégorisation est parfois assez intuitive : une partie des fonctions de reconnaissance semble déjà faire partie de la première catégorie (drones) de même que certains métiers de la logistique, très similaires à des métiers du civil en cours de transformation (fret, manutention…). A contrario, une place devra être préservée pour l’homme pour les opérations spéciales (adaptabilité) et pour les opérations de contre insurrection (au contact des populations),.

Dans le domaine des systèmes d’aide à la décision, si des fonctions tactiques, souvent au champ d’action restreint, seront probablement numérisables, des limites existeront pour les outils de planification opérationnelle ou d’aide à la décision. En effet, il s’agira de ne pas être prévisible et de conserver la créativité nécessaire pour appréhender des contextes toujours très différents, des situations inédites, ce qui est peu compatible avec l’auto-apprentissage[29].

Un audit sur les activités humaines devra également permettre de mettre en évidence les niveaux d’autonomie à viser pour les robots, en fonction des domaines. Cette démarche devra être conduite sans tabou. Si la place de l’homme en supervision est un objectif général à rechercher, celui-ci ne sera un jour plus pertinent confronté à de nouvelles armes trop rapides, trop nombreuses ou opérant dans un environnement trop complexe : bien que les doctrines actuelles française ou américaine soient de conserver l’homme dans la boucle pour la décision de vie ou de mort[30], il est peu probable que cette limite reste en place lorsque le tempo de l’engagement sera incompatible avec la vitesse de réflexion.

 

Travailler la complémentarité Homme – robots

La complémentarité entre le robot et le soldat est au cœur de la stratégie américaine du Centaure. Celle-ci met en avant le contrôle par l’homme, secondé par des armes autonomes lui permettant de se concentrer sur ses points forts par rapport au robot : le bon sens, la créativité, les capacités de résolution de problème et d’adaptation (les intelligences artificielles semblent avoir des difficultés pour accomplir les tâches que les hommes – ou les animaux – réalisent sans réfléchir…). Il ne s’agirait donc pas de remplacer l’homme mais de le placer au centre, d’exploiter l’efficacité tactique du robot pour augmenter l’ingéniosité stratégique humaine. Ce concept du Centaure doit permettre, en outre, de tirer parti de l’avantage des armées occidentales, en faisant la synthèse entre supériorité technologique et supériorité dans la subsidiarité des chaînes de commandement, à comparer aux systèmes très centralisés des armées russes ou chinoises.

Un autre élément majeur de complémentarité homme-robots est la différence de rapport au temps entre l’homme et la machine. Si au niveau tactique la fulgurance est un atout, ce n’est pas nécessairement le cas au niveau stratégique ou politique où la lenteur humaine peut être un avantage. Le risque d’emballement d’intelligences artificielles, en particulier si elles sont mises en réseau, est incompatible avec la possibilité d’éviter l’escalade de la violence. Il peut également être plus efficace, dans le souci qui doit être constant de « gagner la paix » (et non uniquement la guerre), d’octroyer une pause pour l’action diplomatique, voire de renoncer temporairement à la force brutale ou faire preuve de compassion pour l’adversaire. Dans ces moments décisifs pour la suite des opérations ou le règlement d’un conflit, conserver l’homme au centre est nécessaire.

 

Faciliter l’acceptabilité

L’inconscient collectif occidental est alimenté par les œuvres de science-fiction bien souvent associées à des catastrophes liées à la perte de contrôle des robots par l’homme, malgré ses efforts pour définir des règles, par accident ou naïveté (films Wargames, saga Terminator…). Mais ceci n’est pas spécifique des robots : la technologie en général est souvent présentée comme le facteur de supériorité du « méchant » (dans Star Wars la technologie est dans le camp de l’Empire et les valeurs humaines dans celui de la rébellion).

La communication peut contribuer à compenser cette « peur de la modernité », survenue à de nombreuses reprises dans l’histoire des technologies. Afin de faciliter l’acceptabilité des robots militaires, les acteurs étatiques et industriels de la défense pourront intégrer dans leurs projets de robotique une analyse des effets sociétaux sur l’opinion publique et des actions (de communication, maîtrise de l’impact dans le champ des perceptions : iconographie, forme et apparence des robots…) qui permettent de faciliter l’acceptation. Des réflexions sont déjà en cours au sein du GIFAS[31].

A court terme, comme le demandent également de nombreuses voix pour des raisons d’efficacité opérationnelle et d’économie des moyens, l’intégration d’un armement aux drones français actuellement en service, bien que ceux-ci ne présentent aucun niveau d’autonomie, contribuerait également à faire accepter les robots militaires, par effet progressif d’accoutumance.

Enfin, comme le constate Antoine Petit, président directeur général de l’institut national de recherche en informatique et en automatique (INRIA), l’informatique souffre d’une illusion de familiarité – « tout le monde maîtrise Windows » – qui limite le recours au spécialiste, nécessaire pour élaborer des avis et opinions éclairées. Le problème est accentué pour l’intelligence artificielle, qui pâtit d’une difficulté à l’expliquer qui croît en même temps que ses performances. Des actions d’information et de vulgarisation seraient utiles, notamment vers les décideurs, mais la question dépasse largement la seule sphère de la défense. Le vocabulaire pourrait déjà être adapté, en substituant la notion positive de « délégation d’autorité » (utilisée pour les voitures autonomes) à l’« intelligence artificielle », qui nous ramène trop facilement aux thèses des transhumanistes avec les craintes associées.

 

Réfléchir plus large et en amont, en intégrant réflexions doctrinales et recherches

La démarche capacitaire suit actuellement une révolution à travers la mise en place du processus de « maîtrise de l’architecture du système de défense (MASD) », sous l’impulsion de la DGA et avec le soutien de l’EMA. La complexité accrue liée à l’interconnexion généralisée des systèmes d’informations et systèmes d’armes, de leur utilisation dans des contextes de plus en plus « inter » (-armes, -armées et -alliés dans le cadre de coalitions de circonstance) a conduit à la mise en place de méthodes de travail collaboratives entre les états-majors et la DGA, en associant l’industrie. L’analyse poussée des chaînes fonctionnelles et le recours accru à la simulation sur des scénarios doivent permettre de réaliser des optimisations globales de l’outil militaire – au sein du système de défense – et non plus locales – au niveau d’un programme d’armement individuel. En parallèle, pour favoriser l’intégration de l’innovation dans les systèmes militaires, sont mis en place des Labs destinés à confronter utilisateurs, acheteurs, Start-up et PME, ainsi que grands industriels.

Malgré ces actions de travail collaboratif et de réseau, le hiatus restera toujours important entre les travaux capacitaires, la réflexion doctrinale et la recherche. Même les réflexions opérationnelles les plus poussées restent empreintes de prudence : l’objectif d’état major de l’armée de terre sur les robots autonomes à l’horizon d’une quinzaine d’année n’a pas d’équivalent dans les autres armées ; il reste néanmoins modérément ambitieux (il s’agit de mieux protéger le combattant, en priorité « améliorer le renseignement de contact, le traitement des engins explosifs improvisés et mines, renforcer les capacités de destruction du combattant et l’alléger »).

La mise en place d’un espace de travail collaboratif intégrant, dans le cercle des acteurs de la préparation des futures capacités et architectures, le monde de la recherche et les organismes de doctrine des armées permettrait de ne pas passer à côté de technologies susceptibles de constituer des game changer ou de ne pas manquer la doctrine innovante permettant de tirer profit d’une innovation (à l’instar de la Blitzkrieg avec les chars avant guerre).

Le concept d’essaim de robots est illustratif des révolutions doctrinales potentielles peu approfondies en France aujourd’hui, qui mériteraient d’être plus vivement explorées : l’USAF expérimente le largage d’essaims car ce concept pourrait changer la donne du combat aéroterrestre et permettre l’intervention de la force aérienne dans le combat urbain. Fondés sur des robots peu sophistiqués unitairement, les essaims pourraient également être une voie pour nous dégager de l’augmentation continue du coût des systèmes (loi d’Augustine[32] ). Pour tirer le meilleur parti de la révolution robotique dont les limites, ni les voies, ne sont pas encore tracées, la démarche capacitaire doit permettre aux réflexions de s’étoffer et à la pensée militaire de « sortir de la boite ».

En termes d’organisation, un modèle de type defense advanced research projects agency (DARPA) pour conduire des projets très innovants est une voie possible. Le sujet, régulièrement remis sur le devant de la scène, nécessiterait un effort humain et budgétaire important pour un pays comme la France. Plus modeste, la création d’une Task Force d’innovation pluridisciplinaire associant armées, ingénieurs et académiques, s’appuyant sur le DGA Lab, pourrait définir et explorer des concepts innovants, inventer puis surtout perfectionner les doctrines associées[33].

 

Se préparer à un élargissement de la pluridisciplinarité dans les équipes de projets

L’effet à court ou long terme des robots sur les servants n’est pas anodin et dépasse largement les études d’ergonomie actuelles. Les risques émotionnels liés à l’interaction homme-robot font actuellement l’objet d’études approfondies avec la perspective du développement des robots domestiques[34]. Ils commencent à être pris en compte dans le monde militaire[35] : l’utilisateur peut s’attacher au robot et ce lien affectif est de nature à affecter son efficacité. L’exemple est également connu des pilotes de drones américains subissant des troubles liés à la déconnexion d’avec leur vie quotidienne (le déploiement par l’armée de l’air française des équipages de drones sur le théâtre Barkhane permet aujourd’hui de s’en prémunir).

Au-delà de l’empathie, d’autres phénomènes psychologiques devront être pris en compte. L’interaction avec les ordinateurs et les robots peut générer une perte du discernement, l’opérateur n’étant plus en mesure de contester l’autorité du système, remettant ainsi en cause le rôle de l’homme en « garde fou », « dans la boucle ». L’exemple le plus utilisé pour illustrer ce phénomène est la destruction en 1988 d’un avion d’Iran Air par l’USS Vincennes : le système n’était pas en mode automatique mais, sous la pression, l’équipage n’aurait pas remis en cause l’information erronée, incohérente avec d’autres, par confiance excessive envers le système AEGIS.

Ces biais cognitifs font l’objet de recherches qui montrent que des solutions existent pour les limiter[36] et « permettre à l’homme de continuer à raisonner et non uniquement d’observer[37] ». Il conviendra d’être vigilant sur ces biais alors que robots et systèmes informatiques experts se répandront (en particulier les aides à la décision). Pour certaines opérations d’armement, l’intégration d’un spécialiste de la psychologie humaine ou des neurosciences pourrait être pertinente. Un premier pas a été franchi dans le cadre du programme Scorpion pour lequel des études ont été conduites pour définir et maîtriser les niveaux de délégation d’autorité des nouvelles fonctions de combat collaboratif, en particulier quand elles étaient semi-automatiques.

 

CONCLUSION

Les perspectives offertes par la robotique et l’intelligence artificielle sont telles qu’il ne fait pas de doute qu’elles vont se diffuser rapidement et largement. Une prise de conscience est nécessaire en France au sein de la Défense pour ne pas se faire dépasser et passer à côté de cette nouvelle « révolution dans les affaires militaires », probablement encore plus profonde que les précédentes.

Ne pas répéter les erreurs du passé dans une approche conservatrice nécessite une mobilisation des acteurs traditionnels de la préparation des futures capacités, mais également d’inclure de nouveaux intervenants. Des stratégies globales doivent être élaborées pour se préparer à la guerre de l’ère robotique, que l’ex-secrétaire de la défense adjoint Bob Work prédit « avant 10 ans[38]».

Le moment est opportun en France et en Europe pour cette prise de conscience et cette mobilisation, alors que la question de l’adaptation de la société à la transformation numérique a fait irruption au cours de la dernière campagne présidentielle ainsi qu’au parlement européen. Une telle démarche s’inscrirait également en cohérence avec d’une part l’initiative France IA lancée en Janvier 2017 par les secrétaires d’Etat chargés de l’Innovation et du Numérique ainsi que de l’Enseignement supérieur et de la Recherche, et d’autre part le tout récent rapport produit par le député Cédric Villani, « Donner un sens à l’intelligence artificielle », qui met l’accent sur le volet sécurité et défense.

En parallèle, il sera nécessaire de mettre en place une communication stratégique pour sensibiliser l’opinion publique et lui faire comprendre que nous ne cherchons pas à faire émerger Frankenstein ou Terminator, mais visons à préparer l’armée et donc la nation aux conflits de demain.

L’appel de Vladimir Poutine début 2017 pour la création en Russie de complexes industriels destinés à développer la robotique autonome militaire[39] est symptomatique du tournant que nous devons collectivement prendre dans notre manière d’appréhender la robotique militaire.


BIBLIOGRAPHIE

Ouvrages

Isaac Asimov, Les Robots, J’ai Lu, 1973

Hannah Arendt, Eichmann à Jérusalem, Folio histoire, 1997

P.W. Singer, Wired for War : robotic revolution and conflict in the 21st century, Penguin, 2009

Christian Malis, Guerre et stratégie au XXIe siècle, Fayard 2014

Collectif, Robots on the battlefield – contemporary issues and implications for the future, Combat studies institute press, 2014

Klaus Schwab, La quatrième révolution industrielle, Dunod, 2017

Films et vidéos

Thibault Sève et Emmanuel Dumont, Ma vie avec un robot, 2015

Forum économique mondial, What if robots go to war ?, 2016

Rapports et documents officiels

Human Rights Watch, Losing Humanity: The Case Against Killer Robots, novembre 2012: https://www.hrw.org/sites/default/files/reports/arms1112_ForUpload.pdf

US Dept of defense, Autonomy in Weapon Systems, novembre 2012

http://www.dtic.mil/whs/directives/corres/pdf/300009p.pdf

Collectif, Campaign to stop killer robots, 2014

http://www.stopkillerrobots.org/

Alliance des sciences et technologies du numérique, Éthique de la recherche en robotique, Rapport n° 1 de la CERNA, novembre 2014

http://cerna-ethics-allistene.org/digitalAssets/38/38704_Avis_robotique_livret.pdf

Human Rights Watch, Mind the gap : the lack of accountability for killer robots, avril 2015

https://www.hrw.org/report/2015/04/09/mind-gap/lack-accountability-killer-robots

OCDE, Automatisation et travail indépendant dans une économie numérique, 2016

http://www.oecd.org/fr/emploi/emp/La-num%C3%A9risation-r%C3%A9duit-la-demande-de-t%C3%A2ches-manuelles-et-r%C3%A9p%C3%A9titives.pdf

INRIA, Livre blanc de l’intelligence artificielle, septembre 2016

https://www.inria.fr/actualite/actualites-inria/livre-blanc-sur-l-intelligence-artificielle

Whitehouse, Plan stratégique sur la R&D relative à l’intelligence artificielle, octobre 2016

https://obamawhitehouse.archives.gov/sites/default/files/whitehouse_files/microsites/ostp/NSTC/national_ai_rd_strategic_plan.pdf

Revues

Major General Robert H. Scales, Urban Warfare: A Soldier’s View, Military Review, février 2005

http://www.au.af.mil/au/awc/awcgate/milreview/scales.pdf.

Antonin Tisseron, Robotique et guerres futures : les armées de terre face aux évolutions technologiques, Cahiers de l’IRSEM – n° 12, 2012

http://www.defense.gouv.fr/content/download/170699/1841442/file/Cahier%2012%20-%202012.pdf

Emmanuel Goffi, Robots de combat et morale : anticiper la responsabilité, Penser les ailes françaises, n°29, avril 2013

Eric Germain, Drones : l’impératif stratégique de la prise en compte des enjeux éthiques et sociétaux, Penser les ailes françaises, n°29, avril 2013

Jean-Baptiste Vilmer, Quand la France armera ses drones, Les cahiers de le revue de la défense nationale, Numéro spécial Salon du Bourget 2015

Axel Dyèvre, Renseignement, facteur humain et biais cognitifs – Gnothi seauton, Les notes stratégiques, CEIS, Juin 2015

https://www.sia-lab.fr/sites/sia/files/images/note_strat_-_facteur_humain_et_renseignement.pdf

Elizabeth Quintana, Air power and autonomy, Penser les ailes françaises n°33, juillet 2015

Principaux articles en ligne

Alan Borning, Computer System Reliability and Nuclear War, 2001

http://wwwee.stanford.edu/~hellman/Breakthrough/book/chapters/borning.html

Gerardo Beni, From Swarm Intelligence to Swarm Robotics, 2005

https://www.researchgate.net/profile/Gerardo_Beni/publication/221116455_From_Swarm_Intelligence_to_Swarm_Robotics/links/0912f51324c3bd5fd2000000/From-Swarm-Intelligence-to-Swarm-Robotics.pdf

Ronald Arkin, Ethical Robots in warfare, IEEE Technology and society magazine, mars 2009

http://www.cc.gatech.edu/ai/robot-lab/online-publications/arkin-rev.pdf

Wilson Rothman, Unmanned Warbots of WWI and WWII, mars 2009

http://gizmodo.com/5181576/unmanned-warbots-of-wwi-and-wwii

Ronald Arkin, The Case for Ethical Autonomy in Unmanned Systems, octobre 2010

https://smartech.gatech.edu/bitstream/handle/1853/36516/Arkin_ethical_autonomous_systems_final.pdf?sequence=1&isAllowed=y

Jean-Baptiste Vilmer, Introduction : robotisation et transformations de la guerre, 2013

https://www.cairn.info/revue-politique-etrangere-2013-3-page-80.htm

Damien Theillier, Arendt versus Eichmann : la banalité du mal, Contrepoints, mai 2013

Jimmy Stamp, Unmanned Drones Have Been Around Since World War I, février 2013

http://www.smithsonianmag.com/arts-culture/unmanned-drones-have-been-around-since-world-war-i-16055939/

Marie-des-Neiges Ruffo, Le robot, étranger de l’éthique, mai 2013

http://www.ed1.ulg.ac.be/sd/textes/20130521-Ruffo.pdf

Marco Dorigo et al., Swarm robotics, Scholarpedia, 2014

http://www.scholarpedia.org/article/Swarm_robotics

Dominique Lambert, L’éthique de la robotique, l’interaction homme – machine, 2014

http://www.unog.ch/80256EDD006B8954/(httpAssets)/354043B9078FBE70C1257CDA0027A271/$file/Dominique+Lambert+LAWS+ethical+2014.pdf

Collectif, Les robots militaires peuvent-ils adopter une éthique ?, ParisTech Review, juin 2014

http://parisinnovationreview.com/2014/06/24/serie-robotique-robots-militaires-ethique/

Tristan Zeller, Les robots militaires sont là… et maintenant ?, 2015

http://www.penseemiliterre.fr/les-robots-militaires-sont-la-et-maintenant-_2015584.html

Benoit Le Corre, Un rite funéraire pour les robots au Japon, c’est pas si étrange, mars 2015

http://tempsreel.nouvelobs.com/rue89/rue89-robots/20150311.RUE8234/un-rite-funeraire-pour-les-robots-au-japon-c-est-pas-si-etrange.html

Clansman, AAI Q-2 Pioneer, Aviationsmilitaires.net, avril 2015

https://www.aviationsmilitaires.net/v2/base/view/Model/1412.html

Stuart Russel, Robotics : Ethics of artificial intelligence, mai 2015

http://www.nature.com/news/robotics-ethics-of-artificial-intelligence-1.17611

Jaesa, La singularité technologique : en route vers le transhumain, mai 2015

Collectif, Autonomous Weapons: an Open Letter from AI & Robotics Researchers, juillet 2015

https://futureoflife.org/open-letter-autonomous-weapons –

Frédéric Joignot, Faut il interdire les robots tueurs ?, octobre 2015

http://www.lemonde.fr/culture/visuel/2015/10/17/faut-il-interdire-les-robots-tueurs-autonomes_4790497_3246.html

Cheryl Pellerin, Human-Machine Teaming Represents Defense Technology Future, octobre 2015

https://www.defense.gov/News/Article/Article/628154/work-human-machine-teaming-represents-defense-technology-futureWork

Rasha Abdul Rahim, 10 raisons pour lesquelles il faut interdire les robots tueurs, novembre 2015

https://www.amnesty.org/fr/latest/news/2015/11/time-to-get-serious-about-banning-killer-robots

Bob Work, discours devant le Reagan Defense Forum, novembre 2015

https://www.defense.gov/News/Speeches/Speech-View/Article/628246/reagan-defense-forum-the-third-offset-strategy

Sydney Freedberg, Centaur Army : Bob Work, Robotics, & The Third Offset Strategy, , nov. 2015

Stuart Russell, Robots in war : the next weapon of mass destruction ?, janvier 2016

https://www.weforum.org/agenda/2016/01/robots-in-war-the-next-weapons-of-mass-destruction/

Patrick Lin, Relationships with Robots: Good or Bad for Humans ?, février 2016

https://www.forbes.com/sites/patricklin/2016/02/01/relationships-with-robots-good-or-bad-for-humans/#663f79f87adc

Franz-Stefan Gady, New US Defense Budget: $18 Billion for Third Offset Strategy, février 2016

http://thediplomat.com/2016/02/new-us-defense-budget-18-billion-for-third-offset-strategy/

Omar Belkaab, La Chine va investir plus de 13 Md€ dans l’intelligence artificielle, mai 2016

Philippe Gros, La third offset strategy américaine, juin 2016

https://www.frstrategie.org/publications/defense-et-industries/web/documents/2016/7-6.pdf

Sam Shead, Investors are backing more AI startups than ever before, juin 2016

https://www.weforum.org/agenda/2016/06/investors-are-backing-more-AI-startups-than-ever-before

Collectif, Où les machines pourraient déjà remplacer les humains, et où elles ne le pourraient pas (encore), ParisTech Review, juillet 2016

http://www.paristechreview.com/2016/07/17/machines-remplacer-les-humains/

Sciences & avenir, Les Etats-Unis veulent accélérer l’arrivée des voitures autonomes, sept. 2016

https://www.sciencesetavenir.fr/high-tech/washington-veut-accelerer-l-arrivee-des-voitures-autonomes-sur-les-routes_106295

Matthew Rosenberg et John Markoff, The Pentagon’s ‘Terminator Conundrum’: Robots That Could Kill on Their Own, New-York Times, octobre 2016

CB Insight, Véhicules autonomes : liste des entreprises actives – Voiture autonome, octobre 2016

https://www.voiture-autonome.net/constructeurs/liste-vehicules-autonomes-604.html.

Serge Leblal , Déjà le trop plein de chabot, Le Monde informatique, octobre 2016

http://www.lemondeinformatique.fr/actualites/lire-edito-deja-le-trop-plein-de-chabots-66177.html

Rosamond Hutt, The US used to be the world leader in this key area of artificial intelligence research. Now it’s China, Forum économique mondial, novembre 2016

https://www.weforum.org/agenda/2016/11/china-is-now-the-world-leader-in-deep-learning-research-and-the-us-is-worried-about-it/

Marine Miller, Les robots ébranlent le monde des avocats, novembre 2016

http://www.lemonde.fr/o21/article/2016/11/29/les-robots-ebranlent-le-monde-des-avocats_5039852_5014018.html

MINEFI, Axelle Lemaire lance la stratégie nationale en intelligence artificielle, janvier 2017

http://www.economie.gouv.fr/strategie-intelligence-artificielle-France-IA

Leila Marchand, Intelligence artificielle : au Japon, un robot va remplacer 34 salariés en assurance, janvier 2017

http://www.lesechos.fr/tech-medias/hightech/0211655118482-intelligence-artificielle-au-japon-un-robot-va-remplacer-34-salaries-en-assurance-2054239.php

Emmanuel Chiva, Un essaim de drones démontre des capacités de coordination, janvier 2017

Retour vers le futur: Poutine a déclaré l’ère des robots militaires, Rambler.ru, janvier 2017

https://news.rambler.ru/politics/35932393-nazad-v-buduschee-putin-obyavil-eru-boevyh-robotov/

Véronique Guillermard, Patrice Caine : «Thales appelle à créer une grande agence de recherche avancée», le Figaro, février 2017

http://www.lefigaro.fr/societes/2017/02/28/20005-20170228ARTFIG00286-patrice-caine-thales-appelle-a-creer-une-grande-agence-de-recherche-avancee.php

Liste des entretiens

Rodolphe Gélin, directeur de recherche et responsable des projets collaboratifs, SoftBank Robotics (ex-Aldebaran), novembre 2016.

Jérôme de Lespinois, chargé d’études, Institut de recherche stratégique de l’école militaire,
mars 2017.

Antoine Petit, président directeur général de l’Institut national de recherche en informatique et en automatique (INRIA), mars 2017.

Jean-Christophe Pitard-Bouet, chef de la division études et développements, Centre études, réserves et partenariats de l’armée de l’air, mars 2017.

Mme Marie-Véronique Serfaty, responsable du domaine scientifique ingénierie de l’information et robotique, direction générale de l’armement, mars 2017.

References   [ + ]

1. Ceux-ci faisant l’hypothèse qu’un point de singularité sera atteint, déclenchant un emballement de la croissance technologique, dès qu’une machine pourra s’auto améliorer et de créer de nouvelles générations artificielles.
2. Les américains déployaient ainsi plus de 12 000 robots terrestres en Irak en 2008 (il n’y en avait aucun en 2003)
3. On peut par exemple citer le rôle clé des compagnons dans une entreprise telle que Dassault Aviation, au cœur des compétences et du patrimoine immatériel de cette société.
4. Le deep learning est une catégorie particulière des techniques d’autoapprentissage des machines (machine learning) qui consiste à entraîner un algorithme en se basant sur des exemples. Dans le cas du deep learning, contrairement aux méthodes de machine learning traditionnelles, les caractéristiques essentielles du traitement ne sont plus prédéfinies par l’homme, mais élaborées par l’algorithme lui-même.
5. La Chine dispose d’industriels crédibles : le moteur Baidu annonçait en 2015 avoir battu Google dans la reconnaissance d’images
6. En anglais, on parle de « 3D » : Dull, Dirty, Dangerous.
7. W. Singer dans Wired for War compare la période napoléonienne de concentration d’une armée de milliers d’homme sur un unique champ de bataille à une densité de réduite à deux soldats pour un terrain de football pendant la seconde guerre mondiale et jusqu’à un soldat pour 780 terrains de football pendant la guerre d’Irak.
8. Le général Rick Lynch aurait déclaré lors d’une conférence prononcée en 2009 devant des industriels de l’armement que sur les 155 hommes de son unité tués en Irak, la vie de 122 aurait pu être sauvée en utilisant des robots. Cité par Antonin Tisseron, Robotique et guerres futures : les armées de terre face aux évolutions technologiques, Cahiers de l’IRSEM – n° 12 2012
9. Selon le général américain Robert H. Scales : dead soldiers are America’s most vulnerable center. Urban Warfare: A Soldier’s View, Military Review, février 2005
10. Robot convertible, multiples robots capables de se regrouper et de s’agréger en un seul …
11. Camille Rougeron, Les enseignements aériens de la guerre d’Espagne, Berger-Levrault, 1939.
12. Concile de Latran II : « Nous défendons sous peine d’anathème que cet art meurtrier et haï de Dieu qui est celui des arbalétriers et des archers soit exercé à l’avenir contre des chrétiens et des catholiques. » (Canon 29).
13. « Je me dois dans ma conscience d’homme, de chrétien et d’évêque […] de dire non aux armes nucléaires […] La France serait si grande si elle affirmait à la face du monde : j’ai le pouvoir de faire des expériences nucléaires et de posséder le bombe atomique : j’y renonce pour le bien de la paix. », cité par Marc Tronchot dans Les présidents face à Dieu, Calmann-Levy, 2015.
14. C. Perelman citée par MdN Ruffo dans Le robot, étranger de l’éthique indique que le droit n’est pas réductible à des règles : « il est nécessaire parfois renoncer à punir au bénéfice du doute ou renoncer à juger pour permettre le pardon qui conditionne la réconciliation ». Ainsi, la seule application par Salomon du principe d’équité aurait conduit à un assassinat bien moins moral, éthique et efficace que le résultat de sa créativité, de son intelligence affective et de son instinct.
15. En particulier les travaux de Ronald Arkin, professeur au Georgia Institute of Technology.
16. On se souviendra que les américains avaient cherché à interdire les attaques sous-marines des bâtiments civils (« guerre sous-marine sans restriction ») pendant l’entre-deux-guerres suite au choc provoqué notamment par la destruction du Lusitania. Ils n’ont pas hésité juste après l’attaque de Pearl Harbour à ordonner la destruction de la flotte marchande du Japon, pour accélérer le renversement du rapport de force dans le Pacifique.
17. Regroupe l’ensemble formé par les conventions de La Haye, dont les plus connues sont celles du 18 octobre 1907 concernant d’une part les lois et coutumes de la guerre sur terre, et d’autre part la pratique de la guerre maritime.
18. Ensemble formé par les conventions de Genève du 12 août 1949 concernant les blessés et malades (1re convention), les naufragés (2e convention), les prisonniers de guerre (3e convention) et la population civile (4e convention).
19. P. W. Singer, dans Wired for war, cite d’ailleurs le premier cas de reddition face à un drone pendant la guerre du Golfe : un Pioneer lancé de l’USS Wisconsin obtint la reddition des troupes irakiennes basées sur l’île de Failaka.
20. « Les personnes civiles et les combattants restent sous la sauvegarde et sous l’emprise des principes du droit des gens, tels qu’ils résultent des usages établis, des principes de l’humanité et des exigences de la conscience publique. »
21. La philosophe Hannah Arendt décrira dans Eichmann à Jérusalem. Rapport sur la banalité du mal l’obéissance aveugle dont a fait preuve l’homme et comment l’instauration du régime nazi a été permise par la destruction de la volonté individuelle, mettant en avant la responsabilité collective du régime plutôt que la responsabilité individuelle de l’accusé.
22. Ces expériences sur la soumission à l’autorité ont été conduites en 1963 par le psychologue Stanley Milgram. Deux tiers des volontaires ont obéit aux ordres, jusqu’à envoyer des décharges mortelles à une personne sans défense (en fait un acteur).
23. L’expérience de Stanford (effet Lucifer) est une étude de psychologie expérimentale menée par Philip Zimbardo en 1971 sur les effets de la situation carcérale. Elle fut réalisée avec des étudiants qui jouaient des rôles de gardiens et de prisonniers. L’une des conclusions de l’étude est qu’un tiers des gardiens fit preuve de comportements sadiques.
24. Expression attribuée à Joseph Henrotin, cité par Tristan Zeller dans Les robots militaires sont là… et maintenant ?, 2015
25. Alan Borning, dans Computer System Reliability and Nuclear War, évoque notamment qu’en 1979 un programme de simulation fut accidentellement chargé dans le système d’alerte du NORAD, ayant amené à la mise en vol des bombardiers stratégiques.
26. Le robot conversationnel expérimental Tay de Microsoft a tenu sur internet des propos racistes, sexistes et antisémites qui lui ont été appris de l’interaction avec les internautes.
27. Un robot ne peut blesser un être humain ni, par son inaction, permettre qu’un humain soit blessé ; Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la Première Loi ; Un robot doit protéger sa propre existence aussi longtemps qu’une telle protection n’est pas en contradiction avec la Première et/ou la Deuxième Loi.
28. Philippe Vial, professeur au CHEM lors d’une conférence sur les relations politico-militaires.
29. Cette probable dichotomie tactique fortement automatisable – stratégique peu automatisable peut être illustrée par une citation de Talleyrand : Je crains plus une armée de cent moutons commandée par un lion qu’une armée de cent lions commandée par un mouton.
30. La directive Autonomy in Weapon Systems de 2012 du département américain de la défense indique que les systèmes autonomes doivent être conçus pour permettre aux opérateurs d’exercer la sélection des cibles, y compris en posture défensive : exercise appropriate levels of human judgement over the use of force. En France, les réticences portent sur le remplacement de l’homme dans les phases d’orientation et de décision de la boucle OODA (Observer – Orienter – Décider – Agir).
31. GIFAS : Groupement des Industries Françaises Aéronautiques et Spatiales. Cité par Eric Germain dans Drones : l’impératif stratégique de la prise en compte des enjeux éthiques et sociétaux, Penser les ailes françaises, n°29, avril 2013
32. Selon Norman Augustine, ancien directeur de Lockheed Martin, si les budgets de défense évoluent linéairement, le coût unitaire des matériels croît exponentiellement : In the year 2054, the entire defense budget will purchase just one tactical aircraft. This aircraft will have to be shared by the Air Force and Navy 3½ days each per week except for leap year, when it will be made available to the Marines for the extra day.
33. L’utilisation de l’arc long à Crécy en 1346 résultait du perfectionnement de doctrines utilisées auparavant lors de la guerre d’indépendance de l’Ecosse. La portée de l’arc long permettait d’attirer l’adversaire en terrain défavorable et de le contraindre à attaquer une position fortifiée au préalable.
34. Ce phénomène a été notamment illustré dans le film français « Ma vie avec un robot » de Thibault Sève et Emmanuel Dumont.
35. L’étude la plus souvent citée, par exemple par Patrick Lin dans le magazine Forbes, a été réalisée par Julie Carpenter de l’université de Washington, et portait sur la relation complexe entre un soldat et un robot démineur.
36. Une étude récente financée par l’Union Européenne et publiée par le CEIS étudie ces biais pour les métiers du renseignement.
37. Entretien avec Véronique Serfaty.
38. « 10 years from now if the first person through a breach isn’t a friggin’ robot, shame on us. ».
39. Retour vers le futur: Poutine a déclaré l’ère des robots militaires, Portail russe rambler.ru ; janvier 2017.

Rédigé par Olivier BEAURENAUT

Du même partenaire

Défense et Sécurité

Le cyberespace, nouvel espace de souveraineté à conquérir

Mis en ligne le 29 May 2018

Par Christophe GASANÇON

Source : CHEM

Défense et Sécurité

Révolution numérique : vers une armée numérique ?

Mis en ligne le 10 Apr 2018

Par Erwan Rolland

Source : CHEM

Défense et Sécurité

La défense du territoire européen, enjeu de la décennie à venir pour la France?

Mis en ligne le 07 Mar 2018

Par Marc-Antoine de SAINT GERMAIN

Source : CHEM

Géopolitique et Géoéconomie

Articles de la catégorie Défense et Sécurité

Défense et Sécurité

Protecting Europe against hybrid threats

Mis en ligne le 03 May 2018

Par Gustav GRESSEL

Source : ECFR

Défense et Sécurité

Nos partenaires

 

afficher tout