Robotisation du champ de bataille : défis, enjeux et risques

2 septembre 2020

Temps de lecture : 17 minutes
Photo : Le robot Talon de l'armée tchèque, présenté en 2019 (c) Roman Vondrous (CTK via AP Images)/P201903120390201/19071496195209
Abonnement Conflits
Abonnement Conflits

Robotisation du champ de bataille : défis, enjeux et risques

par

La robotisation du champ de bataille est un fait de plus en plus prégnant dans les conflits contemporains. Il faut non seulement y répondre aujourd’hui, mais aussi anticiper les évolutions technologiques à venir. La réflexion sur ce sujet commence à se construire grandement. Tour d’analyse des enjeux de cette robotisation.

 

Les Députés Claude de Ganay et Fabien Gouttefarde, membres de la Commission de la Défense Nationale et de Forces armées, viennent de remettre leur rapport d’information sur les systèmes d’armes létaux autonomes (SALA). La rédaction de ce rapport s’appuie sur des auditions menées depuis plusieurs mois et sur des études existantes produites par différents laboratoires, en particulier celles du CREC (ESM Saint-Cyr). Il s’agit du premier rapport détaillé (123 pages) analysant dans une approche exhaustive, pragmatique et rationnelle, la montée en puissance et l’intérêt des systèmes semi-autonomes au sein des armées. Ce travail nécessaire et efficace intervient à la suite d’une série de campagnes menées par des ONG œuvrant pour l’interdiction des SALA et pour la mise en place d’un moratoire sur les robots armés téléopérés. Le rapport apporte de la sérénité dans un débat qui s’est fortement hystérisé autour de l’image fantasmée des « robots tueurs » ou du « Terminator » incontrôlable tirant sur tout ce qui bouge.

Le rapport d’information parlementaire constitue une base solide pour comprendre les enjeux stratégiques de la robotisation, des systèmes semi-autonomes et les changements de doctrines chez nos alliés et concurrents internationaux. L’intelligence artificielle appliquée à la Défense constitue une priorité stratégique pour les trois acteurs leaders du domaine, les États-Unis, la Chine et la Russie. La robotique militaire et l’IA ayant un très haut coefficient de dissémination technologique, d’autres puissances militaires investissent rapidement le marché et constituent de nouveaux concurrents dans le domaine des systèmes semi-autonomes. Si l’on devait résumer en une phrase la tendance mondiale, il faudrait dire que « tout le monde s’y met » y compris des pays que l’on n’attendait pas sur ce type de développement. L’intégration de systèmes semi-autonomes au sein des Forces se généralise et oblige la France à une prise en compte rationnelle de cette évolution technologique. En dehors de l’Europe occidentale, cette course à l’IArmement s’effectue sans aucune forme d’autocensure, de modération, de « frein éthique, religieux ou moral ».

À lire aussi : Les robots tueurs : entre fantasme et provocation, quelle réalité juridique ?

Constamment évoqué en Europe et en France par des ONG et par certains acteurs politiques, le champ éthique face aux SALA ne présente aucun caractère absolu dans l’espace ou dans le temps et ne jouit d’aucun consensus international. Ce qui est éthique en Europe occidentale ne l’est pas forcément en Asie ou en Russie et réciproquement. Ce qui est éthique aujourd’hui ne le sera peut-être plus demain. Cette relativité générale du champ éthique explique partiellement les différences d’approches et d’acceptabilité des SALA, observables entre les positions chinoises, russes, américaines et européennes.

 

1 – Effacer l’image du Terminator pour ne considérer que les niveaux d’autonomie des systèmes

Commençons par évacuer le fantasme du Terminator. Un robot armé autonome décidant seul de ses déplacements, de ses cibles et de sa mission de destruction ne présente à ce jour aucun intérêt opérationnel pour les Forces armées. Bien entendu, on peut toujours imaginer un robot terrestre chenillé armé muni de détecteurs et capteurs, doté d’un programme de déplacement autonome évitant les obstacles et tirant sur toute cible mouvante via une caméra thermique puisque les ingrédients technologiques d’un tel robot existent sur étagère. Son intérêt opérationnel tactique serait alors quasiment nul pour une unité de combat qui a besoin de pleinement maitriser la conduite de ses opérations. Seul un groupe terroriste souhaitant mener une action de neutralisation systématique pourrait s’y intéresser dans la planification d’une action à distance n’impliquant aucun personnel. Lorsque l’on parle de SALA, on doit impérativement préciser le niveau d’autonomie du système armé. Pour cela, on peut se référer au classement L0-L5 publié en 2018 – 2019 sur la Revue de Défense Nationale et reproduit ci-dessous.

Classement en six niveaux d’automatismes des SALA

 

Niveau L0 – Système armé pleinement téléopéré

L’opérateur humain téléopère à distance le système à l’aide d’une interface de pilotage déportée.

Les déplacements du système sont strictement téléopérés par l’opérateur humain.

Les détecteurs du système renvoient des informations à l’opérateur.

La reconnaissance et l’acquisition des cibles sont exclusivement réalisées par l’opérateur humain.

Les commandes de tirs du système sont exclusivement actionnées par l’opérateur humain.

 

Niveau L1 – Système armé dupliquant automatiquement l’action de l’opérateur

L’opérateur humain est augmenté par un système qui l’assiste en dupliquant automatiquement ses actions.

La composante de traction peut suivre et reproduire les déplacements du superviseur humain via ses capteurs.

Les capteurs du système détectent les objets que l’opérateur a détectés.

L’acquisition des cibles est identique à celle de l’opérateur humain via le système de visée son arme connectée à celui du système.

Le système ouvre le feu sur une cible si et seulement si l’opérateur ouvre le feu sur cette cible.

 

Niveau L2 – Système armé semi-autonome en déplacement et en détection de cibles

L’opérateur humain supervise le système en lui fournissant un plan de route et des indications de cibles.

Le système choisit le meilleur chemin en fonction des indications de localisation fournies par l’opérateur.

Les capteurs du système détectent automatiquement les objets et cibles potentielles.

Le système suggère des objets comme cibles potentielles à l’opérateur humain qui définit les cibles à prendre en compte.

Le système ouvre le feu sur la cible après autorisation du superviseur humain.

 

Niveau L3 – Système armé autonome soumis à autorisation de tir

L’opérateur humain n’intervient que pour donner l’autorisation d’ouvrir le feu sur une cible proposée par le système.

Les déplacements sont décidés par le système en fonction de sa perception du terrain et de ses objectifs de mission.

Les capteurs détectent et reconnaissent les objets de manière autonome.

L’acquisition de cibles s’effectue de manière automatique ou dirigée via les capteurs du système et ses capacités de reconnaissance.

Le système propose une cible et ouvre le feu après autorisation du superviseur humain.

 

Niveau L4 – Système armé autonome sous tutelle humaine

L’opérateur humain peut désactiver et reprendre le contrôle du système pleinement autonome.

Les déplacements sont décidés par le système en fonction de sa perception du terrain et de ses objectifs de mission.

Les capteurs détectent et reconnaissent les objets de manière autonome.

L’acquisition de cibles s’effectue de manière automatique via les capteurs du système et ses capacités de reconnaissance et d’analyse.

Le système décide de l’ouverture du feu sur la cible qu’il a sélectionné, mais peut être désactivé par son superviseur.

 

Niveau L5 – Système armé autonome sans tutelle humaine

L’opérateur humain n’a pas la possibilité de reprendre le contrôle du système pleinement autonome.

Les déplacements sont décidés par le système en fonction de sa perception du terrain et de ses objectifs de mission.

Les capteurs détectent et reconnaissent les objets de manière autonome.

L’acquisition de cibles s’effectue de manière automatique via les capteurs du système et ses capacités de reconnaissance et d’analyse.

Le système décide de l’ouverture du feu sur la cible qu’il a sélectionné sans possibilité de désactivation (sauf destruction).

 

Le dernier niveau (L5) de ce classement correspond à celui d’un robot de type Terminator ancré dans l’imaginaire du grand public, mais sans intérêt opérationnel. Les niveaux utiles s’échelonnent de L0 à L4 et ne disposent pas tous du même degré de maturité technologique.

À lire aussi : Rupture technologique et sursaut de la sensibilité

Le niveau L0 est celui des drones et robots pleinement téléopérés par un opérateur humain et ne disposant d’aucune fonctionnalité échappant au contrôle humain.

Le niveau L1 est celui d’un système armé dupliquant automatiquement les actions et les tirs d’un superviseur (humain ou système). Les systèmes de niveau L1 existent notamment en Russie avec la Plateforme MARKER.

Les niveaux L2 et L3 concernent potentiellement tous les milieux d’action : terre, air, mer en surface et sous-marin.  Le niveau L4 peut s’appliquer à une opération de lutte anti-sous-marine menée en temps de guerre.

Une fois les niveaux d’autonomie d’un système fixés, Il convient de définir précisément les mesures et les indices de performance des systèmes semi-autonomes sur des tâches données. Ces métriques sont déterminantes pour les Forces qui souhaitent se doter d’unités robotisées.

 

 

 

2 – Enjeux stratégiques, course à l’IArmement et dissuasion robotique

Les enjeux stratégiques de la robotisation du champ de bataille dépassent tout ce que nous connaissons depuis la période d’installation de la dissuasion nucléaire. La robotisation des systèmes est un vecteur multiplicateur de puissance pour l’ensemble des Forces armées, sur terre, sous terre (grottes et souterrains), en l’air, dans les mers en surface et sous la surface. La course à l’automatisation et à la « dronification » des systèmes d’armes s’accélère au rythme des progrès réalisés en robotique, en mécatronique, en optoélectronique et en intelligence artificielle. Les trois géants leaders de cette course sont, sans surprise, les États-Unis, la Russie et la Chine. Ce trio est suivi par un second cercle de pays fortement engagés vers l’automatisation des systèmes d’armes : Israël, la Corée du Sud, l’Inde, la Turquie, l’Iran, le Pakistan, la Grande-Bretagne, la France, l’Estonie … Ces pays disposent d’une industrie dédiée, de constructeurs, d’assembleurs de drones terrestres (UGV), aériens (UAV), marins (surface USV) plus ou moins sophistiqués. Certains débutent leur engagement alors que d’autres, comme Israël, occupent une position technologique dominante au sein de ce second cercle.

En Europe, les acteurs du second cercle sont la France, l’Estonie, l’Allemagne. Il n’existe pas à ce jour de politique ou de doctrine commune européennes en matière de robotisation des systèmes de défense. Une veille active menée sur la montée en puissance de l’IA militaire et sur les systèmes semi-autonomes & autonomes, montre l’urgence d’un positionnement national (et européen) clair, établi sur un socle d’arguments rationnels tactiques et stratégiques. La France doit prendre en compte le mouvement global et rapide des doctrines militaires étrangères qui convergent toutes vers le développement et l’utilisation de systèmes semi-autonomes et autonomes.

Les concurrents américains, chinois et russes ont une position partagée face à l’Europe : ces trois concurrents estiment que l’Europe doit concentrer ses efforts de développement dans le domaine de « l’IA éthique et responsable » et qu’elle a beaucoup à apporter à la communauté internationale, mais qu’elle ne doit pas s’aventurer dans le domaine de l’IA de défense et des systèmes semi-autonomes. En clair, ces concurrents souhaitent installer un jeu à trois joueurs dominants, mais pas à quatre. L’Europe et la France en particulier doivent refuser ce futur « Yalta technologique » qui risque de nous faire perdre ce que la dissuasion nucléaire a maintenu durant soixante-dix ans. Il existe une similarité contextuelle et historique avec l’époque des grands choix de souveraineté et de doctrines fixés par le général De Gaulle sur la dissuasion nucléaire en 1954. L’IA et la robotique semi-autonome transforment l’art de la guerre et les doctrines. Les armées qui n’intègreront pas cette disruption n’auront plus aucune chance d’exister à très courts termes sur le théâtre des opérations. Les négociations et les arbitrages stratégiques s’effectueront sur le nombre de divisions robotisées actives dans les 5 espaces (terrestre, aérien, maritime, espace et cyber) que pourra aligner une puissance militaire face à un adversaire doté lui aussi d’unités robotisées. De nouveaux équilibres et mécanismes de « dissuasion robotique » vont émerger au cœur de la course technologique.

À lire aussi : Entretien avec Thomas Gomart : Russie, Chine, Etats-Unis : qui est de trop ?

Le facteur clé de cette mutation est, entre autres, la vélocité, la vitesse de « réactions – interactions » des systèmes et des systèmes de systèmes. Le combat « haute fréquence » va intervenir sur tous les fronts : Armement à haute vélocité, missiles hypersoniques, cyberattaques massives globales conduites par des IA, contrôle exhaustif de grandes zones maritimes par des unités de drones auto-reconfigurables, robotiques en essaim, calcul quantique, saturation de l’espace de combat par des unités semi-autonomes de toutes tailles. Dans la plupart de ces cas, l’homme ne sera pas en mesure de rester dans la boucle. Il se situera au mieux au-dessus de la boucle en supervisant certaines phases de combat.

 

Parmi les segments d’applications de l’IA militaire, on retrouve, entre autres, les secteurs suivants :

  • Aide à la décision, optimisation de processus
  • Simulation, wargaming, entrainement des forces
  • Soutien logistique, support, évacuation sanitaire
  • Maintenance prédictive des matériels et des infrastructures
  • Renseignement, maillage autonome de grandes surfaces, grilles de drones.
  • Cybersécurité & cyberdéfense
  • Guerre électronique, leurres, déception
  • Déminage, dépollution, intervention téléopérée et autonome en environnements NRBC ou encombré (tunnels, grottes, souterrains).
  • Combat terrestre UGV, appui feu, UGV dupliquant, soldat augmenté
  • Combat aérien dupliquant, UAV
  • Combat naval (surface USV et sous-marin UUV)
  • Dissuasion nucléaire

 

 

3 – Doctrines concurrentes russes, chinoises, américaines et positionnement européen

Dans cette partie sont présentés le positionnement et les doctrines des États-Unis, de la Chine, de la Russie et de l’Europe dans course à la robotisation du champ de bataille.

 

3-1 Champs éthiques

 

États-Unis

Plusieurs tentatives d’influence d’une partie de la Tech Californienne ont eu lieu pour interdire l’usage de l’IA dans des applications militaires.

Elles ont été suivies d’un recadrage en 2019 du DOD américain : « Ce qui n’est pas éthique c’est d’envoyer des combattants américains face à une unité robotisée chinoise ou russe.»

La doctrine a été fixée dans le 3e Offset : l’autonomie des systèmes armés est l’une des priorités. Elle est par nature compatible avec l’éthique américaine.

 

Chine

La seule éthique acceptable est celle de la performance.

Il existe une puissante tradition culturelle à la « Sun Tze » qui place la stratégie au centre de la réflexion chinoise.

Ce qui est non performant est non éthique.

Aucune limitation ne doit être imposée dans l’usage de l’IA au service de la Défense chinoise.

Terminator défilera à Beijing sous réserve qu’il soit fonctionnel, efficace et performant.

Russie

La Russie ne s’interdit rien en matière d’IA militaire.

Vladimir Poutine a déclaré que le leader en intelligence artificielle deviendra le Maitre du Monde.

Il souhaite maintenir un niveau de crédibilité des Forces armées russes face aux ambitions chinoises et américaines

 

Europe

Des ONG et groupes d’activistes demandent l’interdiction de l’IA militaire et des systèmes armés semi-autonomes qu’ils nomment « robots tueurs ».

Certains pays européens subissent l’influence de groupes de pression, d’associations et d’ONG antimilitaristes qui agissent régulièrement auprès des instances européennes et des États membres de l’UE.

 

3-2 Doctrines

 

États-Unis

La doctrine est issue du 3e Offset américain.

Le développement de systèmes semi-autonomes et autonomes est l’une des priorités soutenues par la DARPA, l’US Airforce, la Navy, l’US Army et le DOD.

L’IA au service de la défense est le moteur de l’écosystème en développement.

L’objectif est de maintenir la position de leader mondial face au concurrent principal chinois.

Les Américains sous-estiment par ailleurs la volonté russe de rester dans la partie.

Le rôle de la DARPA est central dans le dispositif de montée en puissance de l’IA de défense et des systèmes semi-autonomes et autonomes.

 

Chine

La Chine souhaite devenir leader en matière d’IA militaire. Des dizaines de milliards de dollars sont injectés dans les plans de développement en IA et robotique.

La Chine cherche à prendre une revanche géostratégique sur le leader américain.

La Chine est persuadée que la guerre contre l’ennemi américain se gagnera via l’IA au service des technologies d’armement.

La Chine souhaite déployer le plus grand réseau mondial de drones de renseignement autonomes tapissant l’ensemble de la surface océanique. Le même maillage sous-marin doit être déployé afin d’obtenir la suprématie dans le contrôle des mers et océans.

 

Russie

La Russie souhaite rester dans la course opposant les États-Unis à la Chine.

Pour cela, elle investit énormément dans les programmes de recherche en IA.

Vladimir Poutine et son État-Major souhaitent « exclure » le combattant russe de la zone d’immédiate conflictualité pour le remplacer par des unités armées robotisées (2018).

La Russie considère la course à l’IA militaire au même niveau d’importance stratégique que la course à l’armement atomique à la fin de la Deuxième Guerre mondiale.

Les enjeux de souveraineté sont les mêmes que ceux motivant les deux concurrents majeurs : USA et Chine.

La Russie s’engage dans la robotisation de 45 % des systèmes armés terrestres d’ici à 2025. Cette mutation technologique intègre les systèmes téléopérés, dupliquants, semi-autonomes et autonomes.

 

Europe

En France, la ministre des Armées rassure la population en déclarant qu’il n’y aura pas de robot Terminator sur les Champs Élysée lors du défilé du 14 juillet.

La doctrine française affirme que l’homme doit rester dans la boucle. Il doit conserver la décision de tir, quel que soit le contexte.

Les systèmes autonomes sont à proscrire dans les Forces armées françaises.

Plusieurs pays membres de l’UE souhaitent faire adopter une loi interdisant le développement et l’usage de robots armés semi-autonomes en Europe et dans le monde.

 

3-3 Stratégies globales

 

États-Unis

La stratégie américaine est parfaitement décrite dans les nombreux documents ouverts du 3e Offset, du DOD et de la DARPA.

Des cycles courts de R&D sont initiés par la DARPA et par les Laboratoires de l’ US Navy, US Army, US AirForce, DOD.

Des concours d’innovation sont régulièrement lancés par la DARPA avec du financement assuré pour les équipes victorieuses. Par exemple : les Programmes DARPA IA pour terrains obstrués, grottes et tunnels

Les systèmes armés semi-autonomes et autonomes constituent une priorité avec l’armement hypersonique, la dissuasion nucléaire, la cyberdéfense, le soldat augmenté, le spatial.

Le Département de la Défense américain lance plusieurs programmes sur le soldat augmenté et son insertion au sein d’unité robotisée.

 

Chine

Les cinq espaces : terrestre, maritime (surface et sous-marin), aérien, spatial et cyberespace doivent être dotés de systèmes semi-autonomes et autonomes.

Le combat du futur opposera des unités robotisées chinoises aux unités robotisées américaines dans chacun des cinq espaces d’action des forces.

Pour cela, il faut préparer chaque combattant chinois à devenir compatible avec l’IA militaire.

Le gouvernement organise la détection et la sélection, dès le plus jeune âge, des futurs talents en IA et robotique. Il finance la création d’écoles d’ingénierie militaires hyper sélectives orientées vers l’IA militaire.

Des programmes sur le soldat augmenté sont lancés.

 

Russie

La Russie reproduit son plan de développement de la conquête spatiale des années 1950 en l’adaptant à la conquête de l’IA militaire.  Elle assouplit les contraintes réglementaires et budgétaires pour obtenir un dispositif résilient et efficace avec des cycles courts de développement de systèmes semi-autonomes puis autonomes.

La Russie a développé plusieurs plateformes armées téléopérées : PLATFORM-M et MARKERS dotées

de capacités DUPLIQUANT & Follow The Leader.

Certaines de ces unités robotisées ont été engagées et testées en vraie grandeur en Syrie contre des groupes terroristes.

 

Europe

À ce jour, il n’existe pas de stratégie globale identifiée à l’échelle européenne.

Il n’existe pas non plus de consensus stratégique entre États membres

L’heure est à la réglementation ou à l’interdiction des systèmes armés semi-autonomes sous la pression d’ONG et de formations politiques.

 

3-4 Points forts et capacités

 

États-Unis

Les États-Unis bénéficient d’une avance technologique et d’une position de leader.

Les GAFA agissent comme des moteurs de l’innovation mondiale en IA, robotique civile, algorithmiques et data sciences.

Il existe une proximité forte des grands écosystèmes de recherche américains avec la sphère de Défense.

Les États-Unis savent exploiter une vision stratégique à long terme et affirment leur volonté de conserver la pole position en matière d’IA et robotique.

L’écosystème s’appuie sur une culture de l’innovation en cycles courts et sur une recherche de retour sur investissement qui évite de se tromper sur le même problème plusieurs fois de suite.

Le nationalisme américain est réaffirmé au fil des différents mandats politiques.

 

Chine

La Chine s’appuie sur un écosystème R&D en IA hyper développé.

Les ingénieurs et chercheurs chinois ne copient pas les technologies occidentales, mais innovent continuellement en IA et en robotique.

Le gouvernement chinois a su installer un maillage territorial exhaustif des clusters d’IA civils et militaires (la distinction est difficile à faire).

Le volume du budget de la Défense dédié à l’IA militaire, à l’autonomie des systèmes et à la robotique est important et reconduit. Les moyens sont presque illimités en matière de dépense militaire.

Les BATX agissent comme moteurs de l’innovation mondiale en IA, robotique civile, algorithmiques et data sciences.

La Chine adopte une stratégie informationnelle de couverture globale de la planète grâce à des drones œuvrant 24/365.

Le nationalisme chinois est affirmé, réinventé en s’adaptant aux innovations technologiques.

 

Russie

Les ingénieurs russes savent développer des plateformes de robots dupliquants, « Follow The Leader » fonctionnelles et robustes (Plateforme MARKER).

Il existe un maillage important de l’industrie de défense réparti sur toute la Russie.

La Russie a su conserver ses chercheurs et ingénieurs de haut niveau en IA, data sciences et robotique.

L’agence d’innovation de la Défense russe dispose des retours d’expériences des tests réalisés en vraie grandeur sur-le-champ de bataille en Syrie contre des groupes armés terroristes.

Le gouvernement affirme sa volonté de développer les SALA afin d’économiser chaque goutte de sang du soldat russe qui doit quitter la zone de première conflictualité.

Le nationalisme russe est toujours réaffirmé et se réinvente au fil des innovations technologiques.

 

Europe

L’Europe dispose d’une capacité d’innovation de très haut niveau qui peut s’exprimer quand on ne la bâillonne pas trop avec des règlements castrateurs.

Nous disposons en Europe, et en particulier en France, des meilleurs spécialistes mondiaux en IA, en data sciences et en robotique.

Des startups championnes de l’IA et une pépite mondiale de la robotique terrestre se sont développées en France sans aide particulière.

En Estonie, la startup de robotique militaire terrestre MILREM ROBOTICS développe des systèmes armés téléopérés puis semi-autonomes du même niveau que la concurrence chinoise, russe et américaine.

 

 

 4 – L’Europe et la France confrontées à de nouveaux risques

La robotique militaire agit comme un facteur multiplicateur de puissance sur le théâtre des opérations dans l’espace physique et dans l’espace temporel. Elle augmente les performances des unités robotisées dans le combat saturant haute fréquence, dans le contrôle automatique de vastes zones géographique (H24/375) et dans la collecte automatisée de renseignement. Enfin, elle éloigne l’homme de la zone d’immédiate conflictualité et réduit le risque de létalité pour le combattant qui la met en œuvre.

Le tableau précédent nous a montré qu’il existe une concordance des efforts (R&D, budgets et programmes) des États-Unis, de la Chine et de la Russie pour développer et déployer des unités robotisées et des systèmes à haut niveau d’autonomie dans les domaines aérien, terrestre, sous-terrain, marin et sous-marin, spatial et cyber. La question n’est plus de savoir si des systèmes semi-autonomes de niveaux L1-L4 seront déployés au sein des Forces chinoises, russes, américaines, turques, indiennes, iranienne, mais selon quel rythme et quelle intensité… Dans les faits, ces systèmes seront déployés dès que leur performance et leur degré de sureté seront compatibles avec les besoins opérationnels.

À lire aussi : L’Union européenne n’a pas d’ennemis

Des discussions internationales conduites actuellement à Genève portent sur une future interdiction des systèmes pleinement autonomes. Il faut comprendre que ni la Chine, ni la Russie, ni les États-Unis ne prendront le moindre risque de signer un texte entravant leurs stratégies respectives de robotisation de leurs équipements militaires.  Bien entendu, il y aura certainement un large consensus pour interdire les « robots tueurs de type Terminator ». Cette interdiction formelle ne coutera rien à personne puisque « Terminator » n’a pas d’utilité pour les Forces. Comme les vrais enjeux se situent aux niveaux L1-L2-L3-L4, on peut faire le pari qu’aucune puissance militaire majeure ne signera de moratoire ou de limitation sur ces segments stratégiques.

La France et l’Europe sont désormais confrontées à trois risques majeurs liés à la robotisation des systèmes armés et à la montée en puissance des systèmes semi-autonomes.

 

R1 – Le risque de dépassement capacitaire de nos armées et de déclassement géostratégique

Ce risque est induit par l’émergence de nouvelles puissances militaires robotisées capables de produire, de déployer rapidement un très grand nombre d’unités de combat semi-autonomes (Turquie, Iran, Inde, Pakistan) contre une cible et de créer une surprise stratégique.

Deux contre-mesures peuvent répondre à ce risque :

  • Mettre en place une doctrine de « dissuasion » adaptative, c’est-à-dire, qui permette de déployer sans délai le même nombre d’unités robotisées pour contrer une éventuelle offensive.
  • Accélérer le développement de la filière industrielle française hybride (civile & militaire) des UGV, UAV, USV et la coordonner vers des capacités de production d’équipement militaire en contexte de crise.

 

R2 – Le risque d’autocensure industrielle en Europe   

La course à la robotisation du champ de bataille s’effectue aussi sur les champs cognitifs et idéologiques. Les États membres de l’Europe, la France en particulier, doivent prendre garde à ne rien s’interdire unilatéralement face au trio leader (USA – Chine – Russie). La France et l’Europe doivent se méfier du lobbying unilatéral de certaines ONG qui souhaitent interdire l’usage des drones et de l’IA dans les systèmes militaires.

 

Deux contre-mesures limitent ce risque :

  • Communiquer pour dépasser la représentation fantasmée du « robot tueur ».
  • Suggérer aux ONG concernées d’effectuer le même type de lobbying auprès du trio leader (USA-Chine-Russie), mais aussi auprès des pays du second cercle qui s’engagent dans la robotisation de leurs armées (entre autres, la Turquie, l’Inde, l’Iran, la Corée du Sud, Israël).

 

 

R3 – Le risque de terrorisme robotisé et distribué

Ce risque est induit par la vitesse élevée de dissémination des technologies intervenant en robotique (drones, mécatronique, contrôles, capteurs, transmissions, déplacement autonome).

Les contre-mesures à mettre en place au plus vite :

  • Sensibiliser les différents services de sécurité et les centres de décisions.
  • Accélérer le développement de systèmes anti-drones (détection, brouillage électromagnétique, laser haute énergie) et de drones « Drones-Killer », kamikazes.
  • Développer des systèmes anti-drones portables, mobiles à déploiement rapide.
  • Mener une veille exhaustive sur les innovations (robotiques, capteurs, IA) facilement détournables vers une utilisation terroriste et construire les contre-mesures potentielles.
  • Élever le niveau de sécurité des déplacements officiels (Président, ministres, délégations étrangères)
  • Ouvrir un groupe de travail sur ce risque au sein de la Commission européenne.

 

Le droniste chinois Ziyan a présenté au salon MAKS 2019 son drone léger Blowfish A3, un mini UAV dont la version militaire est en cours de déploiement dans les forces émiraties. Acquis par le gouvernement chinois pour des opérations de sécurité civile, la version militaire de Blowfish ne pèse que 38 kg. Bénéficiant d’une propulsion électrique, il ne nécessite que 3 minutes de préparation avant décollage pour une autonomie de 90 minutes. Il est en outre capable d’emporter 15 kg d’armement. Il peut être doté de mini-roquettes ou d’un magasin de 8 tubes verticaux pour bombarder à une altitude minimale de 300m des objectifs militaires à l’aide d’obus de 60 mm ou de grenades de 81 mm. Blowfish A3 est capable d’opérer en essaim à une distance de plus de 80 km.

 

5 – Quelques préconisations pour rester dans la course

Le rapport parlementaire De Ganay – Gouttefarde propose une liste de préconisations utiles et pertinentes qui devront être appliquées au plus vite. Voici, en complément non exhaustif,  celles que nous proposons.

 

Préconisations au niveau européen

P1 – Créer un consortium industriel européen robuste agile « Battle Proven Robotics » associant les industriels européens des secteurs robotique, mécatronique, électronique, photonique et Machine Learning.

P2 – « Sanctuariser » certaines entreprises européennes leaders en robotique terrestre, aérien et naval en interdisant la prise de contrôle de ces pépites industrielles par des puissances non européennes. Effectuer une veille renforcée sur les veilles technologiques ouvertes américaines, chinoises et russes.

P3 – Modérer l’activisme de certaines ONG, militant contre la robotisation des armées européennes.

P4 – Construire un « European Robotics Challenge » à l’image de ce que savent faire la DARPA américaine, l’agence d’innovation russe ou son équivalent chinois.

P5 – Fédérer les laboratoires de recherche en robotique et en IA européens autour d’un socle d’objectifs de recherche et développement en intégrant notamment les laboratoires d’Europe de l’Est (Estonie) offrant une expertise de haut niveau en robotique.

 

Préconisations au niveau national

P1 – Développer une filière française « Robotique de Défense » robuste et agile capable d’intégrer à la fois les grands acteurs industriels (Thales, Nexter, Dassault, Airbus, Naval Group, MBDA) et les petits acteurs (startups et PME hyper innovantes). Cette filière réunissant industriels, startups, Laboratoires de recherche, AID, DGA devra être capable de valoriser sa texture duale « civile–militaire ». L’un des objectifs de cette filière : offrir des unités de production industrielles scalables, insensibles aux contraintes d’approvisionnement étranger dont le cahier des charges peut se résumer ainsi : « Dans ces unités de production d’UGV, UAV, USV, tout est produit en France jusqu’au plus petit boulon ». Créer des unités de production mobiles d’UGV, UAV déployables au plus près du théâtre des opérations. Accélérer sur le segment de robotique autonome sous-marine à très longue durée d’intervention.

P2 – Créer un Challenge français international de robotique terrestre doté d’un million d’euros de récompense et de mécanismes de soutien et d’intégration à un programme R&D national pour les équipes étrangères victorieuses. Soutenir les dispositifs d’intelligence économique industrielle offensive.

P3 – Établir une liste dynamique « Premiers de la classe » (à l’image du groupe FrenchTech FT120) des entreprises françaises d’intérêt stratégique en robotique. Mettre en place des mesures de protection de ces entreprises face aux tentatives de captations étrangères. Nous ne pouvons plus nous laisser dépouiller de nos « premiers de la classe » sans réagir…

P4 – Sur un plan cognitif, dédiaboliser les mots « autonomie et semi-autonomie des systèmes robotisés ». Le terme fantasmé « robot tueur » doit disparaitre du vocabulaire ambiant car il ne correspond à aucun contexte opérationnel.

P5 – Généraliser et activer (quand il le faut) le dispositif GCAS de soutien aux entreprises d’intérêt stratégique vital.

L’année 2021 sera celle de l’intégration d’unités robotisées au sein des forces armées russes, chinoises et américaines. Puissance nucléaire, la France doit prendre en compte cette rupture technologique et se préparer aux nécessaires évolutions de sa doctrine de Défense.

À propos de l’auteur
Thierry Berthier

Thierry Berthier

Pilote du groupe Sécurité – Défense – Intelligence Artificielle du Hub France IA
La Lettre Conflits
3 fois par semaine

La newsletter de Conflits

Voir aussi

Pin It on Pinterest