Newsletters
Rechercher
Soutenir le CF2R
  • Contact
  • Mentions légales
  • Plan du site
CF2R Services 
fr Français
af Afrikaanssq Shqipam አማርኛar العربيةhy Հայերենaz Azərbaycan dilieu Euskarabe Беларуская моваbn বাংলাbs Bosanskibg Българскиca Catalàceb Cebuanony Chichewazh-CN 简体中文zh-TW 繁體中文co Corsuhr Hrvatskics Čeština‎da Dansknl Nederlandsen Englisheo Esperantoet Eestitl Filipinofi Suomifr Françaisfy Fryskgl Galegoka ქართულიde Deutschel Greekgu ગુજરાતીht Kreyol ayisyenha Harshen Hausahaw Ōlelo Hawaiʻiiw עִבְרִיתhi हिन्दीhmn Hmonghu Magyaris Íslenskaig Igboid Bahasa Indonesiaga Gaeligeit Italianoja 日本語jw Basa Jawakn ಕನ್ನಡkk Қазақ тіліkm ភាសាខ្មែរko 한국어ku كوردی‎ky Кыргызчаlo ພາສາລາວla Latinlv Latviešu valodalt Lietuvių kalbalb Lëtzebuergeschmk Македонски јазикmg Malagasyms Bahasa Melayuml മലയാളംmt Maltesemi Te Reo Māorimr मराठीmn Монголmy ဗမာစာne नेपालीno Norsk bokmålps پښتوfa فارسیpl Polskipt Portuguêspa ਪੰਜਾਬੀro Românăru Русскийsm Samoangd Gàidhligsr Српски језикst Sesothosn Shonasd سنڌيsi සිංහලsk Slovenčinasl Slovenščinaso Afsoomaalies Españolsu Basa Sundasw Kiswahilisv Svenskatg Тоҷикӣta தமிழ்te తెలుగుth ไทยtr Türkçeuk Українськаur اردوuz O‘zbekchavi Tiếng Việtcy Cymraegxh isiXhosayi יידישyo Yorùbázu Zulu
  • Le CF2R
    • Présentation
      du CF2R
    • Équipe
      de recherche
    • Gouvernance
      du CF2R
    • Partenariats
      scientifiques
    • Le CF2R
      dans la presse
    • Soutenir
      le CF2R
  • Activités
    • Colloques
      & Conférences
      • Les colloques du CF2R
      • Les conférences restreintes
      • Participation à des colloques en France
        et à l’Étranger
    • Dîners
      Débats
      • Les dîners de
        l’Intelligence Club
      • Petits-déjeuners débats
    • Soutien
      à la recherche
    • Assistance aux médias
      et aux éditeurs
    • Évaluation
      de conflits
    • CF2R Services
  • Analyses
    • L’éditorial
      d’Éric Denécé
    • Notes
      d’actualité
    • Tribunes
      libres
    • Foreign
      analyzes
    • Rapports
      de recherche
      • Rapports du CF2R
      • Rapports CF2R/CIRET-AVT
      • Autres rapports
    • Bulletins de
      documentation
    • Notes
      historiques
    • Notes
      de réflexion
    • Notes
      Psyops
    • Renseignement
      technologie
    • Fiches
      Cyber-Rens
    • Notes de Lecture
  • Publications
    • Livres
      • Chêne – E/P/A
      • CNRS Éditions
      • Connaissances et savoirs
      • Ellipses
      • Fuoco Edizioni
      • Histoire & Collections
      • L’Harmattan
      • Nouveau Monde
      • Ouest France
      • PUF
      • Éditions du Rocher
      • Tallandier
      • UPPR
      • VA Éditions
      • Autres éditeurs
    • Revues
      • Renseignement et
        opérations spéciales
    • Lettres d’information
      • Renseignor
      • I-Sources
    • Numéros spéciaux
  • Vidéos
  • Etudier le renseignement
    • FORMATIONS
      ET DIPLÔMES
    • CENTRES
      DE RECHERCHE
    • REVUES ET SITES SPÉCIALISÉS
    • RAPPORTS
      officiels
    • COLLOQUES
       
    • Prix
      académiques
  • Travailler dans le renseignement
    • Métiers et débouchés en France
    • Au service
      de l’État
      • Services du Premier Ministre
      • Ministère des Armées
      • Ministère de l’Intérieur
      • Ministère de l’Action et des comptes publics
      • Ministère de la Justice
    • Au service des entreprises et collectivités
      • L’intelligence économique
      • Les Agents de Recherches Privées (ARP)
      • Les Entreprises de Services
        de Sécurité et de Défense (ESSD)
  • Formations
    • Catalogue des
      Formations
    • SESSION INTERNATIONALE
      MARS

S'abonner aux Lettres d'information

IntelNews (5 fois par semaine)
Renseignor (chaque semaine)
CF2R Infos (tous les mois)

Merci de votre inscription !

Accueil > Analyses > Notes Renseignement, technologie et armement > Guerre électronique, technologies et armement > Les paradoxes de l’intelligence artificielle appliquée aux systèmes d’armes autonomes
Print Friendly, PDF & Email
NOTE RENSEIGNEMENT, TECHNOLOGIE ET ARMEMENT N°21 / septembre 2020

Les paradoxes de l’intelligence artificielle appliquée aux systèmes d’armes autonomes

Olivier DUJARDIN

 

En juillet 2021, l’US Air Force envisage de faire s’affronter, lors de vols réels, un avion de combat piloté par un homme, contre un autre, « dronisé », entièrement piloté par une intelligence artificielle (IA). Cette expérimentation est la suite logique des essais qui ont été réalisés sur simulateur de vol où une IA a battu un pilote présenté comme expérimenté (la qualité de la prestation du pilote ne relève toutefois pas du meilleur niveau[1]). C’est bien là une des applications majeures de l’IA : donner une plus grande indépendance d’action aux systèmes de combat autonomes. Jusqu’ici, dans la majorité des cas, les robots ou les drones à usage militaire sont surtout des machines télépilotées qui ne disposent que de relativement peu d’autonomie propre (scénarios L0 et L1[2]). C’est un des points qui a motivé les forces russes à doter leurs robots de combat d’IA plus autonome, suite aux différents retours d’expérience en Syrie lorsque leur robot URAN-9 avait souffert de la perte régulière de la liaison de données à cause des problèmes de propagation radio en milieu urbain.

 

Deux paradoxes majeurs

Outre sa capacité à mieux prendre en compte des données contextuelles reçues par les capteurs de la machine, l’IA permet aussi d’être beaucoup moins dépendant des liaisons de données et une plus grande vitesse de prise de décision. Seulement, dans le même temps, pour des questions éthiques, morales et dans un souci d’acceptabilité, afin de s’assurer que les décisions prises sont bien les bonnes, on cherche à rendre les IA compréhensibles. C’est-à-dire que l’on veut comprendre comment une IA en est arrivé à prendre une décision en fonction des données dont elle disposait ; on veut, d’une part, vérifier le bien-fondé des décisions prises – identification des paramètres qui ont le plus pesé dans la décision – et, d’autre part, s’assurer que des systèmes identiques prennent bien les mêmes décisions dans les mêmes circonstances. Cela va bien plus loin que la simple « interprétabilité[3] » des résultats qui se contente de calculer, a posteriori, des indicateurs d’importance mais qui ne peut pas prédire, a priori, le résultat. Ce dernier point peut interroger étant donné que « l’explicabilité » d’un algorithme d’IA est, d’une certaine façon, antinomique avec la notion d’intelligence telle qu’elle est définie pour le monde du vivant. Sachant qu’il n’y a rarement qu’une seule solution à un problème, rendre les IA prédictibles, c’est aussi se priver d’options et cela offre à l’adversaire la possibilité d’anticiper plus facilement les réactions des machines, s’il a pris le temps de les étudier suffisamment. D’une certaine manière, plus l’explicabilité de l’IA sera importante et moins cette IA sera « intelligente » et plus elle ressemblera à un algorithme classique d’automatisation de certaines tâches. C’est là le premier paradoxe.

Le second paradoxe est la conséquence des considérations éthiques et morales. Il est de plus en plus admis que l’homme devra rester dans la boucle, d’une manière ou d’une autre (scénarios L0 à L4), si une arme doit être mise en œuvre. Le cadre juridique international de la mise en œuvre d’armes relevant exclusivement d’une IA pose de sérieux problèmes. Pourtant, si on revient sur l’expérimentation que va faire l’USAF en 2021, il est difficile d’imaginer que l’humain puisse rester dans la boucle au moment du tir. Le moment où le drone sera dans une position favorable pour le tir ne durera parfois que quelques fractions de secondes. Si, à ce moment, le drone de combat doit attendre la validation de sa décision par un humain, cela réduira à néant l’avantage opérationnel offert par l’IA. C’est un cas de figure très courant, dans le feu de l’action, dans des environnements très changeants – combat en milieu urbain par exemple. Le problème reste globalement identique, dans le cas où une autorisation de destruction est donnée dès le contact avec la cible, avant même que le système soit en position de tir, car le temps entre ces deux étapes – prise de contact et position de tir – peut être aussi extrêmement court. De la même manière, si l’IA est vue comme un moyen de rendre plus résilientes des plateformes autonomes dans une ambiance de guerre électronique intense, cet avantage disparaîtra également si les plateformes sont contraintes de maintenir une liaison de données pour obtenir les autorisations de tir. Dans ce cas, au lieu d’améliorer la résilience, cela aura l’effet exactement inverse, en rendant les armées encore plus dépendantes des liaisons radiofréquences. L’adversaire serait alors en mesure de bloquer toute action offensive, juste en empêchant les plateformes robotisées de recevoir les validations de tir. Garder l’homme dans la boucle des IA prive les robots/drones de combat de deux avantages majeurs offerts par les IA qui sont la rapidité de décision dans des environnements complexes et la moindre dépendance envers les liaisons de données.

 

Les conséquences opérationnelles

Ces deux paradoxes ne posent pas encore de problème tant que l’on est dans la recherche, l’expérimentation et les essais ; mais des choix devront être faits dans le cadre d’une réflexion opérationnelle. Cela donne clairement les différentes orientations probables quant à l’utilisation de l’IA sur des plateformes de combat.

Le premier cas serait une utilisation de l’IA afin de limiter la charge mentale des équipages des plateformes de combat. Cela permettra de bénéficier de sa capacité d’analyse des importants volumes de données mais cela n’augmentera pas significativement la capacité de réaction des équipages, particulièrement au cœur de l’action. L’apport de l’IA sera une aide majeure dans l’automatisation de certaines tâches et dans la compréhension de l’environnement, mais cela ne révolutionnera pas fondamentalement l’emploi des forces et, surtout, on continuera à exposer des équipages humains. Ce serait plus une évolution naturelle vers une automatisation croissante de certaines fonctions comme c’est déjà le cas depuis plusieurs décennies.

Le deuxième cas serait une utilisation de l’IA dans des drones/robots de combat qui permettra de limiter l’empreinte logistique actuelle de ces matériels. Aujourd’hui, la mise en œuvre d’un drone Reaper demande plus de personnel (pilotage, exploitation des capteurs, maintenance et entretien) que la mise en œuvre d’un appareil ISR léger et a une empreinte logistique beaucoup plus lourde[4]. Toutefois, cela n’améliorera en rien la résilience des plateformes en ambiance de guerre électronique intense, les systèmes restant entièrement dépendants des liaisons de données pour la mise en œuvre des armements. Là encore, l’apport de l’IA ne sera qu’une évolution des systèmes existant (scénarios L0 à L3).

Le troisième cas serait une utilisation de l’IA afin de réaliser des plateformes de combat entièrement ou presque entièrement autonomes (scénarios L4 et L5). Ce dernier cas est celui où les avantages de l’IA seraient le plus exploitées : résilience, vitesse de réaction face aux menaces et besoin de peu de personnel. Seule cette utilisation peut réellement être un Game Changer sur le champ de bataille. Toutefois, les IA sont encore peu matures, elles souffrent de nombreuses failles et elles peuvent être trompées[5]. Le risque d’erreur doit être considéré comme élevé, ce qui fait que leur acceptabilité éthique et morale est encore loin d’être acquise auprès de l’opinion publique et donc des décideurs politiques.

 

*

 

Les implications éthiques et morales posent un réel problème de fond quant à l’utilisation d’IA sur des plateformes de combat. On veut de l’IA pour améliorer la réactivité et l’autonomie, sans exposer de personnel humain, mais, en même temps, on veut que les décisions prises par ces IA soient prévisibles (explicabilité), reproductibles et validées par un humain. On se prive donc des principaux avantages apportés par les IA – si on fait abstraction de leurs limites actuelles. Les questions éthiques et morales entrent donc en conflit direct avec la notion d’efficacité opérationnelle. Or, il n’est pas du tout certain que tous les Etats fassent les mêmes choix. Il est possible, et même très probable, qu’un certain nombre de nations privilégie l’efficacité opérationnelle face aux questions éthiques. Le pire est que ces choix ne seront probablement pas ouvertement assumés et, comme il sera impossible de connaître à l’avance l’étendue de l’autonomie qui sera accordée aux IA par tel ou tel Etat, il sera aussi impossible de connaître la réalité de la menace. Dans un monde où certains états auront fait le choix de développer des Système d’Armes Létales Autonomes (SALA), et compte tenu des avantages opérationnels potentiels que cela leur procurera, les considérations éthiques et morales pourront-elles encore avoir leur place dans les conflits du futur ? En conséquence, est-il opportun de prendre en compte les considérations éthiques dans la recherche sur les IA, au risque de se priver de machines du même niveau que celles de nos adversaires potentiels ? Ou au contraire, faut-il faire fi de ces considérations pour être certain de rester au même niveau qu’eux ? Ces questions sont complexes et devront être tranchées relativement rapidement ; on ne pourra pas continuer longtemps en faisant semblant d’ignorer les paradoxes de l’argumentation actuelle sur les avantages potentiels qu’offrent les IA alors que se profilent à l’horizon des champs de bataille avec de plus en plus de plateformes robotisées.

 

 

 


[1] https://www.youtube.com/watch?v=v4PNGkif1nw

[2] Les systèmes d’armes létaux autonomes (rapport parlementaire N°3248 du 22 juillet 2020)

[3] https://perso.math.univ-toulouse.fr/mllaw/home/statisticien/explicabilite-des-decisions-algorithmiques/

[4] https://www.franceculture.fr/emissions/le-monde-des-espions-saison-2-les-nouveaux-corsaires/les-auxiliaires-prives-du-renseignement-francais-avec-bernard-barbier-0

[5] Cf. Olivier Dujardin, « Applications de l’IA au domaine militaire, perspectives et risques », Défense et sécurité internationale, Hors série n°73, août 2020.

©Agence Pappleweb - 2021

Nous utilisons des cookies pour vous offrir la meilleure expérience sur notre site.

Vous pouvez en savoir plus sur les cookies que nous utilisons ou les désactiver dans les réglages.

Centre Français de Recherche sur le Renseignement
Résumé de la politique de confidentialité

Ce site utilise des cookies afin que nous puissions vous fournir la meilleure expérience utilisateur possible. Les informations sur les cookies sont stockées dans votre navigateur et remplissent des fonctions telles que vous reconnaître lorsque vous revenez sur notre site Web et aider notre équipe à comprendre les sections du site que vous trouvez les plus intéressantes et utiles.

Cookies strictement nécessaires

Cette option doit être activée à tout moment afin que nous puissions enregistrer vos préférences pour les réglages de cookie.

Si vous désactivez ce cookie, nous ne pourrons pas enregistrer vos préférences. Cela signifie que chaque fois que vous visitez ce site, vous devrez activer ou désactiver à nouveau les cookies.