Ce que vous devez savoir sur l’intelligence artificielle dans les conflits armés
Les avancées de l’intelligence artificielle dans le domaine militaire posent des questions extrêmement préoccupantes pour l’humanité. Nous faisons le point dans cet article sur quelques-unes des principales questions et préoccupations liées à l’utilisation de cette technologie, et notamment de l’apprentissage automatique, dans les conflits armés.
Qu'est-ce que l'intelligence artificielle ?
Ce terme désigne la capacité de systèmes informatiques à effectuer des tâches qui nécessiteraient normalement la cognition, la planification ou le raisonnement d'un être humain.
Un exemple bien connu d'intelligence artificielle est le programme sur lequel est basé ChatGPT, mais il en existe bien d'autres.
Un système d'intelligence artificielle fonctionne grâce à des algorithmes. Un algorithme classique est un ensemble d'instructions, ou de règles, qu'un ordinateur ou une machine doit appliquer pour apporter une réponse à une question ou pour résoudre un problème.
L'apprentissage automatique est une forme d'intelligence artificielle capable de créer ses propres instructions à partir des données qui ont servi à l'« entraîner ». Le système utilise alors ces instructions pour trouver une solution à un problème donné. En quelque sorte, le logiciel se programme lui-même. Dernièrement, c'est ce domaine qui a connu le plus d'avancées dans le champ de l'intelligence artificielle.
Une fois affectés à une tâche particulière, certains de ces systèmes continuent d'« apprendre » en exploitant les données issues de l'environnement dans lequel ils fonctionnent.
En raison de la nature même de l'apprentissage automatique, un système d'intelligence artificielle ne réagit pas toujours de façon identique à une même donnée (à la différence des algorithmes fondés sur des règles simples), ce qui le rend donc imprévisible.
Un autre défi réside dans le fait que ces systèmes fonctionnent en « boîte noire ». Autrement dit, il peut être très difficile d'expliquer rétrospectivement pourquoi un certain résultat a été obtenu et ce, alors même que les données d'entrée sont connues.
Quelles pourraient être les applications de l'intelligence artificielle dans les conflits armés ?
Les forces armées investissent massivement dans l'intelligence artificielle et il existe déjà des exemples de déploiement de cette technologie sur le champ de bataille, qu'elle soit utilisée pour guider des opérations militaires ou dans le cadre de systèmes d'armement.
Le CICR a mis en lumière trois domaines dans lesquels l'intelligence artificielle est développée en vue d'une application militaire et qui soulèvent d'importantes questions sur le plan humanitaire :
- son intégration dans des systèmes d'armement, et notamment dans des systèmes d'armes autonomes,
- son utilisation dans des cyberopérations et des opérations d'information,
- son rôle sous-jacent dans les systèmes militaires d'aide à la décision.
Ce sont les systèmes d'armes autonomes qui ont le plus retenu l'attention concernant l'utilisation de l'intelligence artificielle à des fins militaires. Par exemple, des inquiétudes ont été exprimées quant au fait que l'intelligence artificielle pourrait servir à déclencher directement une frappe contre une personne ou un véhicule.
Le CICR a exhorté les gouvernements à adopter de nouvelles règles internationales interdisant ou limitant l'emploi de certaines armes autonomes, notamment celles contrôlées par une intelligence artificielle.
Les armes autonomes ne sont pas une œuvre de science-fiction, ils sont là et influencent déjà la façon dont les guerres sont menées.
Qu'est-ce qu'une arme autonome ? Pourquoi devrions-nous nous en préoccuper ?
Explications de @NeilDvsn
https://t.co/ybpaSe5tO7— CICR (@CICR_fr) October 5, 2023
Les risques liés au recours à l'intelligence artificielle dans les cyberopérations et les opérations d'information, ainsi que dans les systèmes d'aide à la décision, sont passés un peu plus inaperçus. Voir la section ci-dessous à ce sujet.
Toutes ces applications pourraient néanmoins avoir des effets néfastes sur les populations civiles si la communauté internationale n'adopte pas une « approche centrée sur l'humain » vis-à-vis de l'utilisation de l'intelligence artificielle dans les conflits armés.
De quelle façon l'intelligence artificielle est-elle employée pour guider les décisions militaires ?
Un système d'aide à la décision est un outil informatique, potentiellement équipé d'une intelligence artificielle, capable de produire des analyses destinées à éclairer la prise de décisions militaires.
Ces systèmes sont conçus pour recueillir, analyser et combiner des sources de données afin, par exemple, d'identifier des personnes ou des objectifs, d'évaluer des types de comportement, de recommander des opérations militaires, voire d'établir des prédictions quant à des actions ou des situations futures.
Par exemple, un système de reconnaissance d'images par intelligence artificielle pourrait servir à faciliter l'identification d'objectifs militaires via l'analyse d'images transmises par un drone, ainsi que d'autres sources de renseignements, en vue de recommander des frappes possibles.
En d'autres termes, ces systèmes d'intelligence artificielle peuvent être utilisés pour aider à décider qui ou quoi attaquer, et à quel moment. De manière alarmante, il a même été suggéré que des systèmes fondés sur l'intelligence artificielle pourraient guider la prise de décisions impliquant le recours aux armes nucléaires.
Certains avancent que ces systèmes pourraient permettre de soutenir les processus décisionnels humains dans l'optique d'un plus grand respect du droit international humanitaire et d'une réduction des risques pour les civils.
D'autres préviennent qu'une dépendance excessive vis-à-vis des résultats produits par une intelligence artificielle fait naître des préoccupations quant à la protection des populations civiles et au respect du droit international humanitaire. Ces inquiétudes portent notamment sur la nécessité de préserver le jugement humain dans les décisions juridiques, surtout au vu de l'opacité et des biais relevés dans de nombreux systèmes d'apprentissage automatique actuels.
Quel rôle l'intelligence artificielle peut-elle jouer dans la guerre de l'information ou la cyberguerre ?
Il faut s'attendre à ce que l'intelligence artificielle modifie la façon dont les acteurs lancent des cyberattaques et se défendent contre celles-ci.
Ainsi, des systèmes dotés d'une intelligence artificielle et de facultés d'apprentissage automatique pourraient rechercher de manière autonome des failles à exploiter dans les réseaux adverses, tout en s'efforçant de détecter les faiblesses dans les leurs. En cas d'offensive ennemie, ils seraient en mesure de lancer des contre-attaques de façon automatique et simultanée.
Les évolutions de ce type pourraient se traduire par des cyberattaques plus extrêmes par leur ampleur, mais aussi par leur nature et leur gravité, notamment du point de vue de leurs conséquences sur les personnes et les infrastructures civiles.
La guerre de l'information fait depuis longtemps partie intégrante des conflits. Mais l'émergence du numérique et de l'intelligence artificielle sur le champ de bataille a modifié la façon dont l'information et la désinformation se propagent, et dont cette dernière se crée.
Ainsi, l'intelligence artificielle a été largement exploitée pour produire de faux contenus – textuels, audio, vidéo et photo – qu'il est de plus en plus difficile de distinguer d'informations authentiques.
L'intelligence artificielle et l'apprentissage automatique ne jouent pas toujours un rôle dans la guerre de l'information mais, selon toute vraisemblance, ces technologies sont en passe de changer la nature et l'échelle de la manipulation de l'information, ainsi que ses conséquences dans le monde réel.
Pourquoi le CICR est-il préoccupé par l'utilisation de l'intelligence artificielle et de l'apprentissage automatique dans les conflits armés ?
L'utilisation de l'intelligence artificielle et de l'apprentissage automatique dans les conflits armés a d'importantes répercussions sur le plan humanitaire, juridique, éthique et de la sécurité.
Au vu de la rapidité avec laquelle les avancées de l'intelligence artificielle sont intégrées dans les systèmes militaires, il est vital que les États prennent en compte les risques spécifiques que cela fait peser sur les personnes touchées par des conflits armés.
Bien que les conséquences à prendre en considération soient nombreuses, les risques suivants doivent plus particulièrement retenir notre attention :
- l'augmentation des dangers posés par les armes autonomes ;
- l'aggravation des dommages causés par les cyberopérations et la guerre de l'information sur les personnes et les infrastructures civiles ;
- l'impact négatif sur la qualité des décisions prises par des humains dans les milieux militaires.
Il est important que les États fassent en sorte que l'intelligence artificielle, y compris l'apprentissage automatique, ne puisse pas être utilisée sans un contrôle et un jugement humains effectifs pour réaliser des tâches ou prendre des décisions susceptibles d'avoir des incidences graves sur la vie humaine.
Le respect des obligations juridiques et des responsabilités éthiques en temps de guerre ne doit pas être délégué à des machines et à des logiciels.
Quel message le CICR souhaite-t-il envoyer à la communauté internationale ?
Il est primordial que la communauté internationale adopte une approche véritablement centrée sur l'humain vis-à-vis du développement et de l'utilisation de l'intelligence artificielle dans les contextes de conflits armés.
Il convient en priorité d'étudier les obligations et les responsabilités qui incombent aux êtres humains, et de déterminer les garde-fous à instaurer pour garantir que ces technologies sont mises en œuvre dans le respect du droit international, ains que des valeurs sociétales et éthiques.
Du point de vue du CICR, les débats sur les usages militaires de l'intelligence artificielle et de l'apprentissage automatique, ainsi que toutes les règles, réglementations ou limites supplémentaires