RMC

Faut-il interdire les "robots tueurs"?

Comment mieux encadrer les "robots tueurs"? Sous ce terme se cache l’une des dérives les plus inquiétantes de l’intelligence artificielle : l’arrivée d’armes intelligentes capables de prendre la décision de tirer sans aucune intervention humaine.

Leur petit nom, c'est SALA: les "systèmes d’armes létaux autonomes". On parle en fait du mariage entre des armes et de l’intelligence artificielle. Des armes capables de verrouiller une cible et de prendre la décision –en fonction de critères informatiques programmés à l’avance- de tirer sans aucune intervention humaine et avec des résultats beaucoup plus "efficaces" que le meilleur des snipers ou des pilotes de chasse.

Concrètement ces robots tueurs prennent tout un tas de formes. Cela va des tanks autonomes –plus de pilote ou de tireur- à des drones avec système de reconnaissance faciale qui permettent de cibler précisément un individu ou un type d’individu et de lui tirer dessus sans intervention humaine.

Samsung a conçu des tourelles intelligentes déployées comme sentinelles à la frontière entre Corée du Sud et Corée du Nord. Elles sont équipées de mitrailleuses et de lance grenades et sont capables, grâce à des logiciels de reconnaissance de mouvements et des caméras thermiques, de détecter un intrus –un soldat nord-coréen qui passe la frontière- de l’ajuster et de lui tirer dessus. 

Une question éthique et philosophique

Cela préfigure la guerre du futur, complétement déléguée à des machines et totalement déresponsabilisant : à qui imputer les crimes de guerre par exemple ? Ça dépasse la question technologique et militaire, ce sont des questions éthiques et philosophiques: des dizaines de pays veulent interdire de manière préventive ces armes intelligentes, perçues comme une perversion de l’intelligence artificielle,   d’autres les réguler ou au moins établir des recommandations.

La France ne ferme pas complétement la porte, à condition qu’il y ait une validation humaine avant de tirer sur quelqu’un. Il y a quelques mois le patron de Thalès, grand groupe français de Défense affirmait que jamais au grand jamais il ne mettra d’intelligence artificielle dans tout ce qui est létal "même si les clients le demandent" précise-t-il.

Google, sous la pression de ses salariés, a dû promettre qu’il ne mettrait pas son intelligence artificielle au service de l’armement. Il a fallu une fronde en interne, une pétition signée par 4000 salariés pour forcer la direction à renoncer à un contrat de plusieurs millions de dollars avec le Pentagone: il s’agissait d’utiliser l’intelligence artificielle de Google pour aider les drones à mieux distinguer un objet et un être humain. Sous la pression, Google a dû renoncer et même rédiger un manifeste où le groupe explique qu’il n’intégrera pas son IA dans les armes.

Les États-Unis refusent tout moratoire sur le sujet

Sauf que certains pays n’ont pas forcément ce genre de scrupule. Pendant qu’on s’impose des limites –ce qui est louable sur le papier-, d’autres pays en ont beaucoup moins.

L’armée américaine ne s’en cache pas : elle réfléchit sérieusement à l’utilisation d’armes autonomes –et elle a tout un laboratoire pour ça, la Darpa, doté d’énormes moyens- avec un argument imparable: il s’agit de préserver la vie de ses soldats puisque ces armes autonomes seront beaucoup plus efficaces qu’un être humain pour viser et tirer, pas question de se faire dépasser technologiquement par d’autres pays qui n’auront pas les mêmes scrupules. Ils refusent tout moratoire sur le sujet et sont au contraire très intéressés –et très en pointe- sur le sujet.

En Chine par exemple, énormément de recherches dans le domaine de l’IA appliquée à l’armée, les meilleurs étudiants ingénieurs sont recrutés pour travailler sur ces programmes. Le risque, en prenant une position morale trop appuyée, c’est de désavantager nos troupes à moyen terme.

Anthony Morel