A Davos, la crainte des Terminators
L'humanité peut-elle assister sans réagir à l'ascension des "robots tueurs", type Terminator, qui décident d'eux-mêmes qui ils vont tuer, et quand? Des experts de haut niveau se sont inquiétés de cette question cette semaine à Davos (Suisse), et réclament des garde-fous.
Les drones, jadis limités à des missions de renseignement et devenus aujourd'hui des engins "tueurs", vont-ils céder la place à une nouvelle génération d'"armes autonomes", dotées d'une intelligence artificielle?
"Nous ne parlons pas de drones, qui sont contrôlés pas des humains. Nous parlons d'armes autonomes, ce qui signifie qu'il n'y a personne derrière elles. Des armes très précises, qui peuvent localiser et attaquer des cibles sans l'intervention humaine", a ainsi expliqué Stuart Russell, professeur en informatique à l'université de Californie, lors de ce débat organisé au Forum économique mondial de Davos. Une machine qui décide de frapper quand elle veut, et qui choisit sa cible, en fonction d'une mission destructrice générale qui lui a été assignée.
Mais comment cette machine, aussi intelligente qu'elle puisse être, fera-t-elle la différence entre un civil et un soldat, entre un soldat et un rebelle, qui se bat pour une "bonne, ou mauvaise cause"? Comment évitera-telle de tirer sur un pilote qui vient de s'éjecter d'un avion et descend en parachute, et qui cesse donc d'être un combattant ? "La question est de savoir si les robots peuvent se plier aux règles de la guerre", à la Convention de Genève, dit Stuart Russell.
Les robots tueurs, "cela signifie que les humains sont dépouillés de toute responsabilité morale", note Alan Winfield, professeur d'ingénierie électronique (University of the West of England). Et comment ces machines, qui pourraient voir le jour dans les prochaines années selon les scientifiques, se comporteront-elles dans des zones non conventionnelles, qui n'auraient pas été imaginées par leur concepteur ? "Quand vous placez un robot dans un environnement chaotique, il se conduit de manière chaotique", ajoute Alan Winfield.
Nous n'en sommes pas au stade où des armées de Terminators se battent entre elles et à la fin, un des belligérants (par procuration) admet sa défaite et dit: "Bon vous avez gagné, et vous pouvez prendre toutes nos femmes!", ont convenu ces experts à Davos, mais tous pensent qu'il faut "fixer des garde-fous".
L'Allemande Angela Kane, qui vient de quitter ses fonctions de Haute représentante de l'ONU pour les questions de désarmement, a contribué, à partir de 2013, à lancer le débat sur les "armes autonomes" au sein de l'instance internationale.
Et en juillet dernier, plusieurs milliers de chercheurs et personnalités, dont le célèbre astrophysicien britannique Stephen Hawking, ont lancé un appel pour l'interdiction des "robots tueurs", alertant sur le danger d'erreurs de cible et d'usages terroristes.
On a pris beaucoup de retard pour réagir, et "c'est peut-être trop tard", a estimé Angela Kane lors du débat. Et "il y a beaucoup de pays et de nombreux représentants de la communauté internationale qui ne comprennent pas de quoi on parle. Ces progrès techniques ne sont partagés que par un certain nombre de pays avancés", a-t-elle dit.
"Si vous retirez l'éthique, le jugement et la moralité de l'activité humaine, que ce soit en temps de paix ou de guerre, vous entraînez l'humanité à un niveau qui dépasse notre compréhension", a fait remarquer Sir Roger Carr, président de BAE Systems, gros fabricant britannique d'armes et systèmes aéronautiques. "On ne peut pas mettre en action quelque chose qui, en cas de dysfonctionnement, peut s'avérer très destructeur, avec aucun mécanisme de contrôle humain" a-t-il ajouté.
"Je suis contre les robots pour des raisons éthiques, mais je ne pense pas que ce sont des raisons éthiques qui vont l'emporter. Je pense que ce seront des arguments stratégiques", a conclu Russell.
Il a rappelé que les Américains avaient renoncé aux armes biologiques parce qu'ils avaient réalisé que ces armes pouvaient être utilisées "par n'importe qui", contre eux-mêmes. "J'espère que c'est ce qui se passera avec les robots", a-t-il ajouté. "J'espère que de nombreux pays s'efforceront de proposer un projet de traité, dans les deux ans" sur cette question, a-t-il souhaité.
À LIRE AUSSI
L'article vous a plu ? Il a mobilisé notre rédaction qui ne vit que de vos dons.
L'information a un coût, d'autant plus que la concurrence des rédactions subventionnées impose un surcroît de rigueur et de professionnalisme.
Avec votre soutien, France-Soir continuera à proposer ses articles gratuitement car nous pensons que tout le monde doit avoir accès à une information libre et indépendante pour se forger sa propre opinion.
Vous êtes la condition sine qua non à notre existence, soutenez-nous pour que France-Soir demeure le média français qui fait s’exprimer les plus légitimes.
Si vous le pouvez, soutenez-nous mensuellement, à partir de seulement 1€. Votre impact en faveur d’une presse libre n’en sera que plus fort. Merci.