TSGJB BANNER

Armes létales autonomes : faut-il interdire les robots tueurs ?

Armes létales autonomes : faut-il interdire les robots tueurs ?

Aux Nations Unies, quelques pays viennent de bloquer la mise en place d'un traité d'interdiction des Systèmes d'armes létaux autonomes, ou SALA. Les robots tueurs peuvent donc poursuivre leur développement avant d'arriver sur le champ de bataille. La communauté scientifique est inquiète et les ONG multiplient les appels pour imposer ce traité. Et si la solution consistait à donner une morale aux robots ?

Après une semaine de réunion au bureau des Nations Unies à Genève (Suisse), la mise en place d'un nouveau traité international interdisant l'usage d'armes létale autonomes a été bloquée par une minorité de pays (Australie, Corée du Sud, États-Unis, Israël et Russie). Au final, sur ce sujet, seules une vingtaine de recommandations, non contraignantes, ont été adoptées à l'issue de la réunion, dans la nuit de vendredi à samedi derniers. Elle s'est surtout consacrée à reconduire le mandat actuel du groupe d'experts gouvernementaux.

L'Allemagne et la France ont simplement proposé de maintenir le principe de contrôle humain sur l'usage de la force, alors que le président Emmanuel Macron s'était déjà « catégoriquement opposé »aux armes létales entièrement autonomes.

Mais seul un traité peut protéger l'humanité contre ces robots tueurs, et celui-ci est loin d'être sur les rails. D'ailleurs, l'Australie, la Corée du Sud, les États-Unis, Israël et la Russie s'opposent à toute proposition de traité pour le moment.

Faut-il un code éthique chez les robots tueurs ?

Les SALA, ou robots tueurs, sont déjà expérimentés depuis des années. Futura évoque régulièrement les prototypes de Boston Dynamics. La firme développe depuis plus de vingt ans des robots dédiés à la guerre. Des robots qui se déclinent en machines bipèdes, quadrupèdes aux capacités impressionnantes. Qu'il s'agisse de ces robots particuliers, de drones autonomes ou de véhicules armés sans occupants, l'arrivée d'un « Terminator » programmé pour tuer de façon autonome et froide des cibles prédéfinies n'est désormais plus du domaine de la science-fiction. Ce genre de robot de combat pourrait débarquer sur les champs de bataille d'ici quelques années aux côtés des troupes, ou à leur place. Et surtout, l'absence de réglementation en la matière va fatalement engendrer une course aux armements une fois que les premiers modèles de robots de combat seront véritablement opérationnels.

Pour l'ONG Human Rights Watch, à l'origine de la campagne Stop Killer Robots, l'arrivée de ces armes est dramatique. Selon elle, des dictateurs ou des terroristes pourraient en disposer assez facilement et à bon prix pour contrôler ou exterminer des populations. Ils pourraient également ordonner aux machines des assassinats ciblés. L'ONG n'est pas la seule à mobiliser les consciences sur ces robots tueurs. Le 18 juillet dernier, des ténors de l'univers du high-tech, dont Elon Musk, ont mis en garde les pays membres des Nations Unies contre ces armements. Les signataires craignent que leur utilisation dans les conflits vienne dépasser l'échelle de la compréhension humaine.

Ces réactions sont loin d'être les premières. Chaque année, depuis 2014, ce genre de message est adressé aux Nations Unies. En vain. Dès les prémices de ces évolutions techniques, des personnalités notoires des sciences, à commencer par Stephen Hawking, Max Tegmark, Stuart Russell ou Frank Wilczek, y ont exposé leurs craintes contre le potentiel danger de l’IA.

Si aucun accord ne peut les interdire, une des solutions pourrait consister à les humaniser, pour qu'elles se comportent de façon « morale » sur les champs de bataille. Il s'agirait de les doter d'un code de valeurs propre aux combattants. C'est d'ailleurs ce que préconise le lieutenant-colonel de l'armée française Brice Erbland dans son ouvrage Robots tueurs, aux éditions Armand Colin. Il montre ce que pourrait être un SALA doué d'une IA pouvant faire preuve de suffisamment de discernement pour se comporter comme des soldats. Autrement dit, ces robots autonomes de combat devraient intégrer une éthique artificielle. On ne parlerait alors plus de SALA, mais plutôt de SALMA (Systèmes d'armes létaux, moralement autonomes).

Cependant, pour que cela soit le cas, il faudrait que tous les États jouent le jeu. En attendant, ils restent majoritairement d'accord sur la nécessité de maintenir un contrôle humain sur les systèmes d'armes létaux autonomes. C'est pourquoi la grande majorité des 88 États membres souhaitent qu'un nouveau traité soit proposé en 2019.

Publier Le 5 septembre 2018                        

Source web par: futura-sciences    

Les tags en relation

 

Les articles en relation