Les armes autonomes sont là, mais le monde n’est pas prêt pour elles

Cela peut être On se souvient de l’année où le monde a appris que les armes autonomes mortelles étaient passées d’un souci futuriste à une réalité de champ de bataille. C’est aussi l’année où les décideurs politiques n’ont pas réussi à se mettre d’accord sur ce qu’il fallait faire à ce sujet.

Vendredi, 120 pays participant à la Convention des Nations Unies sur certaines armes classiques n’ont pu se mettre d’accord sur l’opportunité de limiter le développement ou l’utilisation d’armes létales autonomes. Au lieu de cela, ils se sont engagés à poursuivre et à « intensifier » les discussions.

«C’est très décevant et une véritable opportunité manquée», déclare Neil Davison, conseiller scientifique et politique principal au Comité international de la Croix-Rouge, une organisation humanitaire basée à Genève.

L’échec à parvenir à un accord est survenu environ neuf mois après que l’ONU a signalé qu’une arme autonome létale avait été utilisée pour la première fois dans un conflit armé, dans la guerre civile libyenne.

Ces dernières années, de plus en plus de systèmes d’armes ont intégré des éléments d’autonomie. Certains missiles peuvent, par exemple, voler sans instructions spécifiques dans une zone donnée ; mais ils comptent encore généralement sur une personne pour lancer une attaque. Et la plupart des gouvernements disent que, pour l’instant du moins, ils prévoient de garder un humain « au courant » lorsqu’ils utilisent une telle technologie.

Mais les progrès des algorithmes d’intelligence artificielle, des capteurs et de l’électronique ont facilité la construction de systèmes autonomes plus sophistiqués, ouvrant la voie à des machines capables de décider elles-mêmes quand utiliser la force meurtrière.

Lire aussi  Intel et Nvidia s'affrontent dans les contre-la-montre GPT-3

Une liste croissante de pays, dont le Brésil, l’Afrique du Sud, la Nouvelle-Zélande et la Suisse, soutiennent que les armes autonomes létales devraient être restreintes par traité, comme l’ont été les armes chimiques et biologiques et les mines terrestres. L’Allemagne et la France soutiennent des restrictions sur certains types d’armes autonomes, y compris potentiellement celles qui ciblent les humains. La Chine soutient un ensemble extrêmement restreint de restrictions.

D’autres pays, dont les États-Unis, la Russie, l’Inde, le Royaume-Uni et l’Australie, s’opposent à l’interdiction des armes autonomes létales, arguant qu’ils doivent développer la technologie pour éviter d’être placés dans une situation de désavantage stratégique.

Les robots tueurs ont longtemps capturé l’imagination du public, inspirant à la fois des personnages de science-fiction bien-aimés et des visions dystopiques du futur. Une récente renaissance de l’IA et la création de nouveaux types de programmes informatiques capables de surpasser les humains dans certains domaines ont incité certains des plus grands noms de la technologie à mettre en garde contre la menace existentielle posée par des machines plus intelligentes.

Le problème est devenu plus pressant cette année, après le rapport de l’ONU, selon lequel un drone de fabrication turque connu sous le nom de Kargu-2 a été utilisé dans la guerre civile libyenne en 2020. Les forces alignées sur le gouvernement d’accord national auraient lancé des drones contre les troupes soutenant le national libyen Le chef de l’armée, le général Khalifa Haftar, a ciblé et attaqué des personnes de manière indépendante.

Lire aussi  Le gouvernement américain giflera les entrepreneurs avec des poursuites civiles pour avoir caché des violations

« Les convois logistiques et les forces affiliées à Haftar en retraite ont été… traqués et engagés à distance par les véhicules aériens de combat sans pilote », indique le rapport. Les systèmes « ont été programmés pour attaquer des cibles sans nécessiter de connectivité de données entre l’opérateur et la munition : en fait, une véritable capacité de « tirer, oublier et trouver » ».

L’actualité reflète la vitesse à laquelle la technologie d’autonomie s’améliore. «La technologie se développe beaucoup plus rapidement que la discussion militaro-politique», explique Max Tegmark, professeur au MIT et cofondateur du Future of Life Institute, une organisation dédiée à la lutte contre les risques existentiels auxquels l’humanité est confrontée. “Et nous nous dirigeons, par défaut, vers le pire résultat possible.”

.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick