Lecture en cours
On ne veut pas de leurs robots tueurs!

On ne veut pas de leurs robots tueurs!Temps de lecture : 4 minutes

L’innovation technologique en matière d’intelligence artificielle, en grande partie financée par les budgets militaires, ne sert pas uniquement à orienter la consommation culturelle sur les plateformes de streaming. Elle participe également à automatiser des machines de guerre dans la sélection de leur cible. Leur prolifération constitue un grave danger pour l’humanité. C’est pourquoi, Silo diffuse ici un appel de l’Observatoire Français des Robots Autonomes Tueurs à se mobiliser contre le déploiement de ces armes létales autonomes.

Observatoire Français des Robots Autonomes Tueurs

Envoyez un mail de contact à ofrat@protonmail.com

Il faut bannir les Robots Autonomes Tueurs

Des scientifiques et ingénieurs de l’Intelligence Artificielle s’activent à développer des robots tueurs autonomes – les Systèmes d’Armes Létales Autonomes ou « SALA » –, des machines qui peuvent sélectionner, traquer et tuer des personnes sans contrôle humain. D’ores et déjà, l’ONU a signalé qu’un « drone suicide » Kargu-2 entièrement autonome a été déployé en Libye en 2020.

Il faut impérativement nous mobiliser pour les bannir, c’est devenu urgent !

Une véritable révolution

Les robots tueurs incarnent la « troisième révolution » dans l’armement, à la suite de la poudre puis de l’arme nucléaire, chaque révolution augmentant infiniment le nombre des victimes de guerres. La poudre a connu son apogée lors de la Seconde guerre mondiale détruisant plus de 60 millions de personnes dont 40 millions de civils. Le 6 août 1945 à Hiroshima, une unique bombe anéantit en quelques secondes plus de 140 000 personnes, essentiellement civiles, calcinées, soufflées ou irradiées, puis détruit la vie des 650 000 hibakusha, les « personnes affectées par la bombe » souffrant de brûlures et de cécité. Les physiciens du 20e siècle nous ont légué l’arme nucléaire, une invention à même de mettre un terme en moins d’une heure à l’humanité telle que nous la connaissons.

Les informaticiens spécialistes de l’Intelligence Artificielle sont à leur tour entrés dans l’arène militaire, travaillant à la mise au point de robots armés capables de percevoir activement leur environnement et planifier des missions les amenant à sélectionner, poursuivre et détruire des « cibles » définies par un simple fichier de données numériques : armes, véhicules, infrastructures ou êtres humains, ils ne peuvent faire la différence.

Nous sommes instruits par les deux premières « révolutions de l’armement », il nous faut empêcher celle qui s’annonce :  un basculement dans la terreur et le nihilisme des robots tueurs d’êtres humains.

Des risques incalculables

Les robots tueurs seront la source de nouveaux dangers pour une humanité déjà en crise profonde. Leur déploiement entraînera une réduction significative des freins à la guerre, qu’ils soient humains, politiques, économiques ou sociaux, libérant leur utilisation dans toutes sortes de conflits. Les États, qu’ils soient surpuissants ou démunis, y trouveront les armes idéales minimisant drastiquement leurs pertes en soldats, le premier frein à la guerre. Les criminels et les groupes terroristes y trouveront la parfaite « arme du faible » disponible à très bas prix et déclenchable à distance, sans risque, sans trace. Les drones-suicides remplaceront les commandos-suicides. Techniquement, l’impossibilité de contrôler totalement des robots « autonomes » annonce la possibilité de leur perte de contrôle. Enfin, alors que la très grande complexité de l’arme nucléaire a représenté un frein important à sa prolifération, il en sera tout autrement des robots tueurs, dont la miniaturisation et les faibles coûts fourniront les conditions d’une prolifération impossible à contenir. Il nous faut agir avant.

La porte d’entrée du nihilisme

Les robots tueurs suppriment la responsabilité et la décision humaine là où elle est la plus indispensable : lorsqu’il s’agit de tuer délibérément des êtres humains. Une machine ne comprend pas ni le monde ni la vie, elle n’a ni valeur ni sens. Elle ne connaît que des données et des calculs mécanisés qui produisent de nouvelles données. Ce sont sur des pixels annotés par des données qu’un robot tueur décide de tirer ses munitions ou de se lancer pour exploser. Permettre à des machines de décider de traquer et tuer des humains nous enfoncerait dans un nihilisme radical dont on ne peut mesurer les conséquences. Si on la laisse se produire, la première attaque d’un essaim de dizaines, de centaines ou de milliers de drones tueurs sera un moment de terreur absolue. Et très bon marché.

Nous sommes la société civile du troisième marchand d’armes

En France – troisième exportateur d’armes au monde – c’est en dehors de tout débat citoyen que militaires, politiques et industriels de l’armement, s’entendent pour produire, vendre et utiliser des robots guerriers. Regroupés avec les autres pays producteurs – États-Unis, Israël, Turquie, Chine, Russie, Royaume-Uni et Corée du Sud – ils bloquent les avancées au sein du groupe de travail sur les Systèmes d’Armes Autonomes (AWS) de l’ONU dont le Secrétaire général a déclaré « J’appelle les États à interdire ces armes, qui sont politiquement inacceptables et moralement répugnantes. ». Alors que plus de 70 pays ont appelé à la création d’une réglementation internationale des robots autonomes tueurs, la position officielle française est de promouvoir une « déclaration politique juridiquement non contraignante ». En bon français : accélérer plus encore la recherche scientifique et le développement industriel et lâcher la bride sur les robots-tueurs.

Nous sommes responsables, car seule la société civile organisée – Nous !  – peut imposer à l’ONU l’évolution du Droit international garantissant le bannissement des SALA. L’Observatoire Français des Robots Autonomes Tueurs – OFRAT – est en cours de création pour rejoindre le combat STOPKILLERROBOTS déjà mené par de nombreuses ONG, dont Human Rights Watch et Amnesty International, et porter l’opposition française à ces machines infernales. Pour s’y connecter, envoyer un mail à : ofrat@protonmail.com

Pour citer cet article

OFRAT, « On ne veut pas de leurs robots tueurs », Silomag 15, juillet 2022. URL : https://silogora.org/on-ne-veut-pas-de-leurs-robots-tueurs/

Réagir

Si vous souhaitez réagir à cet article, le critiquer, le compléter, l’illustrer ou encore y ajouter des notes de lecture, vous pouvez proposer une contribution au comité de rédaction. Pour cela, vous pouvez envoyer votre texte à cette adresse : contact@silogora.org

AGORA DES PENSÉES CRITIQUES
Une collaboration

Mentions légales Crédits