Dans une lettre ouverte, publiée le 27 juillet à l’occasion de la Conférence internationale sur l'intelligence artificielle (IJCAI), plus d’un millier de chercheurs et de personnalités, ont réclamé l’interdiction des armes autonomes, capables « de sélectionner et de combattre des cibles sans intervention humaine ».

Parmi les signataires, se trouvent Elon Musk, PDG de Tesla (voitures électriques) et de SpaceX (technologie spatiale), et le célèbre astrophysicien britannique Stephen Hawking, qui avaient déjà fait part publiquement de leurs inquiétudes concernant les applications potentielles de l'intelligence artificielle.

Se trouvent aussi le cofondateur d’Apple, Steve Wozniak, le linguiste américain Noam Chomsky et Demis Hassabis, fondateur de DeepMind, une entreprise consacrée à l’intelligence artificielle achetée par Google.

« L’intelligence artificielle a atteint un point où le déploiement de tels systèmes sera (...) faisable d’ici quelques années, et non décennies, et les enjeux sont importants : les armes autonomes ont été décrites comme la troisième révolution dans les techniques de guerre, après la poudre à canon et les armes nucléaires. »

Ils craignent « une course à l’armement », justifiée par le fait que « remplacer des hommes par des machines permet de limiter le nombre de victimes du côté de celui qui les possède ».

Une escalade serait « inévitable », préviennent-ils, si une puissance militaire se lançait dans ce domaine. « Contrairement aux armes nucléaires, [ces armes] ne nécessitent aucun matériel de base coûteux ou difficile à obtenir ». Par conséquent, « ce ne sera qu’une question de temps avant qu’elles n’apparaissent sur le marché noir et dans les mains de terroristes, de dictateurs souhaitant contrôler davantage leur population et de seigneurs de guerre souhaitant perpétrer un nettoyage ethnique ».

« Tout comme la plupart des chimistes et des biologistes m'ont aucun intérêt à construire des armes chimiques ou biologiques, la plupart des chercheurs en intelligence artificielle n'ont aucun intérêt à construire des armes à intelligence artificielle - et ne veulent pas que d'autres ternissent leur domaine en le faisant, créant potentiellement une réaction majeure du public contre l'intelligence artificielle, restreignant ainsi ses futurs avantages sociétaux. »

La lettre a été publiée par le Future of Life Institute, un organisme à but non lucratif centré sur « les risques potentiels du développement d’une intelligence artificielle de niveau humain ».

« La question de l’interdiction des “armes létales autonomes” a fait l’objet d’une réunion de l’ONU en avril, rapporte Le Monde. Le rapporteur spécial de l’organisme, Christof Heyns, plaide depuis plus de deux ans pour un moratoire sur le développement de ces systèmes, en attendant la définition d’un cadre juridique adapté ». L’ONG Human Rights Watch a aussi dénoncé, dans un rapport publié en avril, « l’absence de responsabilité légale » s’appliquant aux actes de ces « robots tueurs ».

Photo : Le Modular Advanced Armed Robotic System (MAARS) est une expérience du DARPA (Defense advanced research project agency) américain en armement robotique télécommandé. Source : DARPA.

Psychomédia avec sources : Le Monde, Future of Life Institute.
Tous droits réservés