D'ici 30 ans, les machines seront capables de faire presque tout travail que les humains peuvent faire, a déclaré le chercheur en sciences informatiques Moshe Vardi de l'université Rice au congrès de l'American Association for the Advancement of Science (AAAS), appelant ses collègues à se pencher sur les implications sociétales de cette révolution.

« Nous approchons du moment où les machines pourront surpasser les humains dans presque toutes les tâches », a-t-il lancé. Aucune profession n'est à l'abri, pas même les travailleurs du sexe.

« Si les machines sont capables de faire presque tout le travail que font les humains, que feront ces derniers ? » L'intelligence artificielle pourrait mener à un chômage mondial de 50 %, estime-t-il, détruisant les emplois de la classe moyenne et exacerbant les inégalités.

L'économie mondiale peut-elle s'adapter à une proportion de plus de 50 % de la population sans emploi ? demande-t-il. Ceux qui seront sans emploi se contenteront-ils de vivre une vie de loisirs ?

Par exemple, estime Bart Selman, professeur de sciences informatiques à l'Université Cornell, 10 % des emplois qui nécessitent de conduire un véhicule aux États-Unis pourraient disparaitre en raison de l'automatisation de la conduite d'ici 25 ans.

Des progrès très importants ont été réalisés depuis cinq ans, a-t-il expliqué, notamment dans la vision et l'ouïe artificielles. « Les ordinateurs commencent essentiellement à entendre et à voir comme les humains » grâce aux progrès liés aux grandes bases de données et aux techniques d'apprentissage profond.

Les investissements en intelligence artificielle aux États-Unis, a-t-il indiqué, ont été, de loin, les plus élevés en 2015 depuis la naissance de ce domaine de recherche il y a 50 ans, citant Google, Facebook, Microsoft et Tesla, du milliardaire Elon Musk, et soulignant que le Pentagone a demandé 19 milliards de dollars pour développer des systèmes d'armement intelligents.

« On peut donc s'interroger sur le niveau d'intelligence que ces robots pourront atteindre et si les humains ne risquent pas un jour de perdre le contrôle », a-t-il pointé.

Ces questions ont conduit à envisager l'établissement de règles éthiques pour encadrer le développement de l'intelligence artificielle ainsi que de programmes centrés sur la sécurité. Elon Musk a lancé en 2014 une initiative de 10 millions de dollars à cette fin, estimant que l'intelligence artificielle était « potentiellement plus dangereuse que le nucléaire ».

En 2015, un groupe de personnalités, dont Stephen Hawking, Elon Musk et Steve Wozniak, cofondateur d'Apple, ont publié une lettre ouverte plaidant pour l'interdiction des armes autonomes.

Psychomédia avec source : Rice University, The Guardian, AFP (Le Parisien).
Tous droits réservés