Les voitures autonomes sans conducteur posent un dilemme en matière de sécurité dans certaines situations critiques. Qui devraient-elles protéger ? Devraient-elles être programmées pour prioriser la sécurité des piétons ou des passagers ?

Les gens ont des approches conflictuelles et prennent des positions contradictoires lorsque confrontés à certains scénarios, montre une étude publiée dans la revue Science.

Dans une série d'enquêtes menée en 2015, le chercheur en psychologie Iyad Rahwan du Massachusetts Institute of Technology (MIT) et ses collègues (1) ont constaté que les gens adoptent généralement une approche utilitariste de l'éthique en matière de sécurité :
ils préféreraient que les véhicules autonomes minimisent les pertes dans les situations de danger extrême. Par exemple, 76 % pensent qu'il est plus moral de sacrifier un passager plutôt que 10 piétons.

Cela signifierait, par exemple, qu'une voiture avec un conducteur dévie de sa route pour foncer sur un arbre afin d'éviter les piétons. Mais, ils n'étaient que 50 % à considérer utiliser un véhicule qui serait programmé de cette façon.

Les répondants étaient fermement opposés à l'idée d'une réglementation gouvernementale assurant que les véhicules soient programmés selon les principes utilitaristes. Ils étaient aussi trois fois moins susceptibles d'acheter un véhicule réglementé de cette façon, comparativement à un véhicule non réglementé, qui pourrait être programmé d'une manière quelconque.

Essentiellement, les gens veulent des voitures qui sont aussi sécuritaires que possible pour les piétons, sauf le véhicule qu'ils conduisent. « La plupart des gens veulent vivre dans un monde où les voitures minimiseront les victimes. Mais tout le monde souhaite que leur propre voiture les protège à tout prix », résume le chercheur.

Il s'agit de ce que les chercheurs appellent un « dilemme social » dans lequel les gens peuvent créer des conditions moins sécuritaires pour tout le monde en agissant dans leur propre intérêt.

« Pour le moment, il semble n’y avoir aucun moyen facile de concevoir des algorithmes qui concilient les valeurs morales et l'intérêt personnel », écrivent les chercheurs.

Dans un article accompagnant l'étude, le psychologue Joshua D. Greene de l'Université Harvard suggère que les défis les plus épineux pour les prises de décisions des machines peuvent être « plus philosophiques que techniques. Avant que nous puissions mettre nos valeurs dans les machines, nous devons trouver comment les rendre claires et cohérentes ».

(1) Les professeurs de psychologie Jean-François Bonnefon de la Toulouse School of Economics et Azim Shariff de l'université d'Oregon.

Psychomédia avec sources : MIT, New York Times.
Tous droits réservés