2007 - (...) « Partout dans le monde, aux Etats-Unis, au Japon, en Europe, des équipes de recherche et des constructeurs préparent de nouvelles générations d'automates, sachant reconnaître et exprimer des émotions : des "émorobots". L'Union européenne vient ainsi de lancer un programme de recherche, Feelix Growing, dont l'objectif est de concevoir des robots capables d'interagir avec les humains d'une manière socialement et émotionnellement appropriée », rapporte Le Monde.


Doté de 2,5 millions d'euros sur trois ans, ce projet mobilise, aux côtés de roboticiens, des experts en neurosciences, en psychologie du développement et en éthologie. D'ici à 2010 devraient voir le jour deux robots adaptés, le premier à l'environnement familial, le second à l'assistance aux malades et aux personnes âgées.

La jeune PME française Aldebaran Robotics, associée à ce programme, prévoit de mettre sur le marché, dès 2008, un robot humanoïde doué de facultés émotionnelles. Baptisé Nao, il sera en mesure, annonce Bastien Parent, responsable de la communication de la société, d'identifier les humeurs de son propriétaire grâce à un module de reconnaissance vocale, ainsi que de manifester lui-même toute une palette d'états - joie, colère, ennui... - par un jeu de postures, de mimiques, de codes lumineux et de modulations vocales.

Signe de cet engouement, les représentants d'une trentaine de groupes de recherche européens, américains et israéliens, réunis début juin à Paris par le CNRS (Centre national de la recherche scientifique), ont créé l'association Humaine (Human-Machine Interaction on Emotion) pour coordonner leurs travaux.

(...) Le laboratoire Heuristique et diagnostic des systèmes complexes (Heudiasyc, CNRS-Université technologique de Compiègne) travaille sur l'analyse des visages et la reconnaissance automatique des expressions. Un modèle statistique (...) permet à un ordinateur équipé d'une caméra d'identifier, sur des images fixes de visages vus de face, six états émotionnels basiques : joie, colère, tristesse, dégoût, peur ou surprise. Cela, « avec un taux de réussite de 85 à 90 % », annonce Franck Davoine, qui pilote ce programme.

(...) Le Limsi, de son côté, développe un modèle de détection des états émotionnels dans le dialogue oral. (...) un modèle informatique parvient à identifier les émotions simples avec un taux de succès de 50 % à 60 %. Cela, dans plusieurs langues.

L'étape suivante sera de bâtir un modèle multimodal, associant les indices émotionnels de la parole à ceux des expressions faciales et gestuelles. « Les études combinant toutes ces modalités sont encore embryonnaires, indique Jean-Claude Martin, spécialiste de ce domaine au Limsi. Mais en laboratoire, nos prototypes deviennent de plus en plus performants. »

Illustration : L'humanoïde Nao de la société française Aldebaran Robotics.

Psychomédia avec source : Le Monde.
Tous droits réservés.