Des utilisateurs de Facebook sont indignés d'apprendre que Facebook a manipulé les informations des fils d'actualités de 700 000 utilisateurs (anglophones) sans leur consentement dans le cadre d'une étude psychologique.

L'étude, publiée dans le numéro de juin (2014) de la revue Proceedings of the National Academy of Sciences (PNAS) visait à étudier la contagion émotionnelle. Par exemple, est-ce que voir ses amis afficher leur bonheur conduit à broyer du noir ou améliore l'humeur?

Pendant une semaine de janvier 2012, des chercheurs de Facebook et des psychologues universités Cornell et de Californie à San Francisco (1) ont introduit quelques règles expérimentales dans le système d’algorithmes (règles automatisées) qui sélectionne les contenus présentés aux utilisateurs. Les contenus étaient sélectionnés selon qu'ils contenaient des mots correspondant à des émotions positives, négatives ou neutres. Trois groupes d'utilisateurs étaient ainsi exposés à une plus grande quantité de messages positifs, négatifs ou neutres.

L'étude a permis de constater que les utilisateurs réagissaient en utilisant eux-mêmes davantage de mots négatifs ou positifs selon les contenus auxquels ils avaient été exposés. "Les états émotionnels sont communicatifs et peuvent se transmettre par un phénomène de contagion, conduisant les autres personnes à ressentir les mêmes émotions sans en être conscientes", concluaient-ils.

Les auteurs, interrogés sur l'éthique de leur méthode, auraient mentionné que les autorités de leurs universités avaient approuvé ces travaux "car Facebook, apparemment, manipule systématiquement le contenu des informations diffusées".

Effectivement, rappelons que Facebook ne publie pas tous les messages de tous les amis d'une personne sur son fil d'actualité mais une proportion seulement. L'élaboration des critères de sélection des messages publiés représente un domaine de recherche en soi (exemple). Parmi les sujets de recherche : la détermination de la personnalité des utilisateurs, la nature de leurs relations avec leurs amis, leurs préférences, leurs comportements de consommateurs, etc.

"Nous faisons des recherches pour améliorer nos services (...) et une grande partie consiste à comprendre comment les gens répondent à différents contenus positifs ou négatifs", a indiqué à l'AFP Isabel Hernandez, une porte-parole de Facebook.

(1) Adam D. I. Kramera (Core Data Science Team, Facebook); Jamie E. Guillory (Université de Californie à San Francisco), and Jeffrey T. Hancockc (Université Cornell)

Psychomédia avec sources: Le Devoir (AFP), Le Figaro, Étude intégrale dans le PANAS
Tous droits réservés