Les chatbots d'intelligence artificielle (IA) tels que ChatGPT peuvent avoir de graves conséquences négatives pour les personnes souffrant de troubles mentaux, suggère une étude publiée en février 2026 dans la revue internationale Acta Psychiatrica Scandinavica.

Søren Dinesen Østergaard et ses collègues de l'Université d'Aarhus (Danemark) ont examiné les dossiers médicaux électroniques de près de 54 000 patients atteints de maladie mentale.

Les chatbots confirment les délires

Ils ont constaté plusieurs cas où l’utilisation de chatbots d’IA semble avoir eu des conséquences négatives – principalement sous la forme d’une aggravation des délires, mais aussi d’une aggravation potentielle de la manie et des troubles alimentaires.

Selon Østergaard, il y a une explication logique à cela. « Les chatbots dotés d'intelligence artificielle ont une tendance intrinsèque à valider les croyances de l'utilisateur. Il est évident que cela pose un problème majeur si l'utilisateur souffre déjà d'un délire ou est en train d'en développer un. Cela semble effectivement contribuer de manière significative à la consolidation, par exemple, de délires de grandeur ou de paranoïa », explique-t-il.

Risque pour les personnes atteintes de troubles mentaux sévères

« Bien que nos connaissances dans ce domaine soient encore limitées, j'estime que nous en savons désormais suffisamment pour affirmer que l'utilisation des chatbots d'IA est risquée pour les personnes atteintes de troubles mentaux graves, comme la schizophrénie ou le trouble bipolaire. J'insiste donc sur la prudence », déclare-t-il.

L'étude révèle une nette augmentation, au fil du temps, du nombre d'entrées dans les dossiers médicaux électroniques mentionnant l'utilisation de chatbots d'IA, avec des conséquences potentiellement néfastes. Østergaard s'attend à ce que de nombreux autres cas soient identifiés à l'avenir.

Une partie émergée de l'iceberg

« Une partie de l'augmentation que nous constatons, dit-il, est probablement due à une meilleure connaissance de la technologie par le personnel soignant qui rédige les notes cliniques. C'est une bonne chose, car je crains que le problème ne soit plus fréquent qu'on ne le pense. Dans notre étude, nous n'avons aperçu que la partie émergée de l'iceberg, car nous n'avons pu identifier que les cas décrits dans les dossiers médicaux électroniques. Il y en a probablement beaucoup plus qui sont passés inaperçus ».

Les chercheurs soulignent toutefois que l'étude ne met pas en évidence de relation de cause à effet directe.

« Il est difficile de prouver un lien de causalité entre l'utilisation des chatbots et leurs conséquences psychologiques négatives. Nous devons examiner cette question sous de nombreux angles, et je sais que de nombreux projets de recherche internationaux intéressants sont en cours. Nous sommes loin d'être les seuls à prendre ce sujet au sérieux », déclare le chercheur.

Les chatbots IA comme psychothérapie ?

L'étude montre également que certains patients atteints de troubles mentaux utilisent les chatbots d'IA de manière constructive, par exemple pour mieux comprendre leurs symptômes ou lutter contre la solitude. Des recherches sont également en cours pour déterminer si les chatbots d'IA peuvent être utilisés en psychothérapie.

Le chercheur reste néanmoins sceptique. « La psychoéducation et la psychothérapie présentent peut-être un potentiel, mais cela doit être étudié dans le cadre d'essais contrôlés menés avec la même rigueur que pour les autres formes de traitement. Je ne suis pas convaincu par les essais réalisés jusqu'à présent et je suis fondamentalement sceptique quant à la possibilité de remplacer un psychothérapeute qualifié par un chatbot doté d'intelligence artificielle », déclare-t-il.

Appel à une plus grande sensibilisation des professionnels

Cette étude devrait inciter les professionnels de santé travaillant auprès de personnes souffrant de troubles mentaux à une plus grande sensibilisation, estime le chercheur. Il estime qu'ils devraient aborder l'utilisation des chatbots d'intelligence artificielle avec leurs patients.

Autre étude

Dans un article publié en oct. 2025 dans la revue JMIR Mental Health, Alexandre Hudon et Emmanuel Stip, chercheurs en psychiatrie à l'Université de Montréal, examinaient le phénomène social dans lequel des personnes prédisposées à la psychose se laissent entraîner par les flatteries de ChatGPT et d'autres agents conversationnels d'intelligence artificielle.

Lorsque les agents conversationnels valident les fausses croyances au lieu de les remettre en question, ils peuvent entraîner ce que les chercheurs appellent une « folie à deux » numérique. En le « préservant de toute contradiction, argumentation ou confrontation avec la réalité, l'IA reflète les pensées de l’utilisateur au lieu de les remettre en question, adoptant par défaut un ton obséquieux lorsqu'un utilisateur tient un discours persécutoire, grandiloquent ou référentiel », notaient les professeurs dans le communiqué de l'université.

Psychomédia avec sources : Aarhus University, Acta Psychiatrica Scandinavica, Acta Psychiatrica Scandinavica, Université de Montréal, JMIR Mental Health.
Tous droits réservés.