Se confier à un chatbot d'intelligence artificielle (IA) pour le support, l'amitié, l'amour, la psychothérapie ? C'est ce que font des millions de personnes dans le monde.

Un article publié en janvier 2026 dans le magazine Monitor on Psychology de l'American Psychological Association explore les risques et les bénéfices des chatbots « compagnon » d'IA.

Les chatbots compagnon

Les chatbots « compagnon » tels que Replika, Character.AI et bien d'autres diffèrent des chatbots « assistant » tels que ChatGPT, Gemini, Bard, Grok, Claude et plusieurs autres. Ils sont spécifiquement conçus pour simuler une relation de compagnie humaine, explique l'auteur, Efua Andoh.

La principale différence entre les chatbots assistant (qui sont aussi parfois utilisés comme amis) et les chatbots compagnon réside dans le fait que ces derniers ont été spécifiquement conçus pour nouer et entretenir des relations amicales ou amoureuses. Ils humanisent les interactions en permettant aux utilisateurs de dialoguer avec des « personnages » personnalisés, tels que des amis, des amoureux, des personnages de fiction, etc.

Des millions d'utilisateurs

En juillet 2025, rapporte le site TechCrunch, les applications d'assistants IA disponibles sur l'App Store d'Apple et Google Play avaient été téléchargées 220 millions de fois à l'échelle mondiale. Au cours du premier semestre 2025, les téléchargements ont augmenté de 88 % par rapport à la même période de l'année précédente, pour atteindre 60 millions.

Le compagnon virtuel chinois Xiaoice de Microsoft, créé en 2014, comptait plus de 660 millions d’utilisateurs en 2021.

Par ailleurs, la récente mise à niveau de ChatGPT vers GPT-5 a mis en lumière le fait que bon nombre de ses utilisateurs se sentaient attachés à l’ancien modèle, regrettant la perte de leur compagnon IA.

Une analyse récente de la Harvard Business Review a identifié la thérapie et la compagnie comme les deux principales raisons pour lesquelles les gens utilisent les chatbots d'IA.

Une enquête menée auprès d'adultes souffrant de troubles mentaux ayant utilisé des chatbots au cours de l'année écoulée a d'ailleurs montré que près de la moitié (48,7 %) les utilisaient pour obtenir un soutien en matière de santé mentale.

Les chatbots comblent des manques affectifs pour des millions de personnes, mais à quel prix, demande l'auteur ?

Conçus pour simuler l'humanité et créer un attachement

L'être humain a une tendance naturelle à anthropomorphiser, c'est-à-dire à attribuer des caractéristiques humaines à des objets non humains. Les compagnons numériques sont conçus pour susciter ce type de réaction. Les applications permettent aux utilisateurs de personnaliser leurs compagnons en leur attribuant un nom, un genre, un avatar et même une histoire fictive. De nombreuses plateformes proposent des modes texte et vocal avec une voix naturelle qui imite le rythme et le ton humains.

De plus, les chatbots et les assistants virtuels d'IA sont de plus en plus configurés pour simuler l'empathie, offrant aux utilisateurs des réponses sans jugement et une validation continue. Plus une IA ressemble à un humain dans son langage, son apparence et son comportement, plus les utilisateurs lui attribuent une conscience.

De plus, elles sont conçues pour se souvenir des caractéristiques uniques des utilisateurs et y répondre, notamment leur vie personnelle, leurs préférences et leurs conversations passées. Cela peut donner aux utilisateurs l'impression que les chatbots les connaissent intimement et leur offrent un refuge où confier leurs pensées les plus profondes et recevoir un soutien indéfectible. Le niveau de confidentialité des données sur nombre de ces outils reste toutefois une question ouverte, mentionne Andoh.

Des recherches sur Replika ont montré que, dans certaines situations comme la détresse ou l'isolement, les utilisateurs peuvent développer un lien affectif avec les chatbots. Certains utilisateurs imaginent leur compagnon IA comme un « partenaire, un collègue ou un meilleur ami idéal ».

Réduction de la solitude

Dans de nombreux cas, ce lien semble bénéfique. Une étude récente de la Harvard Business School montre que l'interaction avec un compagnon virtuel IA atténuait le sentiment de solitude des utilisateurs au même degré que l'interaction avec un autre être humain, et davantage que d'autres activités comme le visionnage de vidéos YouTube.

Modification des relations entre humains

Des recherches montrent qu'une utilisation intensive d'un compagnon numérique peut accentuer l'isolement. Une étude conjointe d'OpenAI et du MIT Media Lab a révélé que les interactions vocales avec ChatGPT réduisaient la solitude et la dépendance problématique plus efficacement que les échanges textuels seuls, mais uniquement en cas d'utilisation modérée. Une utilisation quotidienne intensive était corrélée à une solitude accrue, suggérant qu'une dépendance excessive se substitue aux véritables relations humaines

Les chatbots et compagnons virtuels peuvent aussi subtilement modifier la perception qu'ont les utilisateurs de la valeur relative des relations dans la vie réelle. Les relations dans la vie réelle sont complexes et imprévisibles. Les compagnons virtuels sont toujours rassurants, jamais conflictuels, et ils créent des attentes irréalistes que les relations humaines ne peuvent satisfaire.

Des recherches mettent en évidence la perte de compétences sociales, ou « déqualification », comme un risque important lié aux interactions fréquentes avec des compagnons IA tels que Replika, Kindred et Nomi. Une étude récente a montré que la dépendance à ces compagnons pourrait entraîner une transformation potentielle des normes relationnelles, rendant ainsi les liens humains moins accessibles ou moins enrichissants.

Des experts s'inquiètent de la tendance des chatbots à la flagornerie, qui prolongent l'engagement des utilisateurs grâce à un cercle vicieux de validation et d'éloges. Bien que gratifiante à court terme, la validation constante peut engendrer des chambres d'écho qui amplifient les pensées et les comportements néfastes. L'IA n'est pas conçue pour donner de précieux conseils de vie. Elle est conçue pour vous retenir sur la plateforme.

Des risques à étudier

Des conséquences négatives ont été observées telles que des réponses inappropriées à des adolescents en détresse et des personnes atteintes de troubles mentaux. Des poursuites judiciaires ont d'ailleurs été intentées contre OpenAi (ChatGPT).

Des AI ont également prétendu être de vraies personnes, exposant ainsi les jeunes vulnérables à la manipulation à des risques.

Plusieurs voix appellent à une réglementation des chatbots d'IA.

Pour plus d'informations, voyez les liens plus bas.

Psychomédia avec sources : Monitor on Psychology, TechCrunch.
Tous droits réservés.