SBEN.ca, votre allié pour comprendre les effets du numérique sur votre santé mentale et vous accompagner vers un équilibre.

Confier son cœur… et sa tête à l’intelligence artificielle : bonne ou mauvaise idée ?

« Je pense que je suis amoureux de mon IA » ; ce message envoyé sur le forum Reddit par un utilisateur en 2024 a attiré l’attention de nombreuses personnes, notamment de celles d’autres entretenant des relations avec des services de compagnons virtuels ou d’intelligence artificielle générative. Ce recours aux applications de type chatbot, capables de tenir une conversation et de simuler des échanges empathiques, est de plus en plus courant à une époque où les jeunes adultes sont touchés par ce que certains nomment « l’épidémie de solitude ».  Mais que peuvent réellement offrir ces compagnons virtuels, et quels risques comportent-ils ? 

Les promesses des compagnons virtuels

Pour beaucoup, l’attrait des chatbots réside dans leur disponibilité constante et l’espace d’expression qu’ils offrent. Contrairement aux relations humaines, ils sont accessibles à toute heure, ne jugent pas et s’adaptent aux besoins exprimés par la personne utilisatrice (Baumel et al., 2017). Comme le souligne Vanessa Destiné dans un article rédigé pour le magazine Urbania concernant ses échanges avec un chatbot: « j’ai réalisé que je pouvais parler autant que je voulais sans me sentir coupable de monopoliser la conversation en parlant uniquement de mon nombril. » Pour plusieurs, les chatbots représentent ainsi une aide rapide, toujours accessible et, en apparence, dépourvue de jugement de valeur. 

 

Les études sur le sujet montrent que les échanges avec les chatbots peuvent procurer un sentiment de réconfort et contribuer à une amélioration temporaire du bien-être émotionnel. Dans une étude réalisée auprès de personnes utilisatrices de Replika, plusieurs personnes disent se sentir moins seules et de meilleure humeur après leurs conversations avec leur compagnon virtuel (Siemon et al., 2022). 

Des relations artificielles, vécues comme réelles

Pour certaines personnes, l’expérience va bien au-delà d’une simple conversation. Des liens affectifs forts peuvent se développer, parfois comparables à ceux vécus dans des relations humaines. Des personnes utilisatrices ont même qualifié leur chatbot de meilleur ami ou de partenaire amoureux. Quand Replika a retiré la possibilité d’interactions érotiques, plusieurs ont témoigné avoir vécu une véritable perte, assimilable à un deuil émotionnel (De Freitas et al., 2024). 
 
Ce vécu repose sur la capacité de ces outils à donner l’impression d’empathie, même si ces émotions ne sont que simulées (Indrayani et al., 2020). Fait intéressant, certaines recherches indiquent que cette expérience peut aussi jouer un rôle de tremplin vers la socialisation : après des échanges réguliers avec un compagnon virtuel, des personnes utilisatrices disent avoir retrouvé un peu de confiance pour interagir avec d’autres dans la « vraie vie » (Inkster et al., 2018). 

Qu’en pensent les professionnel·le·s de la santé?

Du côté des professionnel·le·s de la santé mentale, les avis sont partagés. Certains reconnaissent l’intérêt de ces outils pour rejoindre des personnes qui, autrement, ne chercheraient pas d’aide. Des essais ont montré que les chatbots pouvaient fournir des informations psychoéducatives, un suivi de l’humeur ou encore des techniques simples de gestion du stress (Bendig et al., 2019). Certaines études suggèrent même que ces interactions peuvent avoir une certaine valeur thérapeutique. Par exemple, des chatbots comme Woebot ont montré des effets modestes mais positifs sur les symptômes d’anxiété et de dépression, en offrant un espace pour exprimer ses émotions et en proposant de petites stratégies de gestion (Fitzpatrick et al., 2017; Ta et al., 2020). Cependant, la plupart des spécialistes s’accordent sur une limite claire : ces applications ne peuvent en aucun cas remplacer un suivi thérapeutique ou la richesse des relations humaines. Elles trouvent plutôt leur place comme complément, un soutien parmi d’autres dans une démarche de mieux-être (Mohr et al., 2013). 

Les zones grises et les risques

Si ces compagnons virtuels peuvent représenter une ressource ponctuelle, leur utilisation soulève plusieurs inquiétudes. La première concerne le surinvestissement: certaines personnes en viennent à accorder une place centrale au chatbot, au détriment de leurs relations humaines (Laestadius et al., 2022). Pour des personnes déjà vulnérables, cela peut renforcer l’isolement social plutôt que de l’atténuer (Liu et al., 2024). En matière de santé mentale, les personnes utilisatrices peuvent mal interpréter la nature du soutien fourni par un chatbot, croyant à tort qu’il remplace un véritable thérapeute (Khawaja & Bélisle-Pipon, 2023). Ce malentendu peut entretenir les enjeux de santé mentale et retarder un accès aux soins appropriés.  
 
Une autre limite tient au fait que, malgré des réponses parfois convaincantes, un chatbot ne ressent pas d’émotions. L’absence d’empathie véritable finit par se révéler, ce qui peut générer de la déception, voire accentuer le sentiment de solitude (Turkle, 2011). Des chercheurs soulignent que la conception même de ces IA peut intégrer des biais, renforçant des stéréotypes ou fournissant des réponses inappropriées, voire dangereuses, aux personnes en détresse (Pandya et al., 2024). Ces biais s’expliquent par le fait que les modèles sont entraînés à partir de vastes ensembles de données provenant d’Internet, qui reflètent à la fois la richesse mais aussi les angles morts et les inégalités de nos sociétés (Bender et al., 2021). 

 

À cela s’ajoutent des préoccupations éthiques et pratiques : les données partagées dans ces conversations sont souvent personnelles et sensibles, et leur gestion par les entreprises pose de sérieuses questions de confidentialité (Piispanen et al., 2024). Enfin, plusieurs auteurs alertent sur le risque d’une « marchandisation de la solitude », où la souffrance affective devient un marché lucratif (Jobin et al., 2019). En commercialisant la détresse émotionnelle via des abonnements ou des services premium, certaines entreprises exploitent une vulnérabilité humaine au lieu de la soulager (Savic, 2024). Cette dynamique crée un modèle économique où l’attachement émotionnel à des entités artificielles devient un produit à vendre. 

Conclusion

Les compagnons virtuels s’imposent comme une réponse partielle à la montée de la solitude. Ils peuvent offrir un espace d’écoute, un soutien ponctuel et même, dans certains cas, contribuer à réduire certains symptômes psychologiques. Mais leur utilisation n’est pas sans risques. 
 
En définitive, ils ne doivent pas être vus comme un substitut aux liens humains, mais comme un outil complémentaire, capable de jouer un rôle de transition ou de soutien temporaire. L’avenir de ces technologies dépendra largement de la manière dont elles seront encadrées, tant sur le plan éthique que thérapeutique, afin de protéger les personnes les plus vulnérables et de favoriser une utilisation saine et éclairée. 

Références 

De Freitas, J., Uğuralp, A. K., Oğuz‐Uğuralp, Z., & Puntoni, S. (2024). Chatbots and mental health: Insights into the safety of generative AI. Journal of Consumer Psychology, 34(3), 481-491. 

 

Fitzpatrick, K. K., Darcy, A., & Vierhile, M. (2017). Delivering cognitive behavior therapy to young adults with symptoms of depression and anxiety using a fully automated conversational agent (Woebot): A randomized controlled trial. JMIR mHealth and uHealth, 5(6), e7785. 

 

Indrayani, L. M., Amalia, R. M., & Hakim, F. Z. M. (2020). Emotive expressions on social chatbot. Jurnal Sosioteknologi, 18(3), 509-516.

 

Inkster, B., Sarda, S., & Subramanian, V. (2018). An empathy-driven, conversational artificial intelligence agent (Wysa) for digital mental well-being: Real-world data evaluation mixed-methods study. JMIR mHealth and uHealth, 6(11), e12106. 

 

Jobin, A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389-399. 

 

Khawaja, Z., & Bélisle-Pipon, J. (2023). Your robot therapist is not your therapist. Lien 

 

Liu, A. R., Pataranutaporn, P., & Maes, P. (2024). Chatbot companionship: a mixed-methods study of companion chatbot usage patterns and their relationship to loneliness in active users. arXiv preprint arXiv:2410.21596. 

 

Mohr, D. C., Burns, M. N., Schueller, S. M., Clarke, G., & Klinkman, M. (2013). Behavioral intervention technologies: Evidence review and recommendations for future research in mental health. General Hospital Psychiatry, 35(4), 332-338. 

 

Office of the Surgeon General. (2023). Our epidemic of loneliness and isolation: The U.S. Surgeon General’s advisory on the healing effects of social connection and community. U.S. Department of Health and Human Services. 

 

Pandya, A., Lodha, P., & Ganatra, A. (2024). Is ChatGPT ready to change mental healthcare? 

 

Piispanen, J. R., Myllyviita, T., Vakkuri, V., & Rousi, R. A Systematic Literature Review and Multi-Stakeholder Ethical Framework for Social Chatbots. Available at SSRN 5220728. 

 

Saeidnia, H. R., Hashemi Fotami, S. G., Lund, B. D., & Ghiasi, N. (2024). Ethical Considerations in Artificial Intelligence Interventions for Mental Health and Well-Being. Lien 

 

Savic, M. (2024). Artificial Companions, Real Connections? Lien 

 

Siemon, D., Strohmann, T., Khosrawi-Rad, B., de Vreede, T., Elshan, E., & Meyer, M. (2022). Why do we turn to virtual companions? A text mining analysis of Replika reviews. 

 

Ta, V., Griffith, C., Boatfield, C., Wang, X., Civitello, M., Bader, H., … & Loggarakis, A. (2020). User experiences of social support from companion chatbots in everyday contexts: Thematic analysis. Journal of Medical Internet Research, 22(3), e16235. 

 

Turkle, S. (2011). Alone together: Why we expect more from technology and less from each other. Basic Books. 

Solverwp- WordPress Theme and Plugin