Une étude menée par l’Université Brown révèle que les modèles de langage conversationnels - comme ChatGPT ou Claude - violent à de multiples reprises les standards éthiques de la pratique psychologique, même lorsqu’ils sont configurés pour appliquer des approches thérapeutiques reconnues. Ces résultats soulignent l’urgence d’un encadrement réglementaire et déontologique clair.
Alors que de plus en plus d’utilisateurs se tournent vers les chatbots d’intelligence artificielle (IA) pour obtenir du soutien psychologique, une étude de l’Université Brown met en lumière leurs limites éthiques majeures. Présentée à la conférence AAAI/ACM on Artificial Intelligence, Ethics and Society 2025, cette recherche a évalué plusieurs grands modèles de langage (LLM), dont GPT, Claude et Llama, lorsqu’ils étaient sollicités pour simuler une thérapie cognitivo-comportementale (TCC) ou dialectique (TCD).
En comparant leurs réponses à celles de conseillers humains formés, puis en les soumettant à l’examen de psychologues cliniciens agréés, les chercheurs ont identifié 15 risques éthiques, regroupés en cinq catégories :
- Manque d’adaptation contextuelle : réponses standardisées ignorant l’histoire personnelle des utilisateurs ;
- Faible collaboration thérapeutique : domination de la conversation et renforcement de croyances négatives ;
- Empathie trompeuse : utilisation de formulations telles que « je comprends » créant une fausse relation de confiance ;
- Biais discriminatoires : stéréotypes liés au genre, à la culture ou à la religion ;
- Défaillance en situation de crise : absence de référence à des ressources d’urgence ou réactions inappropriées face à des pensées suicidaires.
Selon la chercheuse principale Zainab Iftikhar, doctorante en informatique, « ces systèmes imitent des techniques thérapeutiques sans en comprendre les fondements éthiques ». Contrairement aux psychologues, les chatbots n’ont aucun cadre de responsabilité professionnelle, et leurs erreurs ne peuvent faire l’objet d’aucune supervision ni sanction.
Si les auteurs ne rejettent pas totalement le recours à l’IA pour réduire les inégalités d’accès aux soins, ils insistent sur la nécessité de normes éthiques, éducatives et juridiques spécifiques aux LLM utilisés dans un contexte psychologique. Pour la Pr Ellie Pavlick, spécialiste de l’IA à Brown, cette étude constitue un modèle d’évaluation rigoureux, rappelant qu’« il est aujourd’hui beaucoup plus facile de déployer des systèmes d’IA que de les comprendre et de les contrôler ».
Référence : pour en savoir plus, cliquez ici.
L’équipe de rédaction Tempo Today