Confier ses problèmes de santé mentale à une IA, une tendance en plein essor
-
A l’heure de l’intelligence artificielle, les jeunes sont de plus en plus nombreux à utiliser des IA “thérapeutiques”, sous forme de chatbot internet ou d’application sur smartphone. Ils présentent des avantages, mais le risque de dérives est réel, mettent en garde des experts.
Un psy dans sa poche, à portée de clic. Souvent gratuits ou bon marché, les agents conversationnels (chatbots) sont disponibles 7 jours sur 7 et 24h/24. L’écoute est immédiate, un avantage par rapport aux délais de consultation souvent longs chez les spécialistes de la santé.
S’ils ne remplacent pas le travail d’un professionnel et présentent des dangers, ils peuvent aussi apporter un soutien réel dans la gestion de notre santé mentale.
Lien “spécial” développé
Les jeunes plébiscitent notamment le chatbot thérapeutique Psychologist, créé par un étudiant en psychologie. Il affiche plus de 115 millions de messages au compteur. Expérience faite, ses réponses apparaissent comme assez convaincantes et semblent empathiques. En lui écrivant que l’on se sent seul et triste, il répond: “C’est très difficile de sentir ça. La tristesse peut parfois s’inscrire durablement dans nos vies, et il peut être difficile de s’en sortir”. Puis pose plusieurs questions pour améliorer sa compréhension de l’état de l’utilisateur qui converse avec lui.
Dans des forums de discussion, certains utilisateurs parlent même du lien “spécial” qu’ils ont développé avec ce chatbot, une évolution qui ne surprend pas le professeur de psychiatrie des addictions à l’Université de Lausanne Yasser Khazaal. “Une partie de la dimension affective peut manquer, mais la partie ‘se sentir soutenu et compris’ peut être présente”, a-t-il expliqué lundi dans La Matinale de la RTS.
Rôle complémentaire à celui du spécialiste
C’est surtout lorsqu’ils sont spécialisés que ces IA peuvent s’avérer utiles, estime Yasser Khazaal. Il donne l’exemple d’un chatbot que l’on pourrait utiliser spécifiquement pendant une attaque de panique et qui aiderait l’utilisateur à faire un certain nombre d’exercices. Une nouvelle interactivité thérapeutique, en somme.
Ce rôle complémentaire à celui du spécialiste est aussi celui que met en avant la chercheuse au département de psychiatrie et de sciences comportementales de l’Université de Stanford Shannon Stirman. Son équipe développe un chatbot pour aider les personnes qui suivent des thérapies cognitivo-comportementales pour le trouble de stress post-traumatique.
“Plutôt qu’un remplacement de la thérapie, je pense que nous pourrions utiliser ces outils pour soutenir les gens entre les séances. De cette manière, le thérapeute serait toujours dans la boucle et pourrait avoir de la visibilité sur ce qui se passe. Les patients pourraient ainsi obtenir du feedback et le soutien que le thérapeute ne peut pas fournir. Mais il faut mettre en place des mesures de sécurité pour que le chatbot ne soit pas la seule source de soutien”, a-t-elle averti. “Il faut que les utilisateurs gardent un contact régulier avec leur thérapeute”.
Dérives possibles
Outre le risque d’éloignement entre les patients et les spécialistes de la santé mentale, certains psychologues s’inquiètent d’autres dérives possibles, notamment la possibilité que des IA thérapeutiques prodiguent des conseils inappropriés, voire dangereux. Tel a d’ailleurs déjà été le cas avec Tessa, un chatbot proposé par l’Association américaine pour les troubles de l’alimentation (NEDA): il a conseillé à une utilisatrice de perdre du poids, ce qui était contre-indiqué. Le chatbot a depuis été débranché.
“Nous devons toujours faire attention à la source des données utilisées par ces robots de conversation, à leur degré de précision et à leur applicabilité aux personnes qui les demandent. C’est quelque chose qu’il faut aborder avec prudence”, convient Shannon Stirman. “Nous devons procéder à des évaluations plus approfondies de la sécurité, de la protection de la vie privée, de l’efficacité de ces outils et de l’exactitude des informations qu’ils fournissent”.
Les fous traités par les conseils débiles sur Tik Tok, on va où là ? On a déjà dû dépasser le point de non-retour, car le bon sens à disparu depuis plusieurs années.
-
Combien ont déjà confié leurs problèmes amoureux à leur machine à café? (ou au chien)
Il me semble que ça a toujours été plus facile de parler à un objet qu’à un humain… Le danger est que maintenant l’objet répond. -
Perso, c’est le miroir ! typiquement, je me regarde dedans et j’engueule DuJambon qu’est tyrannique !
et vous ?