Le chat viral peut désormais remplacer de nombreux métiers, plus ou moins efficacement. De là à remplacer les psychologues ?

Peu de thèmes résistent à ChatGPT. La salle de discussion d’OpenAI vous permet désormais de résoudre des problèmes mathématiques, des sujets philosophiques (au grand désarroi des enseignants) et d’écrire des poèmes enflammés. Mais l’intelligence artificielle peut-elle apporter des conseils thérapeutiques et surpasser l’expertise des professionnels de santé ?

Une startup américaine a voulu expérimenter. Koko, une plateforme en ligne d’aide aux personnes ayant des problèmes de santé mentale, a remplacé ses bénévoles par ChatGPT et ses réponses générées automatiquement. Le tout sans prévenir les patients souffrant de dépression. L’entreprise a rapidement mis fin à l’expérience, suite à la polémique qu’elle a suscitée.

« C’est très déconcertant d’un point de vue éthique et déontologique. On joue avec la question de la confiance, avec le secret médical, alors qu’on est là pour les écouter. Les gens ont dû faire face au vide avec ce moment où ils se rendent compte que personne les écoute vraiment, proteste Olivier Duris, psychologue spécialisé dans l’utilisation des écrans et du numérique. Les personnes déprimées sont déjà seules et ont ce sentiment d’abandon. Vous êtes dans un rejeu de la question. Ils doivent penser que même les personnes qui sont censés les aider s’en foutent et préfèrent mettre l’intelligence artificielle pour leur parler. »

« Un suivi avec ChatGPT ne peut être thérapeutique »

Car pour qu’une prise en charge psychologique apporte quelque chose de positif à un patient, elle ne peut reposer « sur la somme des connaissances théoriques acquises durant les cinq années d’études du psychologue », précise Jean-Paul Santoro, psychologue clinicien du numérique et co-fondateur. sur le site Psycheclic. « Ce qui fait qu’un suivi peut être thérapeutique, et donc atténuer les symptômes du patient et soulager sa souffrance, c’est une expérience clinique, une rencontre » selon le médecin.

De son côté, Olivier Duris comprend que ChatGPT peut donner l’illusion d’être un outil utile, et ce seulement avec un tout petit détail : la façon dont le chat room écrit ses messages. « Le fait qu’il délivre les messages non pas en bloc, mais comme si quelqu’un écrivait, renforce cette impression qu’il y a quelqu’un derrière l’écran. C’est assez tordu. »

Une aide, mais pas une solution

ChatGPT précise cependant que lorsqu’on cherche des conseils liés à la santé mentale, il est nécessaire de consulter un spécialiste. Elle propose tout de même quelques astuces pour gérer le stress, une dispute avec un proche ou un sentiment d’inconfort. Mais chaque billet se termine par le même conseil : « Il est important de voir un professionnel de la santé mentale qualifié et n’hésitez pas à en consulter plusieurs pour trouver celui qui correspond le mieux à vos besoins. »

À Lire  3 conseils infaillibles pour bien choisir la forme de vos lunettes

Jean-Paul Santoro estime cependant que les outils utilisant l’intelligence artificielle peuvent être recommandés en thérapie car « ils sont importants pour accompagner le patient sur des points précis entre les séances ». Il doit encore être assez sophistiqué et avancé en termes de système conversationnel pour être efficace. Le psychologue donne en exemple l’application « My Sherpa », un outil spécialisé dans la santé mentale mais qui, selon lui, serait plutôt « une combinaison d’outils à effet thérapeutique proche de zéro ».

Le ChatGPT, s’il ne fournit pas de véritables conseils thérapeutiques, peut néanmoins aider à établir des cadres adaptés à la thérapie. Olivier Duris, par exemple, envisage d’organiser des ateliers de médiation thérapeutique pour les personnes avec autisme. Il a donc demandé à ChatGPT à quoi il devait penser pour se préparer à un tel événement. « Les réponses étaient assez intéressantes. Mais on n’est pas sur une aide directe avec le patient, on est sur des points techniques. Un peu comme chercher des clés dans des livres ou des articles. »

Bien avant ChatGPT: ELIZA

Cependant, ce n’est pas la première fois qu’un programme informatique tend à remplacer les psychologues. Dans les années 1960, l’informaticien germano-américain Joseph Weizenbaum a développé ELIZA, une intelligence artificielle qui simulait le rôle d’un psychothérapeute. Cependant, ELIZA était moins développé que ChatGPT car ce dernier ne faisait que répéter les revendications du patient à l’aide de mots-clés.

Si un patient partageait ses problèmes avec sa mère, ELIZA demandait : « Pouvez-vous me parler de votre famille ? ou s’il disait qu’il ne se sentait pas bien, le programme reformulait ce point de vue, demandant simplement « Pourquoi ne vous sentez-vous pas bien? » Une sorte de ping-pong verbal qui a séduit les utilisateurs, au point que le terme « effet ELIZA » a été forgé en tenant compte du ressenti de certains patients. Cet effet inattendu consiste à assimiler inconsciemment le comportement d’un ordinateur à celui d’une personne.

Le psychologue invite notamment les écoles et les organismes de santé publique à faire de la prévention dès le plus jeune âge afin que les enfants (et les moins jeunes) apprennent à faire la différence entre les machines et les personnes afin de « ne pas tomber dans cette illusion que la machine nous comprend ». « .