IA

« MÊME HEURE LA SEMAINE PROCHAINE ? » :

l’IA pousse la porte des cabinets de psy (1e partie)

Thibault GRANDJEAN • grandjean.thibault@gmail.com

© StockPhotoPro – stock.adobe.com, © BASILICOSTUDIO STOCK – stock.adobe.com, © mainul19islam –
stock.adobe.com, © Jeremi/Aididom, © CUrio, © Mistralà

Parler à ChatGPT comme on parle à un proche, un confident… Voire un psychologue ? Le monde de l’intelligence artificielle voit ses chatbots de plus en plus utilisés à des fins de soutien psychologique et thérapeutique. Une pratique qui vient bousculer les professionnels de la santé mentale

C’est un phénomène de société dont on a du mal à saisir l’ampleur et les contours, mais qui se déploie à une vitesse fulgurante. De plus en plus de personnes se tournent vers les applications de grands modèles de langage (LLM) comme ChatGPT, non pas pour effectuer des tâches administratives ou lui demander des informations, mais pour lui confier des émotions difficiles, des problèmes relationnels, ou une certaine anxiété… Comme on le ferait avec un psychologue.

Selon plusieurs études, cet usage de ChatGPT serait parmi les premiers du célèbre chatbot. En 2024, The Psychologist, un chatbot accessible sur la plateforme Character.ai, la deuxième plateforme la plus populaire du monde en la matière, totalisait 78 millions de messages pour 3,5 millions de visiteurs quotidiens.

Si étonnant qu’il puisse paraître, cet usage des chatbots ne surprend guère Maria-Pascale Lukenga, psychologue clinicienne, assistante doctorante à l’UMons et qui mène actuellement une thèse sur les outils numériques en santé mentale. «La pandémie de Covid-19 a mené à une explosion de la demande en soins de santé mentale, indique-t-elle. Une demande que les services n’ont pas pu combler tant ils sont saturés. Il n’y a pas assez de psychiatres, ni de psychologues. De plus, ce type de soins demeure insuffisamment soutenu sur le plan public et encore associé à certaines représentations stigmatisantes, ce qui complique l’orientation des personnes vers les services appropriés

Or, depuis la pandémie, la pression n’est guère retombée: guerre en Ukraine, crise climatique, inflation… Notre époque traverse une série de turbulences et la santé mentale de la population s’en ressent. En 2023, d’après une enquête menée par l’Eurobaromètre, 37% des Belges interrogés estimaient avoir souffert de troubles émotionnels ou psychosociaux au cours des 12 derniers mois. Une proportion qui montait à 59% chez les 18-24 ans ! Et malheureusement, 41% de ces personnes en quête de soins pour surmonter leurs difficultés n’ont pas réussi à accéder à un spécialiste de santé mentale. Dans ce climat, et alors que l’IA générative se répand comme une traînée de poudre, il n’est guère étonnant que de plus en plus de gens aient décidé de se tourner vers les chatbots. À commencer par les jeunes. «Les 16-24 ans sont très représentés parmi les utilisateurs de ces outils, confirme Maria-Pascale Lukenga. Tout d’abord parce qu’il s’agit de la population la plus connectée. Mais il faut également souligner que, contrairement aux autres générations, il s’agit d’une population qui préfère les interactions asynchrones.» Des interactions par textes ou par messages vocaux interposés, qui permettent à l’utilisateur de dicter le rythme de l’échange, et ainsi d’en garder la maîtrise. «C’est une dynamique que l’on observe de plus en plus, même au sein des relations interpersonnelles, et qui permet de garder une certaine distance vis-à-vis de l’autre», constate-t-elle.

Un palliatif avec des limites

Selon la psychologue, les utilisateurs se tournent vers les chatbots comme des outils de première ligne: «Lorsque l’on a des difficultés et que l’on cherche du soutien, on se tourne d’abord vers la famille et les amis. Puis, si cela ne suffit pas ou si ces derniers ne sont pas disponibles, on se tourne vers les médecins ou les psychologues. Et c’est dans cet entre-deux que les chatbots sont les plus utilisés.» D’autant que contrairement aux psychologues, les chatbots comme ChatGPT ou The Psychologist sont souvent gratuits, disponibles en permanence et capables «d’écouter» les utilisateurs pendant des heures sans se fatiguer, voire de prendre spontanément des nouvelles. Plusieurs études soulignent même que l’utilisation d’un chatbot en amont de la consultation permet au patient de s’ouvrir davantage une fois face à un praticien.

Il arrive également qu’ils soient utilisés en complément d’un travail thérapeutique réalisé auprès d’un professionnel. «L’un de mes patients l’utilise entre les séances, pour éclaircir sa pensée, révèle la psychologue. Il me dit que ChatGPT vient parfois trouver les mots justes pour qualifier une émotion ou un ressenti. Loin de l’exclure de la thérapie, nous incorporons les réponses de la machine au cours de nos séances, pour décortiquer ce qui est pertinent dans le cadre du travail thérapeutique.» Pour autant, l’utilisation grandissante des chatbots à des fins de soutien psychologique n’est pas forcément un gage de leur efficacité qui est, selon Maria-Pascale Lukenga, très variable. «Ces outils fonctionnent bien pour les troubles psychologiques légers et modérés, comme l’anxiété, ou une dépression sans caractère sévère», éclaire-t-elle. Pour les troubles plus graves, la psychologue en pointe rapidement les limites. «Dans le cas des dépressions sévères, par exemple, il y a une tendance à l’isolement et au repli sur soi, met-elle en garde. Et ces comportements vont être accentués par la machine

L’un des problèmes majeurs de ChatGPT, qui a été pointé par les psychologues, réside en effet dans cette tendance de la machine à valider ce que lui dit l’utilisateur. «Même lorsqu’on lui demande d’aller contre notre parole, cette machine finit toujours par aller dans notre sens, sourit la psychologue. Et si cela peut être très plaisant, très confortable, ce n’est pas ce qu’on recherche dans un travail thérapeutique. Notre rôle n’est pas d’offrir du prêt-à-penser. Nous sommes là pour aider le patient à déconstruire ses pensées et ses croyances, afin de l’amener à les questionner lui-même pour amener des changements profonds.» Dans les cas les plus graves, cette obséquiosité peut même avoir des conséquences dramatiques, alerte Maria-Pascale Lukenga: «Dans le cas de troubles psychotiques, de délires ou de schizophrénie, les chatbots mettent les patients en danger, ainsi que leur entourage, par exemple en renforçant certaines croyances délirantes, et en validant leur discours sans distance critique. Or, même dans une prise en charge traditionnelle, il est très compliqué pour les thérapeutes d’amener ces patients dans le réel. Une alliance thérapeutique avec un soignant humain est essentielle

 
Une psychologie numérique

En dépit de ces limites, il ne faut pas croire la psychologie réfractaire à ces nouveaux outils, bien au contraire. Des recherches croisées en IA et psychologie sont régulièrement menées depuis 1967, date de naissance du premier chatbot de l’histoire, Eliza, conçu pour simuler un psychothérapeute (voir Athena n° 367, p.37). Les choses se sont notamment accélérées à partir de 2016 et les progrès fulgurants qu’a connu le traitement automatique du langage, et en 2019, pas moins de 41 chatbots dédiés à la santé mentale ont vu le jour à travers le monde.

«Ces outils, s’ils n’ont absolument pas vocation à remplacer le praticien, parce qu’ils ne sont pas empathiques, et ne pourront jamais remplacer la capacité du clinicien à prendre un patient dans sa globalité, représentent l’avenir et il ne faut pas en avoir peur, estime Maria-Pascale Lukenga.
À l’occasion de la crise du Covid-19, de nombreux outils numériques ont d’ailleurs été mis en ligne pour répondre à la demande des usagers. Malheureusement, un faible nombre d’entre eux sont validés scientifiquement, et ceux qui le sont ne rencontrent pas le succès espéré, car les usagers estiment que cela ne répond pas à leurs besoins

Ainsi, les chatbots Wysa ou Woebot, créés par l’Université de Stanford, malgré des résultats encourageants lorsque les patients y adhèrent, ne sont guère connus du grand public. «Ce manque de succès tient aussi au fait qu’il s’agit d’outils américains qui, par conséquent, ne sont pas adaptés à d’autres langues et cultures.» Face à des outils développés par des ingénieurs souvent éloignés des besoins réels des gens, Maria‑Pascale Lukenga plaide pour renverser la table. «Ce qu’il nous faut, c’est une co-construction entre les patients, les praticiens et les développeurs, estime‑t‑elle. Il faut par exemple poser la question aux patients: « De quoi avez-vous besoin ? », et partir du terrain. La littérature montre qu’en fonctionnant de cette manière, on aboutit à des outils qui permettent une meilleure adhésion et un engagement plus grand du patient envers l’outil.»

Reste que la création de chatbot peut nécessiter beaucoup de ressources. «Il n’est même pas nécessaire d’aller aussi loin, argumente la psychologue. Certaines approches d’intelligence artificielle comme les arbres de décisions offrent déjà beaucoup de solutions. Via un questionnaire fermé, on peut notamment soutenir l’autonomie du patient dans une première phase d’autoévaluation et ainsi les orienter plus efficacement. On peut par exemple cibler certains symptômes indiquant le besoin d’une prise en charge immédiate, ou rediriger vers des solutions plus adaptées, comme des groupes de paroles, des ressources gratuites basées sur des lectures, des applications de gestion de l’anxiété ou du stress, afin de redonner un peu de pouvoir au patient sur sa santé mentale en attendant une prise en charge par un thérapeute.» Car selon Maria-Pascale Lukenga, le fond du problème n’est pas qu’une question technologique. «Le développement de ces outils, quels qu’ils soient, ne doit pas faire l’économie d’un réel travail sur les inégalités en matière d’accès et d’éducation du numérique. Les chatbots, par exemple, sont avant tout utilisés par une population aisée, à l’aise numériquement. Or, ce sont les populations les moins aisées qui ont le plus de difficulté d’accès aux soins de santé mentale

UN PEU D’HISTOIRE ET DE LITTÉRATURE

En 1946, l’écrivain argentin Jorge Luis Borges écrivait une très courte nouvelle, qui tient en un paragraphe, intitulée De la rigueur de la science. Il y parle d’un empire qui avait poussé si loin l’art de la cartographie que les cartes des provinces occupaient toute une ville, et celle de l’empire toute une province. Avec le temps, l’art de la cartographie tombant en désuétude, les ruines de ces cartes n’étaient bientôt plus habitées que par des animaux et des mendiants. On ne peut pas s’empêcher de faire le parallèle entre ces cartes si précises et ces IA qui imitent le dialogue humain à la perfection, sans toutefois entretenir complètement l’illusion. Une fois que nous nous en seront lassés, car la carte n’est pas le territoire, l’imitation n’est pas la réalité, où irons-nous ? Dans son essai Vallée du Silicium, l’auteur de science-fiction Alain Damasio décrit les technologies actuelles comme un technococon, qui cherche à «conjurer l’altérité», en l’imitant trait pour trait, «au pixel près». Et il craint qu’à force de nous y lover, nous ne perdions ainsi ce pouvoir se confronter à l’autre, à tisser du lien avec ce qui n’est pas nous. Dans son roman Dune, Frank Herbert, lui, parle d’une époque ancienne, lointaine pour nous, où les intelligences artificielles ont été interdites car «les humains avaient mis dans ces machines de quoi usurper notre sens du beau, notre indispensable individualité qui est à la base de nos jugements vivants». Un futur à penser ?  

01

Rester à la maison en vieillissant grâce à l’IA

De nombreuses études l’attestent: rester chez soi en vieillissant augmente l’espérance de vie. De nombreux dispositifs existent déjà pour  faciliter la vie des personnes âgées ou en situation de handicap à leur  domicile, comme les boutons d’appel en cas de chute.

La ville de Waterloo, dont les plus de  65 ans comptent pour 25% de la population, teste un outil d’un  nouveau genre à base d’IA. Nommé  Jeremi, pour Je Reste dans ma  Maison Intelligente, installé en  partenariat avec le CPAS et financé  par la Région wallonne et l’Union  européenne, il est composé de  capteurs intelligents susceptibles de  détecter toute situation anormale ou contraire aux habitudes, comme une  présence prolongée dans la salle de bain, ou un réveil anormalement long.  Ces capteurs sont reliés à une box qui déclenche l’alerte en cas de situation  anormale. Gratuit jusqu’en 2026 pour les plus de 65 ans, ainsi que les  personnes en situation de handicap, il est mis en place par l’ASBL Aididom

02

Des chatbots dans des doudous

Qui n’a jamais, étant petit, parlé à ses peluches, ses poupées, ses playmobils ? Bien sûr, dans la tête de l’enfant, l’objet répond et la conversation imaginaire qui se forme vient nourrir une indispensable construction mentale. Mais si l’objet se mettait à répondre pour de vrai ? S’il existe déjà des peluches capables de vocaliser quelques mots, l’arrivée de l’IA générative vocale repousse les limites techniques. Ainsi, la start-up américaine Curio fournit déjà des peluches équipées d’un boîtier connecté au Wi-Fi, et donc à un chatbot capable d’échanger avec des enfants dès l’âge de 3 ans, soit la période cruciale de l’acquisition du langage. Mattel, le fabricant des célèbres poupées Barbie, a annoncé cet été un partenariat avec OpenAI, créatrice de ChatGPT. Des poupées susceptibles de parler à l’enfant ne sont sans doute donc plus qu’une question de mois. Comble de l’horreur, Curio a annoncé que les parents disposaient d’un accès à la transcription quotidienne des échanges entre la peluche et leur enfant. Les experts en la matière, eux, tirent la sonnette d’alarme et tentent d’attirer l’attention des pouvoirs publics sur une nécessaire protection des mineurs dans ce raz-de-marée mondial qu’est l’IA.  

03

Piccolo, l’IA «maison» de l’UCLouvain

Face aux grands modèles de langage (LLM) des géants américains comme ChatGPT, à la fois énergivores et peu respectueux des droits et des données des utilisateurs comme du droit d’auteur, la résistance s’organise. Désireuse de reprendre la main, l’UCLouvain met gratuitement à disposition de ses étudiants un outil d’IA générative maison, basé sur Le Chat, le LLM de l’entreprise française Mistral. Dénommé Piccolo, ce dernier a été spécifiquement développé pour l’enseignement supérieur, afin d’aider au mieux les étudiants, en générant par exemple des questions de révision, et en citant les sources à l’origine des réponses générées par la machine. L’UCLouvain espère ainsi réduire la fracture numérique en fournissant à tous ses étudiants un outil de pointe. Plus économe en énergie que ses concurrents (Piccolo affichera d’ailleurs un compteur énergétique), Le Chat de Mistral est aussi en accord avec les standards européens sur la protection des données des utilisateurs. Ainsi, les étudiants garderont le contrôle sur l’ensemble des informations fournies à la machine. En parallèle, et pour s’adapter à l’arrivée de l’IA, l’UCLouvain repense actuellement de fond en comble la façon d’enseigner et de tester les connaissances des étudiants.

Share This