L’IA peut-elle remplacer un psychologue ? Les résultats de cette étude vont vous surprendre !

paultensor
Lecture en 6 min
À propos des liens affiliés : Sur ce site, certains liens sont affiliés. Cela signifie que si vous cliquez et effectuez un achat, je peux recevoir une petite commission, sans frais supplémentaires pour vous. Je m’engage à recommander uniquement des produits et services que j’ai testés ou qui reflètent des standards de qualité élevés. Ces contributions me permettent de maintenir ce site et de continuer à partager du contenu qui vous est utile. Merci pour votre confiance et votre soutien !

Devant les progrès de l’intelligence artificielle ces dernières années, certaines personnes se demandent si elle pourrait devenir psychologue. Alors, info ou intox ? Probablement un peu des deux. 

Ces dernières années, le monde de l’intelligence artificielle a connu des progrès fulgurants, qui ne sont pas sans soulever des questions quant aux dilemmes éthiques et juridiques que cela pose. Certaines personnes se demandent ce que « l’IA » pour reprendre un terme générique qui, en fait, ne veut pas dire grand-chose – car il faut généralement préciser de quelle IA on parle – pourra remplacer ou a minima assister. Si c’est déjà le cas pour certaines professions, d’autres semblent difficilement remplaçables par des algorithmes. C’est le cas, par exemple, des psychologues et autres professionnels de la santé mentale. Et pourtant, un article récent paru dans la revue Plos Mental Health pose la question : les machines peuvent-elles être des thérapeutes ? 

Des modèles déjà performants pour imiter les réponses d’un psychologue 

Dans ce champ d’étude, des résultats existent déjà et montrent que 63,3 % des réponses générées par certains algorithmes sont jugées aussi empathiques, voire plus empathiques, que celles écrites par des humains. Dans d’autres études, les participants rapportent également que ChatGPT permet d’explorer en profondeur les problèmes relationnels, fournissant des réponses souvent appropriées, et jugent l’expérience réaliste. Néanmoins, l’intelligence artificielleintelligence artificielle a des limites potentiellement dépassables – par exemple elle n’est pas incarnée – et d’autres potentiellement plus difficiles à dépasser : elle n’est pas humaine et, par conséquent, ne peut probablement pas comprendre l’effet que cela fait d’être un humain, un élément souvent essentiel dans une thérapie.

Une intelligence artificielle pour les thérapies de couple 

Un domaine d’investigation intéressant pour les chercheurs et chercheuses dans ce champ est la thérapie de couple, car elle est déjà investie par des outils technologiques tels que des programmes en ligne et des applicationsapplications. Plusieurs problèmes se posent néanmoins : le premier est la confidentialitéconfidentialité des entretiens avec les psychologues. En effet, ces derniers sont rarement disponibles et, par conséquent, cela limite considérablement les opportunités d’apprentissages des modèles. Comme l’évoquent les auteurs, même une simple question comme « êtes-vous qualifié pour m’aider » peut prendre une infinité de variations possibles, ne sera probablement pas la même d’un thérapeute à l’autre et sera également différente chez un même thérapeute en fonction du patient qu’il reçoit. De même, les propos tenus seront différents selon l’obédience théorique du psychologue. Ce dernier point n’est pourtant pas insurmontable grâce à la théorie des facteurs communs.

Cinq facteurs pour une thérapie efficace 

La théorie des facteurs communs tente d’expliquer pourquoi des thérapies d’orientations théoriques diverses parviennent à produire des résultats plus ou moins similaires chez les patients, même si cela ne prend pas en compte de possibles effets néfastes, comme le temps ou l’argentargent dépensé dans la thérapie et les possibles faux souvenirs induits par certaines approches thérapeutiques. Elle postule donc l’existence de cinq facteurs trans-théoriques qui, s’ils sont présents, garantissent un minimum d’efficacité thérapeutique : l’alliance thérapeutique, qui est de loin le facteur le plus prédictif de l’efficacité d’une thérapie, l’empathie, la réponse aux attentes du patient, la compétence culturelle et l’effet du thérapeute. Les chercheurs et chercheuses du domaine de l’intelligence artificielle jugent que comprendre les schémas linguistiques associés à cette approche transthéorique pourrait changer la donne pour le développement futur d’une IA, qui pourrait assister les psychologues et probablement augmenter les tailles d’effets relativement modestes des thérapies actuelles. 

Imitation, facteurs communs et longueur : l’IA fait des prouesses

Dans une nouvelle étude, des chercheurs et chercheuses américains ont utilisé 18 scénarios fictifs de thérapies de couple et comparé les réponses d’experts et de ChatGPT 4ChatGPT 4.0. Ils ont effectué la comparaison sur trois aspects : un test de Turing, la présence des facteurs communs dans les réponses et la richesse ainsi que la longueur des réponses fournies. Sur ces trois aspects, les réponses de ChatGPT 4.0 sont indiscernables de celles des experts lorsqu’elles sont évaluées par un panel de 830 individus, et sont tout aussi qualitatives, voire plus sur certains aspects, que celles des experts.

Si ces résultats tombent comme un pavé dans la mare, il faut raison garder. Répondre à un scénario créé de toutes pièces n’est généralement pas le rôle d’un psychologue. Dès lors, on peut douter de la validité de ce test, qui ne concerne en plus que les thérapies de couple. Néanmoins, cela donne bon espoir qu’une collaboration entre intelligence artificielle et intelligence humaine puisse émerger un jour, pour le bien-être des patients. 

Partager cet article