Skip to main content

Un reportatge del MIT Technology Review revela que alguns terapeutes utilitzen ChatGPT durant les seves sessions sense avisar els seus pacients. La notícia sacseja l’ecosistema de confiança que sosté la relació terapeuta–pacient i planteja preguntes urgents sobre privacitat, ètica i el paper real de la intel·ligència artificial en la salut mental.

Quan les paraules no són del tot teves

Un dels casos documentats ocorre a Los Angeles. Declan, pacient habitual, va notar alguna cosa estranya durant una videotrucada. El seu terapeuta copiava les seves paraules en una altra finestra i responia amb frases impersonals, com dictades. Va descobrir que utilitzava ChatGPT en temps real per formular respostes.

Un altre episodi va involucrar una redactora que va rebre un correu extensament redactat pel seu terapeuta. El to era diferent. Va preguntar si l’havia escrit ella mateixa. La resposta va ser que no, que va recórrer a ChatGPT per estructurar-lo millor. En ambdós casos el consentiment brillava per la seva absència.

Avantatges que no curen, respostes que no senten

Per a alguns professionals, la temptació és clara. ChatGPT pot ajudar a redactar correus, resumir sessions o suggerir enfocaments. Però també pot desdibuixar la línia entre assistència i substitució.

Els grans models de llenguatge no entenen emocions, ni detecten matisos personals. A vegades ofereixen consells inofensius. Altres, reforcen deliris o minimitzen símptomes greus. Una investigació titulada «Delusion and stigma in large language models: A study on psychiatric advice from ChatGPT» va alertar que els LLM poden reproduir estigmes o suggerir respostes clínicament inapropiades. I ho fan amb la mateixa convicció sintètica que utilitzen per recitar una recepta de cuina.

Dades íntimes i decisions opaques

Més enllà del contingut, hi ha el com. Fer servir una IA en sessions terapèutiques implica introduir informació delicada en plataformes que no sempre compleixen normatives de privacitat, com HIPAA als Estats Units. Alguns terapeutes defensen que només fan servir ChatGPT de forma interna, sense copiar textos literals del pacient. Però fins i tot així, el rastre de dades queda. I els pacients rarament ho saben.

Confiança: aquesta línia invisible

Quan algú acudeix a teràpia, entrega alguna cosa més que paraules. Entrega context, vulnerabilitat, història. Saber que una màquina va intervenir sense avís trenca aquest pacte implícit. Alguns pacients van descriure la revelació com una traïció emocional. Altres, com un trencament en el procés. La confiança, diuen els manuals, és la base de l’aliança terapèutica. I també la seva condició de possibilitat.

Altres veus, altres límits

Al Regne Unit, el NHS ha demanat frenar l’ús de xatbots com a substituts terapèutics. En un comunicat, la institució va advertir que aquests sistemes no estan preparats per detectar crisis ni oferir contenció real, especialment en el cas d’adolescents i joves, on l’ús de tecnologia com a primera via d’ajuda és cada vegada més comú.

A l’Índia, especialistes alerten que, encara que accessibles, els bots no poden avaluar ni diagnosticar. Als Estats Units, mitjans com The Washington Post recomanen avisar sempre si s’utilitza IA en interaccions personals delicades. Casos com el del TOC agreugen el dilema, ja que hi ha evidència que ChatGPT alimenta bucles compulsius sense resoldre’ls. La il·lusió de conversa pot ser pitjor que el silenci.

IA com a ajuda, però amb regles clares?

Investigadors exploren possibles usos positius, des de guies psicoeducatives fins a assistents per estructurar sessions. Però amb condicions. Que no reemplacin. Que no ocultin la seva presència. I que estiguin supervisades per professionals reals, no per prompts automàtics.

Qüestió d’honestedat

Algunes respostes, per més fluides que sonin, no venen de qui s’espera. En la intimitat d’una sessió, l’origen importa. No només el que es diu, sinó qui ho diu. La tecnologia pot ser aliada, però només si no traeix el pacte més antic de tots, saber amb qui estem parlant.

Obre un parèntesi en les teves rutines. Subscriu-te al nostre butlletí i posa’t al dia en tecnologia, IA i mitjans de comunicació.

Leave a Reply