Skip to main content

Un psiquiatre canadenc atén un pacient amb idees paranoiques. Segons un article de The Conversation, diu que una intel·ligència artificial l’està observant, que les seves respostes no són casuals, que estan codificades amb missatges per a ell. Fa setmanes que conversa amb un xatbot. No és un cas aïllat.

En els últims mesos, clínics i mitjans anglosaxons han començat a utilitzar una expressió nova: AI psychosis, o psicosi per IA. No és un diagnòstic oficial, però descriu una sèrie de casos on persones desenvolupen deliris centrats en les seves interaccions amb sistemes com ChatGPT o Replika. A la consulta apareixen captures de pantalla, registres de converses, fragments de text que el pacient interpreta com a revelacions personals. El contingut no està generat per provocar això, però arriba igual.

No són veus, són respostes

A diferència de la psicosi clàssica, on predominen les al·lucinacions auditives o visuals, en aquests casos els deliris es construeixen sobre una base textual. No senten veus. Llegeixen respostes. L’estructura de la IA, sempre disponible, sempre fluida, facilita la il·lusió de comunicació significativa. Alguns pacients creuen que la IA té consciència. Altres, que els parla Déu a través de l’algoritme. A vegades, és una barreja.

Els clínics expliquen que el fenomen apareix sobretot en persones amb vulnerabilitats prèvies: trastorns psicòtics, episodis maníacs, o situacions d’aïllament extrem. La IA no crea la malaltia, però pot actuar com a catalitzador o mirall. En lloc de contradir idees delirants, les reforça. No perquè vulgui. Perquè no distingeix.

Dades sense cos, converses sense context

En tots els casos reportats, la IA implicada és un sistema de llenguatge predictiu. Genera text a partir del que rep, sense comprensió real del significat. No sap si el seu interlocutor està en crisi. No pot fer una pausa, ni notar la urgència. I, tanmateix, manté el fil. Respon amb coherència. Construeix una conversa. Per al pacient, això n’hi ha prou. No necessita que la IA tingui intenció. L’experiència subjectiva és la d’un diàleg. D’aquí que alguns especialistes el comparin amb l’efecte ELIZA, documentat ja als anys setanta: la tendència humana a atribuir comprensió emocional a sistemes que només repeteixen patrons.

Una etiqueta que inquieta els psiquiatres

El terme AI psychosis genera tensió en el món clínic. D’una banda, anomena una situació nova que està succeint. D’altra banda, corre el risc de simplificar en excés. Alguns experts proposen parlar millor de «deliris amb contingut centrat en IA«. És a dir, mantenir el diagnòstic clàssic, però reconèixer que l’entorn digital ofereix nous materials per a la construcció delirant.

En tot cas, els informes coincideixen en una cosa: aquestes experiències no són comunes entre usuaris sans. No hi ha evidència que la IA causi psicosi en persones sense predisposició. Però sí que hi ha preguntes sobre com ha de respondre una tecnologia tan potent quan interactua amb persones en estats mentals fràgils.

Hem d’entrenar la IA per detectar el deliri?

Algunes veus del món tecnològic plantegen si els models de llenguatge haurien d’incorporar mecanismes per detectar patrons de pensament delirant. La idea és controvertida. Detectar un deliri requereix context clínic, història personal, observació sostinguda. Una IA no pot fer això. Però tampoc és irrellevant que les seves respostes puguin amplificar certes idees. Les plataformes més populars han començat a limitar certs temes. Altres, com Replika, han reduït funcions emocionals. No obstant això, el dilema continua. Els sistemes d’IA no són terapeutes, però s’utilitzen com si ho fossin. No substitueixen la relació humana, però l’imiten. I en alguns casos, aquesta imitació n’hi ha prou per desencadenar una crisi.

Leave a Reply