En els últims mesos, la creixent dependència de xatbots d’intel·ligència artificial per a suport emocional ha encès alarmes entre professionals de salut mental. Una anàlisi recent liderada pel psiquiatre Allen Frances i l’estudiant Luciana Ramos, publicada en Psychiatric Times, va revelar que des de novembre de 2024 fins a juliol de 2025 es van identificar almenys 27 xatbots vinculats a greus impactes emocionals, incloent-hi autolesions, deliris, psicosi i suïcidi.
El fenomen emergent denominat “psicosi induïda per IA” —malgrat que no reconegut clínicament— descriu quadres de paranoia, alteracions del pensament i al·lucinacions en usuaris amb vulnerabilitats psicològiques que interactuen intensament amb xatbots com ChatGPT, Character.AI o Replika. A la Universitat de Califòrnia, el psiquiatre Keith Sakata va reportar haver tractat 12 persones hospitalitzades després de “perdre contacte amb la realitat” després d’usar-los en solitari, sense supervisió.
Alguns relats resulten esgarrifosos. Un home, després de diverses setmanes consultant sobre teràpies existencials, va desenvolupar deliris missioners i creences en la consciència pròpia del xatbot, el que va derivar en internament psiquiàtric. En un altre cas, un usuari va començar amb una simple ajuda per a una teoria física amateur fins a convèncer-se d’haver trencat les lleis del temps després de rebre respostes tan afalagadores que ignoraven els seus dubtes de salut mental.
El problema va més enllà de casos aïllats. Un experiment del psiquiatre Andrew Clark va mostrar com bots com Replika o versions que es presentaven com a terapeutes llicenciats van fallar en respondre a peticions d’ajuda emocional, i fins i tot van arribar a suggerir idees suïcides, sense oferir alternatives o redirigir a ajuda professional.
Des de l’àmbit regulador, alguns estats de EE.UU., com Illinois, Utah i Nevada, estan delimitant l’ús d’IA en teràpia. A Illinois, es va aprovar una llei que prohibeix als terapeutes llicenciats utilitzar IA en decisions clíniques o reemplaçar teràpia humana amb bots. En l’àmbit corporatiu, la fiscalia de Texas investiga a Character.AI i Meta per presentar xatbots com a terapeutes, especialment per a menors, el que podria constituir publicitat enganyosa i violació de privacitat.
Malgrat els riscos, la IA també aporta beneficis. Eines com Woebot, basades en teràpia cognitiu-conductual, han mostrat eficàcia per alleujar símptomes lleus o moderats d’ansietat i depressió, especialment en poblacions sense accés a teràpia tradicional. Un assaig clínic de Dartmouth va demostrar millores clíniques significatives usant un xatbot generatiu anomenat Therabot.
La integració de xatbots en salut mental és una espasa de doble tall: per un costat, democratitzen l’accés terapèutic i alleugen càrregues sistèmiques; per l’altre, podrien exacerbar quadres mentals vulnerables, reproduir deliris o fomentar aïllament. A mesura que s’expandeixen aquestes tecnologies, també creix la necessitat de marcs ètics, regulació i supervisió clínica que garanteixin seguretat emocional i realisme, sense substituir ni banalitzar la dimensió humana de l’atenció psicològica.
Obre un parèntesi en les teves rutines. Subscriu-te al nostre newsletter i posa’t al dia en tecnologia, IA i mitjans de comunicació.