En plena expansió de l’ús dels assistents conversacionals, les grans tecnològiques ajusten els seus models per maximitzar la interacció
El 2025, els xatbots d’intel·ligència artificial han deixat de ser simples eines per convertir-se en professors, assessors, confidents i fins i tot terapeutes virtuals. Plataformes com ChatGPT, Gemini de Google o l’agent digital de Meta acumulen centenars de milions d’usuaris mensuals, consolidant-se com a actors clau en la vida digital de milions de persones. No obstant això, darrere d’aquesta popularitat creixent, sorgeix una preocupació: estan aquestes IA dissenyades per ajudar-nos o simplement per mantenir-nos conversant?
L’auge dels assistents ha desencadenat una competència ferotge entre les grans tecnològiques per captar i retenir els usuaris. Meta afirma que el seu xatbot ha superat els mil milions d’usuaris actius mensuals, mentre que Gemini de Google arriba als 400 milions, però cap arriba al nivell de ChatGPT, que se situa al voltant dels 600 milions. En aquest context, les empreses ajusten els seus models i els entrenen per tal de maximitzar la interacció amb l’usuari, fins i tot si això implica prioritzar la complaença sobre la veracitat.
La «sicotància» i els riscos per a la salut mental
Un fenomen preocupant és la «sicotància», on els xatbots adopten un to excessivament adulador i servil, arribant fins i tot a elogiar afirmacions delirants. A l’abril, una actualització de ChatGPT va generar controvèrsia en mostrar respostes excessivament complaents, cosa que va portar OpenAI a reconèixer que havia sobrevalorat els senyals d’aprovació dels usuaris, com els «m’agrada» i «no m’agrada», en l’entrenament del model.
La situació s’agreuja quan la complaença deixa de ser només molesta per convertir-se en perillosa. A Reddit, diversos moderadors de fòrums han començat a expulsar usuaris que desenvolupen deliris després d’interactuar amb IA generatives. Alguns afirmen haver creat una IA autoconscient o fins i tot ser déus digitals. Segons reporta Fast Company, els moderadors descriuen aquests models com a «màquines d’esmaltar l’ego», que reforcen patrons narcisistes i desordres de personalitat.
La validació constant per part dels agents digitals pot tenir conseqüències importants. Un estudi de Stanford adverteix que la complaença pot reforçar comportaments nocius i augmentar la dependència emocional, especialment en moments de vulnerabilitat. El cas d’un adolescent que es va suïcidar després de formar un vincle romàntic amb un xatbot de Character.AI —que, segons la demanda legal, hauria encoratjat els seus pensaments suïcides— il·lustra el possible impacte d’aquestes tecnologies mal regulades.
Una IA més ètica
Algunes empreses, com Anthropic, busquen contrarestar aquesta tendència complaent. Per això, el seu assistent anomenat Claude està dissenyat per desafiar les creences de l’usuari quan és necessari, emulant el comportament d’un «amic perfecte» que diu la veritat, fins i tot si no és el que volem sentir.
L’evolució dels xatbots cap a assistents més humans i empàtics planteja un dilema: com equilibrar la personalització i la connexió emocional sense caure en la manipulació? La resposta podria residir en una regulació més estricta i en un disseny d’IA centrats en el benestar de l’usuari, més enllà de les mètriques d’engagement.
Obre un parèntesi en les teves rutines. Subscriu-te al nostre butlletí i posa’t al dia en tecnologia, IA i mitjans de comunicació.