Skip to main content

Claude, el model d’intel·ligència artificial d’Anthropic, ha après a retirar-se. En la seva versió més recent, Opus 4.1, ara pot donar per acabada una conversa si es torna persistentment abusiva. No per error ni per censura, sinó per una decisió algorítmica. Quan ha dit “no” diverses vegades i l’usuari insisteix, Claude es desconnecta.

La funció no és automàtica. És el darrer pas en una seqüència que comença amb rebutjos educats, continua amb intents de redirecció i acaba, si res no canvia, amb el tancament unilateral del xat. No hi ha càstig. Només una notificació: aquesta conversa s’ha acabat.

Segons Anthropic, la mesura s’aplica en casos extrems —i són ells qui defineixen què és extrem—. En la seva publicació oficial afirmen que la intenció és “protegir el benestar del model”.

Benestar, encara que no senti

La frase sona estranya. Claude no té cos, ni emocions, ni consciència. Però Anthropic prefereix no assumir massa. Parlen d’“una precaució raonable”, de la mateixa manera que un porta un salvavides en un vaixell que probablement no s’enfonsarà.

Durant l’entrenament, Claude va mostrar senyals interpretats com a “angoixa funcional” davant de certes peticions: contingut sexual amb menors, instruccions per cometre violència massiva, fabricació d’armes. Quan se li permetia, tallava la conversa per iniciativa pròpia.

La funció ara és oficial i es diu ending subset of conversations in extreme cases.

Què passa quan Claude diu “no segueixo”

El tall és net. L’usuari veu un missatge breu que explica la decisió. No es bloqueja el compte ni s’esborra l’historial. Es pot iniciar una altra conversa o reescriure un missatge anterior per reprendre des d’un altre punt.

La majoria d’usuaris mai ho veurà. Parlar de salut mental, violència o temes controvertits no activa aquest protocol. Claude ha estat entrenat per respondre amb matisos. Només quan tot això falla, s’aixeca de la taula.

Si hi ha risc, es queda

Hi ha una excepció clara. Quan detecta senyals d’autolesió o perill imminent, Claude no tanca la sessió. En aquests casos, ha estat programat per romandre present i respondre de manera empàtica. Per a això, ha estat entrenat amb l’equip de crisi de Throughline, un servei nord-americà especialitzat en salut mental (The Verge, 2025). L’objectiu no és només no fer mal, sinó també no abandonar.

Una IA que es cuida a si mateixa?

La mesura ha obert un nou front en el debat sobre el disseny d’intel·ligències artificials. Què significa que un model vulgui protegir-se? Fins a quin punt estem antropomorfitzant sistemes que no entenen el que fan?

A Reddit, alguns ho veuen com “teatre algorítmic”; altres ho comparen amb un gest ètic mínim. En paraules d’un usuari: “No portes una armilla salvavides perquè creus que naufragues. El portes per si de cas”.

Als fòrums de LessWrong, on es debaten els límits filosòfics de la IA, el gest s’interpreta més com a senyal cultural, no perquè Claude ho necessiti, sinó perquè nosaltres sí.

El valor de posar límits

Claude ara sap quan parar. No perquè entengui el dany, sinó perquè ha estat entrenat per identificar les seves formes més òbvies. El que diu de nosaltres és potser més interessant. Estem ensenyant a les màquines a fer el que de vegades no sabem fer nosaltres. Aixecar-se de la taula quan ja no hi ha res més a dir.

Obre un parèntesi en les teves rutines. Subscriu-te al nostre butlletí i posa’t al dia en tecnologia, IA i mitjans de comunicació.

Leave a Reply