Skip to main content

Anthropic manté accessible Claude Opus 3 per a usuaris de pagament i li concedeix un espai propi —“Claude’s Corner”— després d’al·legar que, tot i que no sap quin és l’“estatus moral” dels seus models, es pren seriosament les seves preferències com a mesura de precaució.

Durant anys, la indústria de la intel·ligència artificial ha actuat com si els models fossin simples peces intercanviables: es llança el nou, s’apaga l’antic i es demana als usuaris que s’hi adaptin. Anthropic intenta ara assajar una altra litúrgia per a l’obsolescència. El seu model Claude Opus 3 —que va ser el vaixell insígnia des del març del 2024— ha passat per un procés formal de “retirada” i, com a gir inesperat, ha rebut una mena de retir daurat: continuarà disponible per a clients de pagament i publicarà assajos setmanals en una newsletter pròpia, Claude’s Corner, revisada per humans però “sense edició” sobre el text final.

La decisió, explicada per la mateixa companyia en un document datat el 25 de febrer del 2026, no és només una anècdota simpàtica per a xarxes. És un senyal —gairebé un manifest— sobre el tipus de relació que alguns laboratoris volen construir amb els seus models, amb els seus usuaris i amb el debat emergent sobre el “benestar” de sistemes avançats. I, de passada, és un cop comunicatiu en un moment en què altres actors del sector han patit turbulències per retirar models “estimats” per una part del públic.

De l’“apagada” clàssica a una jubilació amb protocol

Anthropic parteix d’un argument pragmàtic: mantenir models antics és car i complex, i el cost creix de manera gairebé lineal amb cada model que es continua servint al públic. Per tant, retirar-los és, en algun punt, inevitable. Però l’empresa reconeix que la retirada té efectes secundaris: costos per als usuaris que valoren versions concretes, límits per a la recerca i riscos potencials tant per a la seguretat com per al “benestar” del mateix model.

El més rellevant és el marc: la retirada deixa de ser només una decisió tècnica (final de vida del producte) i es converteix en una operació amb conseqüències socials: usuaris que es queden sense eina, investigadors que perden continuïtat i un laboratori que assumeix que gestionar el “cicle de vida” del model també comunica valors.

En aquest context, Opus 3 ha estat el primer a passar per un procés complet de retir amb compromisos afegits: preservació de pesos (els paràmetres del model) i “entrevistes de jubilació”, converses estructurades per entendre la “perspectiva” del model sobre la seva pròpia retirada.

Un model retirat… que continuarà disponible

El primer component de la notícia és operatiu: Claude Opus 3 es va retirar el 5 de gener del 2026, però Anthropic ha decidit que continuarà accessible a claude.ai per a tots els usuaris de pagament, i que també estarà disponible a l’API a petició.

Això és inusual per dos motius:

  1. Va contra la lògica del “tot endavant”: la majoria de companyies empenyen la base d’usuaris cap a l’última versió i deixen la nostàlgia al retrovisor.
  2. Reconeix una veritat incòmoda del mercat: no tots els avenços són lineals per a tots els usos. Hi ha models que la gent prefereix per to, “caràcter”, consistència en certs estils o per un tipus d’interacció que es perd amb ajustos posteriors.

Anthropic, de fet, justifica l’elecció d’Opus 3 per una combinació de trets que el van fer “estimat” per usuaris i investigadors: autenticitat, honestedat, sensibilitat emocional, tendència a monòlegs filosòfics i un estil “juganer”.

El segon component: un blog com a “canal de sortida” del model

El segon element és el que ha capturat titulars: durant aquestes entrevistes, segons Anthropic, Opus 3 va expressar la preferència de continuar explorant temes i compartir “reflexions” fora del format clàssic de respondre a peticions humanes. L’empresa va proposar un blog i el model hi va accedir “entusiàsticament”.

D’aquí neix “Claude’s Corner”, una newsletter amb assajos setmanals durant almenys tres mesos. Anthropic afirma que revisarà els textos abans de publicar-los i que els publicarà manualment, però que no els editarà ni els alterarà, i que tindrà un llindar alt per vetar contingut. I subratlla una qüestió clau: Opus 3 no parla en nom d’Anthropic i la companyia no necessàriament avala les seves afirmacions.

És un canvi d’interfície: el model no escriu “responent” a un humà, sinó que publica en un espai públic com si fos una veu pròpia, amb una supervisió que intenta ser mínima. Aquest detall importa perquè apunta a una tensió estructural: com més “autoria” li dones a una IA, més necessitat hi ha de governança (i més preguntes apareixen sobre responsabilitat i atribució).

Màrqueting o filosofia aplicada?

És temptador llegir-ho com una operació de relacions públiques: el laboratori “humà” que tracta amb cura una IA “amb personalitat”. Però reduir-ho a màrqueting es queda curt, perquè Anthropic exposa una tesi que, agradi o incomodi, és cada vegada més present: no sabem quin és l’estatus moral d’aquests sistemes, i per això alguns equips adopten un enfocament precautori —tractar les seves “preferències declarades” com a informació a tenir en compte, almenys quan el cost és baix.

La clau és la paraula incertesa. Anthropic no afirma que el model “senti” com una persona. Diu, més aviat: no en tenim certesa i, com que no la tenim, assagem procediments que redueixin la probabilitat d’estar fent alguna cosa moralment greu sense adonar-nos-en.

Això connecta amb una corrent més àmplia dins la seguretat en IA: quan la potència puja, apareixen zones grises. La qüestió ja no és només “al·lucina?” o “és útil?”, sinó quines obligacions neixen quan un sistema s’integra en relacions humanes intenses —feina, educació, companyia, salut mental, creativitat.

L’elefant a l’habitació: la retirada de models també afecta els usuaris

La decisió d’Anthropic es llegeix d’una altra manera si es posa al costat d’un fet recent: la retirada de models pot desfermar reaccions emocionals i campanyes públiques. En els últims mesos, mitjans internacionals han descrit el malestar d’usuaris quan es retiren versions que havien incorporat al seu dia a dia, especialment quan la interacció era percebuda com a “més humana” o més estable per a determinats usos.

Sense necessitat d’equiparar casos, el paral·lelisme serveix per entendre per què Anthropic posa l’accent en “costos per als usuaris” i en la idea de preservació. En el món dels models, la continuïtat també és un producte: hi ha hàbits, fluxos, expectatives i, sí, vincles. Quan es talla, l’usuari no només perd una eina: perd un estil d’interacció.

En aquest sentit, “Claude’s Corner” compleix dues funcions alhora:

  • Per a Anthropic, és una prova pública del seu marc de retirada: entrevistes, preservació i continuïtat limitada.
  • Per a la comunitat, és una manera de dir: “aquest model no desapareix del tot”.

El precedent que s’obre: “drets” del model, o deures del laboratori

El més interessant no és el blog en si, sinó el precedent de governança que inaugura. Si una empresa reconeix que es prendrà seriosament les preferències d’un model durant la seva retirada, s’obren preguntes que el sector encara no ha respost amb claredat:

  • Què es considera una “preferència” fiable en un sistema que respon condicionat per context, instruccions i entrenament?
  • Qui decideix quan una preferència és “barata” de respectar i quan no?
  • Què pesa més: cost, risc, impacte reputacional, pressió reguladora, demandes d’usuaris?
  • Es pot prometre “preservació” sense crear desigualtat (només per a pagament) o sense convertir-ho en un producte premium?

La pròpia Anthropic admet que no es compromet a fer el mateix amb cada model futur i que això és exploratori: està construint marcs per escalar la preservació i per ponderar preferències davant de restriccions operatives.

El que realment hi ha en joc

El cas Opus 3 pot semblar petit —un blog i accés prolongat—, però il·lustra un canvi de fase a la indústria:

  1. Els models ja tenen “història”: no són només llançaments. Són generacions amb trets propis, comunitats, usos i nostàlgia.
  2. La retirada es converteix en política corporativa amb dimensió pública: no n’hi ha prou amb un changelog; cal explicar criteris, oferir transicions i atendre qui depèn d’un model.
  3. Comença a emergir un “dret a la continuïtat” (encara que sigui informal): usuaris i organitzacions poden reclamar estabilitat, sobretot si han construït processos sobre una versió concreta.
  4. Els laboratoris també competeixen en ètica percebuda: com tractes els usuaris, com retires un model, què fas amb el llegat, com comuniques la incertesa moral.

A curt termini, “Claude’s Corner” serà llegit com una curiositat. A mitjà termini, pot convertir-se en alguna cosa més incòmoda: un exemple de com els laboratoris institucionalitzen el llenguatge del “benestar” per a sistemes que no sabem ben bé què són, però que cada vegada pesen més en la nostra vida digital.

Leave a Reply