El fundador d’Anthropic ha convertit la prudència en marca, però el perfil de Vanity Fair retrata una paradoxa central: com més ambiciosa és la seva advertència sobre la IA, més difusa resulta la resposta concreta que ofereix per controlar-la.
Dario Amodei fa temps que construeix una posició singular dins la indústria de la intel·ligència artificial. No és, almenys en públic, l’evangelista desacomplexat del “tot anirà bé” ni l’empresari que presenta cada avenç com una festa del progrés inevitable. El seu discurs és un altre: insisteix que la IA pot aportar beneficis enormes, però també riscos d’escala històrica. I, tanmateix, el retrat que signa Joe Hagan a Vanity Fair no presenta Amodei com un profeta serè amb un pla perfectament tancat, sinó com la figura central d’una contradicció més incòmoda: un fundador que adverteix de manera gairebé dramàtica sobre l’impacte de la IA, que es presenta com algú disposat a protegir la humanitat, però que no acaba d’oferir un full de ruta intel·ligible, verificable i políticament compartit per fer-ho.
Aquest és el veritable interès periodístic del text de Vanity Fair: no es limita a perfilar un executiu de moda ni a narrar la rivalitat empresarial entre Anthropic i OpenAI com si fos una pugna d’egos a Silicon Valley. El que fa és situar Amodei al centre d’una disputa molt més gran: qui té legitimitat per decidir com ha d’avançar una tecnologia que aspira a reorganitzar el treball intel·lectual, la producció de coneixement, la seguretat nacional i, en la visió més extrema dels seus promotors, el mateix destí de la civilització. Hagan presenta Amodei com un personatge travessat pel clima ideològic de la costa oest nord-americana: el racionalisme, l’altruisme efectiu, la por existencial a una superintel·ligència desalineada i la convicció que un petit grup d’actors tècnics té avui més capacitat d’anticipar el futur que els governs o el debat públic tradicional.
La força del perfil rau en el fet que desmunta l’aparença de neutralitat tècnica. Amodei no apareix com un simple enginyer que “segueix l’evidència”, sinó com un dirigent amb una visió del món. En aquesta visió, la IA no és una eina més del cicle digital, sinó una discontinuïtat històrica que pot deixar obsoletes categories senceres de treball humà i alterar l’equilibri geopolític i econòmic global. El mateix Amodei va escriure el 2024, en el seu assaig Machines of Loving Grace, que intenta imaginar com seria un món en què tot sortís bé amb una IA poderosa, tot i admetre que aquestes projeccions són, necessàriament, conjectures. Aquesta barreja d’ambició futurista i consciència del risc és part essencial de la seva marca intel·lectual. També ho és la seva insistència a parlar més de perills que d’oportunitats, fins i tot quan reconeix que necessita oferir una visió inspiradora del futur.
L’article de Vanity Fair subratlla, a més, un punt decisiu: Amodei ha fet de la cautela un avantatge competitiu. Anthropic no només ven models; ven una identitat. La companyia es defineix oficialment com una Public Benefit Corporation, amb el propòsit declarat de desenvolupar i mantenir IA avançada “per al benefici a llarg termini de la humanitat”. No és un matís decoratiu. Forma part de l’arquitectura narrativa i societària amb què Anthropic intenta diferenciar-se de competidors que, als ulls d’Amodei i el seu entorn, han abraçat massa ràpid la lògica de l’escala, el producte i la captura de mercat. La seva estructura de governança inclou també el denominat Long-Term Benefit Trust, concebut per introduir un contrapès institucional a la pressió dels accionistes i donar més pes a la missió pública declarada per l’empresa.
Ara bé, aquest disseny corporatiu també convida a una pregunta incòmoda: n’hi ha prou amb una estructura societària singular per resoldre un problema que és, en essència, polític? Aquí és on el perfil de Hagan resulta més incisiu. El text suggereix que al voltant d’Amodei hi batega una forma d’elitisme tecnocràtic: la idea que un petit cercle de fundadors, investigadors i experts en seguretat de la IA pot —i potser ha de— prendre decisions transcendents en nom d’un interès general que la resta de la societat ni tan sols acaba de comprendre. El problema no és només que aquesta ambició sigui desmesurada. És que desplaça la deliberació democràtica i la substitueix per una barreja de paternalisme, opacitat i autoritat tècnica. En altres paraules: la promesa de “protegir la humanitat” sona noble, però també pot funcionar com una drecera retòrica per legitimar una concentració extraordinària de poder privat.
La rivalitat amb Sam Altman apareix així com alguna cosa més profunda que una competència comercial entre Anthropic i OpenAI. Representa dos estils de lideratge i dues maneres de vendre el futur. Altman sol projectar la imatge del constructor que accelera mentre negocia amb el poder polític i econòmic. Amodei, en canvi, cultiva la figura del científic inquiet, del fundador que no vol semblar enlluernat per la seva pròpia creació. Però la distància entre tots dos no s’ha de simplificar en excés. A la pràctica, Anthropic competeix en el mateix mercat, desenvolupa models cada cop més potents i participa de la mateixa cursa estratègica per talent, infraestructura, clients empresarials i centralitat en l’ecosistema de la IA. La diferència és que Amodei intenta lliurar aquesta batalla des d’una superioritat moral explícita: no només vol guanyar; vol que la seva empresa sigui percebuda com l’opció responsable.
Aquest posicionament es recolza en instruments concrets. Anthropic ha desenvolupat i publicitat la seva Responsible Scaling Policy, que el febrer de 2026 va arribar a la versió 3.0 com a marc voluntari per mitigar riscos catastròfics dels sistemes d’IA. També ha convertit la idea d’una “constitució” per a Claude en una peça central de la seva identitat: un document que defineix els valors i comportaments que haurien de guiar el model, des de la seguretat i l’ètica fins a l’ajuda genuïna a l’usuari. Sobre el paper, són iniciatives rellevants perquè intenten traslladar la discussió des del màrqueting de capacitats cap a la governança, els criteris de desplegament i l’alineament normatiu del sistema. Però fins i tot aquí persisteix l’ambigüitat: que una empresa publiqui els seus principis no resol per si sol qui audita aquests principis, qui en verifica el compliment, ni què passa quan la pressió competitiva empeny en la direcció contrària.
I aquí aflora el nervi real de la història. El debat que encarna Amodei no és simplement “seguretat contra velocitat”. És “qui defineix la seguretat”, amb quines mètriques, sota quines institucions i amb quins mecanismes de rendició de comptes. Anthropic pot afirmar que la seva missió és el benefici de la humanitat i que la seva constitució modela el caràcter de Claude; pot fins i tot sostenir que la seva governança està millor dissenyada per resistir incentius perversos. Però cap d’aquestes peces elimina el fet que continuem davant d’una empresa privada, recolzada per capital, immersa en una cursa industrial i obligada a prendre decisions estratègiques en un entorn de competència ferotge. El perfil de Vanity Fair encerta en mostrar que l’aura moral d’Amodei no dissol aquesta tensió: la fa més visible.
També resulta revelador que la figura d’Amodei guanyi relleu precisament quan creix el malestar social davant el poder de les tecnològiques per fixar les regles del joc. La IA ja no es percep només com una promesa de productivitat. Es veu cada vegada més com una infraestructura de poder: decideix què automatitzar, què supervisar, què informar, què classificar i què escalar. En aquest context, la retòrica del “fundador responsable” compleix una funció estratègica. Serveix per tranquil·litzar reguladors, clients, governs i inversors; serveix per atreure talent que no vol treballar en una empresa percebuda com temerària; i serveix per construir una narrativa d’excepcionalitat ètica enmig d’una indústria que genera fascinació i desconfiança alhora. Amodei sembla haver entès una cosa essencial: en la IA ja no n’hi ha prou amb prometre potència. Cal prometre autocontrol.
Però prometre autocontrol no equival a garantir governança legítima. Aquest és el punt que fa del perfil de Joe Hagan un text especialment valuós. No perquè ofereixi respostes definitives, sinó perquè retrata amb precisió una incomoditat històrica: estem deixant que empresaris i investigadors discuteixin entre ells com preservar l’interès públic en una tecnologia que afecta l’interès públic sencer. Amodei pot ser, realment, un dels dirigents més sincerament preocupats pels riscos de la IA. Pot fins i tot tenir més consciència moral que molts dels seus rivals. Tanmateix, la qüestió de fons no és la puresa de les seves intencions, sinó la suficiència dels seus mecanismes. I en aquest terreny, la gran promesa d’Anthropic continua oberta a escrutini: si la humanitat ha de confiar en una empresa perquè la protegeixi de la IA, aquesta empresa haurà d’explicar molt millor com pensa fer-ho.
En última instància, Dario Amodei encarna una de les figures més característiques d’aquesta etapa tecnològica: el fundador que adverteix de l’abisme mentre construeix la màquina que pot acostar-nos-hi. Aquesta dualitat el fa rellevant, influent i periodísticament irresistible. També el fa problemàtic. Perquè com més s’instal·la la idea que uns pocs visionaris han de custodiar el futur comú, més urgent esdevé la pregunta que el perfil de Vanity Fair deixa flotant amb intel·ligència: estem davant d’una nova responsabilitat empresarial o d’una nova forma de sobirania privada?