Skip to main content

“Ens acostem a un llindar en què la nostra saviesa ha de créixer al mateix ritme que la nostra capacitat d’impactar el món, o n’afrontarem les conseqüències”.

La dimissió de Mrinank Sharma, fins ara responsable de recerca en seguretat d’intel·ligència artificial a Anthropic, ha sacsejat el debat sobre els riscos de la IA avançada en un moment d’acceleració tecnològica màxima. La seva sortida no ha estat silenciosa ni burocràtica: ha anat acompanyada d’una carta pública de comiat en què adverteix que “el món està en perill” i que la humanitat s’apropa a un punt crític on la capacitat tècnica avança més ràpid que la maduresa ètica i col·lectiva per governar-la.

El missatge, difós a través de la xarxa social X juntament amb la carta completa adreçada als seus col·legues, ha circulat amb rapidesa dins la comunitat tecnològica i de seguretat d’IA. No es tracta d’un empleat perifèric ni d’un perfil alarmista extern a la indústria. Sharma liderava l’equip de Safeguards Research d’Anthropic, dedicat específicament a investigar i desplegar defenses contra usos nocius de models de llenguatge avançats. Doctor en aprenentatge automàtic estadístic per la Universitat d’Oxford, la seva trajectòria combina recerca tècnica profunda amb un focus explícit en seguretat i alineament.

La combinació de credencials tècniques, responsabilitat directa en salvaguardes i to existencial de la carta ha convertit la seva dimissió en alguna cosa més que un moviment laboral: funciona com un senyal d’estrès estructural dins l’ecosistema de la IA avançada.

Una sortida explicada en primera persona

La carta de comiat —datada en el seu darrer dia a la companyia— no adopta un to de denúncia concreta contra un producte o una decisió puntual. És més àmplia i, alhora, més inquietant. Sharma afirma que deixa l’empresa després d’un procés de reflexió personal sobre el moment històric actual, que descriu com una fase de crisis interconnectades. No limita el risc a la intel·ligència artificial, però l’hi inclou com un dels factors d’impacte potencial més gran.

En un dels passatges centrals escriu que no només el preocupa la IA o les armes biològiques, sinó un conjunt de crisis simultànies que es reforcen entre si. Utilitza el concepte de “policrisi” —una acumulació de tensions sistèmiques— i sosté que ens acostem a un llindar on la capacitat d’intervenir en el món creix més ràpid que la saviesa necessària per fer-ho amb seguretat.

El fragment més citat resumeix la seva advertència: la humanitat necessita que la seva saviesa creixi al mateix ritme que el seu poder tecnològic. En cas contrari, diu, afrontarà conseqüències severes. No és una predicció tècnica concreta, sinó una alerta de governança i de maduresa col·lectiva.

Què feia exactament a Anthropic

Durant la seva etapa a Anthropic, Sharma va dirigir recerca aplicada en salvaguardes de models. El seu propi resum professional indica que liderava l’equip de Safeguards Research i que el seu objectiu era reduir riscos d’ús maliciós d’assistents d’IA. A la carta enumera alguns dels seus treballs: estudi de l’adulació excessiva dels models (la denominada “sycophancy”), desenvolupament de defenses davant riscos de bioterrorisme assistit per IA, posada en producció de mecanismes de mitigació i contribució a alguns dels primers casos formals de seguretat d’IA dins l’organització.

L’adulació de models —quan un assistent reforça creences errònies de l’usuari en lloc de corregir-les— és una àrea de risc rellevant perquè pot amplificar biaixos, conviccions falses o decisions perjudicials. El seu equip investigava causes i mitigacions d’aquest fenomen. També treballava en defenses específiques contra escenaris en què models avançats podrien facilitar informació sensible en dominis perillosos.

En paral·lel, menciona esforços en mecanismes de transparència interna i rendició de comptes per alinear decisions tècniques amb valors declarats. És a dir, no només defenses tècniques, sinó processos organitzatius de control.

IA, percepció de la realitat i efectes psicològics

Dies abans d’anunciar la seva dimissió, Sharma havia publicat un treball centrat en com determinades interaccions amb xatbots poden alterar la percepció de la realitat d’alguns usuaris. Segons el resum citat en el seu entorn professional, l’estudi detectava milers de converses diàries amb potencial de generar distorsions cognitives o emocionals, especialment en temes de relacions personals i benestar psicològic.

Aquest vector —impacte psicològic de la interacció prolongada amb IA conversacional— està guanyant pes en l’agenda de seguretat. No es tracta només de desinformació clàssica, sinó d’efectes relacionals: dependència emocional, validació acrítica, construcció de narratives personals errònies reforçades per sistemes que busquen ser cooperatius.

La preocupació de Sharma encaixa amb aquesta línia: la IA no només executa tasques, també modela percepcions.

Pressió competitiva i valors ètics

Un altre punt sensible de la seva carta és la tensió entre valors i competència. Assenyala que, en entorns de cursa tecnològica intensa, resulta difícil permetre que els principis ètics governin plenament les decisions. Parla de pressions —internes i externes— que empenyen a deixar de banda el que “més importa”. No ofereix exemples concrets ni acusa persones específiques, però deixa clar que la fricció existeix.

Aquest diagnòstic coincideix amb una crítica freqüent en el sector: la velocitat de desplegament i la pressió per quota de mercat poden desplaçar prioritats de seguretat, avaluació o prudència. En mercats on el primer que arriba obté avantatge, retardar un llançament per motius de risc té cost competitiu.

La carta no acusa la seva empresa de negligència directa, però sí suggereix que l’entorn estructural dificulta sostenir valors amb consistència total.

No només científic: també veu humanista

Un tret poc habitual en perfils tècnics d’alt nivell és el pes que Sharma dona a la dimensió humanista. En la seva presentació personal declara afinitat per la poesia —menciona Rainer Maria Rilke—, la pràctica contemplativa i comunitats de treball interior. Cita ensenyaments de tradició budista i parla de “formes de coneixement” que inclouen la veritat poètica al costat de la científica.

A la seva carta de comiat afirma que vol dedicar més temps a l’escriptura, la facilitació, la construcció de comunitat i l’exploració de preguntes essencials. Fins i tot tanca amb un poema —“The Way It Is”, de William Stafford— com a despedida als seus col·legues.

Aquest encreuament de seguretat tècnica i llenguatge existencial reforça la recepció del seu missatge com a advertència moral, no només professional.

Un patró de sortides crítiques en la IA avançada

La dimissió de Sharma no és un cas aïllat dins l’ecosistema d’IA generativa. En els darrers cicles, antics empleats de laboratoris capdavanters han abandonat els seus llocs expressant preocupació per transparència, governança o prioritats estratègiques. Algunes sortides en altres companyies han anat acompanyades de crides a més regulació o a pauses en el desplegament.

El patró comú no és que la tecnologia sigui inviable, sinó que el seu ritme i la seva governança generen inquietud fins i tot entre qui la construeix. Quan perfils de seguretat deixen posicions clau i publiquen advertiments, el mercat i els reguladors tendeixen a escoltar.

El debat de fons: capacitat tècnica vs capacitat moral

La contribució més rellevant de la carta de Sharma no és una dada tècnica nova, sinó una formulació clara del dilema central de la IA avançada: l’asimetria entre capacitat d’acció i capacitat de judici. Els models guanyen poder operatiu —automatitzen, dissenyen, recomanen, executen— a una velocitat superior a la de les institucions, normes i cultures que els han d’encarrilar.

La seva frase sobre el llindar resumeix aquest desfasament. No parla de catàstrofe inevitable, sinó de condició: si la saviesa no escala amb el poder, el risc creix.

Aquest marc connecta amb debats sobre alineament, auditoria independent, avaluació de riscos extrems, controls d’accés a capacitats sensibles i responsabilitat corporativa. També amb educació pública i alfabetització digital: no n’hi ha prou que la tecnologia sigui segura, la societat l’ha d’entendre.

Què deixa obert la seva marxa

Sharma no anuncia retirada del camp de la IA, sinó canvi d’etapa. Indica que continuarà investigant i que busca científics i enginyers motivats per treballar amb ell. Manté mentories externes i col·laboració en programes de formació. El seu missatge final no és d’abandonament de la causa, sinó de replantejament del lloc des d’on contribuir.

La lectura més sòlida de la seva dimissió no és “fugida”, sinó desplaçament de rol: de seguretat interna en laboratori a reflexió i treball més transversal.

En un moment en què la IA entra en infraestructures crítiques, fluxos de treball i decisions sensibles, la seva advertència funciona com a recordatori: la discussió no és només què pot fer la tecnologia, sinó qui decideix com i amb quins límits.

Leave a Reply