La startup d’IA demanda el Govern dels Estats Units després de ser catalogada com a “risc per a la cadena de subministrament” per negar-se a permetre que Claude s’utilitzi en armes autònomes i vigilància massiva.
El conflicte entre la indústria de la intel·ligència artificial i el poder polític nord-americà ha entrat en una fase inèdita. Anthropic, l’empresa darrere del model d’IA Claude, ha presentat una demanda contra el Govern dels Estats Units per impedir que la seva tecnologia sigui inclosa a la llista negra de l’administració liderada per Donald Trump. La decisió obre un enfrontament judicial que no només afecta una companyia tecnològica concreta, sinó que posa damunt la taula un debat molt més ampli: qui defineix els límits ètics de la intel·ligència artificial quan entren en joc interessos militars, seguretat nacional i poder polític.
L’acció legal presentada per Anthropic busca revertir la designació oficial que l’administració nord-americana ha imposat sobre l’empresa en qualificar-la com un “risc per a la cadena de subministrament”. Aquest tipus de classificació té conseqüències immediates: obliga totes les agències federals a deixar d’utilitzar la tecnologia afectada i dificulta que qualsevol empresa amb contractes governamentals pugui continuar treballant amb ella. En la pràctica, es tracta d’una sanció amb un impacte enorme en l’ecosistema tecnològic dels Estats Units, especialment quan la companyia assenyalada és una de les principals desenvolupadores de models avançats d’intel·ligència artificial.
La demanda presentada davant un tribunal federal de Califòrnia apunta directament a diversos dels organismes clau del govern nord-americà, inclosos els Departaments d’Estat, de Defensa, de Comerç i la NASA, així com funcionaris d’alt nivell vinculats a l’actual administració. L’empresa considera que la mesura constitueix un càstig polític sense precedents per haver mantingut determinades posicions ètiques sobre l’ús de la seva tecnologia.
En el text judicial, els advocats d’Anthropic sostenen que l’actuació del Govern vulnera principis bàsics de la Constitució nord-americana. “La Constitució no permet que un govern utilitzi el seu enorme poder per castigar una empresa pel seu discurs protegit”, argumenta la companyia en la demanda. Amb aquesta formulació, la startup intenta traslladar el conflicte del terreny tecnològic al constitucional: el que està en joc, sosté, no és només la relació entre una empresa i l’Estat, sinó la possibilitat que el poder polític sancioni una companyia per negar-se a modificar les seves polítiques d’ús.
L’origen de l’enfrontament entre Anthropic i la Casa Blanca es remunta a les tensions sorgides entorn de l’ús militar de la intel·ligència artificial. Segons diverses informacions publicades en mitjans especialitzats, el Pentàgon hauria sol·licitat a la companyia que eliminés certes restriccions imposades al model Claude per permetre la seva aplicació en projectes de vigilància massiva i en sistemes d’armament autònom. La resposta d’Anthropic va ser negativa.
L’empresa fundada pels germans Dario i Daniela Amodei manté des dels seus inicis una política d’ús relativament restrictiva en comparació amb altres desenvolupadors d’IA. Entre les limitacions més clares hi figura la prohibició d’utilitzar Claude per a dos àmbits especialment sensibles: el desenvolupament d’armes autònomes letals i el desplegament de sistemes de vigilància massiva sobre ciutadans nord-americans.
En la documentació presentada davant el tribunal, la companyia insisteix que aquestes restriccions no responen únicament a una postura ideològica, sinó també a una avaluació tècnica dels riscos associats al funcionament dels sistemes d’intel·ligència artificial actuals. Segons Anthropic, Claude encara no pot considerar-se prou fiable per operar en escenaris on un error pugui tenir conseqüències letals o afectar greument drets fonamentals.
El document judicial ho expressa de manera explícita. L’empresa sosté que la seva política d’ús sempre ha establert que Claude no s’ha d’utilitzar per a “guerra autònoma letal ni vigilància massiva de ciutadans nord-americans”. A més, subratlla que el sistema no ha estat provat en aquests contextos i que la pròpia companyia no confia en la seva fiabilitat en situacions en què decisions automatitzades puguin derivar en conseqüències irreversibles.
Aquesta postura reflecteix un dels debats més intensos dins del desenvolupament contemporani de la intel·ligència artificial: fins a quin punt les empreses tecnològiques han de permetre que els seus models s’integrin en sistemes militars o de seguretat nacional. Mentre algunes companyies consideren inevitable aquesta col·laboració amb els governs, d’altres intenten establir límits que evitin determinats usos de les seves eines.
Anthropic pertany clarament a aquest segon grup. Des de la seva creació el 2021, l’empresa ha defensat la necessitat de desenvolupar sistemes d’intel·ligència artificial alineats amb principis de seguretat i responsabilitat. En aquest sentit, el conflicte amb l’administració Trump representa una prova de foc per a aquest posicionament.
Segons la versió de la companyia, les relacions amb el Govern nord-americà no sempre van ser conflictives. De fet, Anthropic afirma haver col·laborat durant anys amb diverses agències federals per desenvolupar versions de Claude adaptades a necessitats específiques del sector públic. Fins i tot assenyala que la seva tecnologia va ser autoritzada per accedir a determinats sistemes d’arxius confidencials dins de l’àmbit governamental.
El deteriorament de la relació s’hauria produït quan el Pentàgon va sol·licitar eliminar les restriccions sobre l’ús militar de Claude. Inicialment, segons l’empresa, el Departament de Defensa va acceptar les limitacions establertes per la política d’ús. No obstant això, amb el temps hauria començat a pressionar per ampliar-les sota la fórmula de permetre “qualsevol ús legal”.
La negativa d’Anthropic a modificar les seves condicions va marcar el punt de ruptura. A partir d’aquell moment, l’enfrontament es va traslladar progressivament al terreny polític i mediàtic. Funcionaris pròxims a l’administració Trump van començar a criticar públicament la companyia, acusant-la d’adoptar posicions ideològiques contràries als interessos de l’Estat.
El conflicte es va intensificar encara més quan el Govern dels Estats Units va utilitzar Claude en una operació relacionada amb la detenció del president veneçolà Nicolás Maduro. Quan Anthropic va expressar públicament el seu malestar amb aquest ús, l’enfrontament entre ambdues parts es va fer visible i el to de les declaracions es va endurir.
Des de la Casa Blanca, alguns funcionaris van qualificar l’empresa com una companyia “woke” o d’“esquerra radical”. Les crítiques també es van dirigir personalment contra el seu director executiu, Dario Amodei, a qui van acusar d’actuar com si tingués un “complex de déu”.
La resposta des de la companyia tampoc va ser conciliadora. En un memoràndum intern filtrat a la premsa, Amodei va assenyalar que la relació amb el Pentàgon s’havia deteriorat perquè l’empresa es negava a “rendir pleitesia a Trump com si fos un dictador”. Aquest intercanvi d’acusacions reflecteix el nivell de tensió que ha assolit el conflicte.
L’impacte potencial de la decisió governamental sobre Anthropic és considerable. Si la designació com a risc per a la cadena de subministrament es manté, les agències federals hauran de deixar d’utilitzar Claude immediatament. A més, les empreses privades que tinguin contractes amb el govern podrien veure’s obligades a abandonar aquesta tecnologia en els seus projectes relacionats amb el sector públic.
La companyia sosté que la situació és menys restrictiva del que afirma l’administració. Segons la seva interpretació, les empreses contractistes encara podrien utilitzar Claude en projectes que no estiguin vinculats directament amb el Pentàgon o amb programes federals específics. Tanmateix, el simple fet d’aparèixer en una llista negra governamental podria tenir efectes reputacionals i comercials molt significatius.
Per aquest motiu, la demanda presentada per Anthropic busca una intervenció ràpida de la justícia federal. L’empresa sol·licita que el tribunal reverteixi la designació imposada pel govern i en prohibeixi l’aplicació mentre es resol el litigi. De moment, no s’ha fet públic el calendari que seguirà el procés judicial ni quina podria ser l’estratègia de defensa de l’administració Trump.
Més enllà del seu desenllaç, el cas planteja qüestions de gran rellevància per al futur de la intel·ligència artificial. En primer lloc, obre un debat sobre el grau d’autonomia que han de tenir les empreses tecnològiques per decidir com s’utilitza la seva tecnologia. En segon lloc, qüestiona fins a quin punt el poder polític pot intervenir per imposar determinades condicions d’ús quan considera que estan en joc interessos de seguretat nacional.
També introdueix un element addicional en la creixent tensió entre Silicon Valley i Washington. Durant els darrers anys, el desenvolupament de la intel·ligència artificial s’ha convertit en un assumpte estratègic per als Estats Units, tant en termes econòmics com geopolítics. L’administració federal vol garantir que les tecnologies clau estiguin disponibles per al sector militar i de seguretat. Però les empreses que les desenvolupen no sempre comparteixen la mateixa visió sobre les seves possibles aplicacions.
El cas d’Anthropic il·lustra aquesta fractura amb especial claredat. A diferència d’altres companyies que han optat per col·laborar estretament amb el Departament de Defensa, l’empresa ha intentat mantenir una línia més prudent respecte a l’ús militar de la IA. Aquesta postura li ha permès construir una imatge d’empresa centrada en la seguretat i l’ètica de la intel·ligència artificial, però també l’ha situat en una posició incòmoda davant d’un govern decidit a ampliar les capacitats tecnològiques de l’aparell estatal.
En última instància, l’enfrontament entre Anthropic i la Casa Blanca no és només un conflicte legal. És també una batalla simbòlica sobre el futur de la intel·ligència artificial. D’una banda, representa la visió d’un Estat que considera aquestes tecnologies eines estratègiques que han d’estar disponibles per a la seva defensa i seguretat. De l’altra, reflecteix la postura d’una empresa que intenta establir límits sobre com poden utilitzar-se els seus propis sistemes.
El resultat del procés judicial podria tenir conseqüències que vagin molt més enllà de Claude. Si els tribunals donen suport a la posició d’Anthropic, es reforçarà la idea que les empreses tecnològiques tenen dret a fixar restriccions sobre l’ús de les seves eines, fins i tot quan el govern vol utilitzar-les en àmbits sensibles. Si, per contra, l’administració aconsegueix mantenir la designació de risc per a la cadena de subministrament, podria obrir-se la porta a un control polític més gran sobre el desenvolupament i desplegament de la intel·ligència artificial als Estats Units.
En qualsevol cas, el litigi confirma que la IA ja no és únicament una qüestió tecnològica o empresarial. És també un terreny de disputa política, jurídica i estratègica. I en aquesta nova fase del sector, les decisions sobre com i per a què s’utilitza la intel·ligència artificial comencen a dirimir-se no només en laboratoris o centres de dades, sinó també als tribunals.