Washington converteix una disputa sobre “línies vermelles” en un avís a tota la indústria: en defensa, el Govern vol decidir els límits, no les empreses.
L’administració Trump ha decidit convertir un desacord de polítiques d’ús en un moviment d’alt voltatge institucional: ordenar a les agències federals i als contractistes que treballen amb l’Exèrcit que cessin negocis amb Anthropic, la companyia darrere de Claude. El detonant és la negativa d’Anthropic a acceptar que el Pentàgon pugui usar la seva tecnologia “per a tots els fins lícits”, sense excepcions, fins i tot en àmbits tan sensibles com armes autònomes letals i vigilància domèstica massiva. La resposta de la Casa Blanca, però, va molt més enllà de rescindir un contracte: obre la porta a un bloqueig sistèmic amb efectes en cascada sobre proveïdors, integradors i clients corporatius.
Donald Trump va anunciar a Truth Social un termini de sis mesos perquè el Departament de Defensa i altres agències retirin productes d’Anthropic dels seus sistemes. Poc després, el secretari de Defensa, Pete Hegseth, va elevar el to afirmant que Anthropic serà considerada un “supply chain risk” (“risc de cadena de subministrament”), una etiqueta que sovint s’associa a companyies percebudes com a extensions d’adversaris estrangers. No es tracta només de deixar de comprar: la fórmula implica una lògica de quarantena, en què els contractistes han de demostrar que el seu treball amb el Pentàgon no toca —ni indirectament— tecnologia de l’empresa assenyalada.
Una setmana que canvia el guió de la IA en defensa
La decisió culmina un pols accelerat en qüestió de dies. El punt de fricció era una clàusula exigida per Defensa als grans laboratoris: permetre l’ús de la IA per a “all lawful purposes” (“tots els usos lícits”). Sobre el paper, sembla una fórmula administrativa. A la pràctica, és una doctrina: el Pentàgon rebutja que un proveïdor es reservi el dret de desactivar guardarrails en situacions crítiques o de limitar categories d’ús.
Anthropic, en canvi, ha mantingut dues línies vermelles: no autoritzar que Claude s’utilitzi per a armes plenament autònomes i no autoritzar el seu ús per a vigilància domèstica massiva de ciutadans nord-americans. La companyia insisteix que aquests límits no són simbòlics, sinó un llindar estructural que separa seguretat nacional de “panòptic”, i assegura que mai no ha intentat vetar operacions militars concretes, sinó mantenir prohibicions estretes però permanents.
La cronologia mostra com es va precipitar el xoc. Després d’una reunió d’alt nivell al Pentàgon entre Hegseth i el CEO d’Anthropic, Dario Amodei, Anthropic va reafirmar públicament que no cediria a la demanda d’ús sense restriccions. Trump va respondre acusant l’empresa d’intentar “forçar” el Pentàgon i va ordenar la retirada immediata, mentre la General Services Administration (GSA) començava a treure Anthropic dels canals federals de prova i adopció d’eines d’IA. El tancament es va endurir amb la instrucció que cap contractista o soci que treballi amb l’exèrcit podrà mantenir relacions comercials amb Anthropic. El desacord deixa de ser bilateral i es converteix en una prohibició transversal que afecta tot l’ecosistema de proveïdors del complex federal de defensa.
El context que pesa: Claude ja era dins d’entorns classificats
El cas és especialment delicat perquè Claude no era en fase pilot: diversos mitjans indiquen que Claude va ser el primer model d’IA a operar en xarxes classificades de l’Exèrcit, i que Anthropic tenia un contracte amb Defensa de fins a 200 milions de dòlars signat l’estiu passat. L’acord funcionava com a credencial industrial: entrar en entorns classificats és una “prova de foc” de robustesa, seguretat i governança.
Aquí apareix la paradoxa: dins del mateix Departament de Defensa s’admetia que Claude agradava i que les restriccions d’Anthropic no havien estat un problema operatiu diari. Però el Pentàgon argumenta que el problema no és el dia a dia, sinó l’excepcionalitat: no vol trobar-se en una crisi de seguretat nacional obligat a demanar a una empresa que aixequi restriccions. En la seva visió, la legalitat i la responsabilitat són de l’usuari final, no del proveïdor.
Anthropic promet batalla judicial i denuncia un precedent “perillós”
Anthropic ha reaccionat amb duresa. Afirma que la designació seria jurídicament insostenible i que establiria un precedent perillós per a qualsevol companyia nord-americana que negociï amb el govern. També ha deixat clar que, si es formalitza l’etiqueta de “supply chain risk”, la impugnarà als tribunals. L’empresa intenta emmarcar l’episodi com un ús extrem de palanques estatals per castigar una postura de seguretat: no com una disputa comercial, sinó com un xoc sobre límits democràtics.
L’administració també assumeix costos: migració i recertificació
Tot i que el cop es presenta com una mesura disciplinària, el Pentàgon també es complica la vida. Substituir un model integrat en sistemes interns no és un canvi d’interfície: implica migració de fluxos, revisió de dependències, potencial recertificació i risc de discontinuïtat. El termini de sis mesos és, en la pràctica, un reconeixement d’aquesta fricció tècnica i burocràtica.
A més, hi ha la qüestió de rendiment. Alguns relats apunten que alternatives com Grok podrien estar disposades a operar en entorns classificats, però no se les percep al nivell de Claude, cosa que obliga a triar entre imposar doctrina o preservar la millor capacitat disponible.
El fons real: la IA deixa de ser producte i passa a ser infraestructura de poder
Aquest episodi és un símptoma d’un canvi d’etapa. Quan la IA és consum, el debat gira sobre utilitat i preu. Quan entra en xarxes classificades, adquisicions públiques i cadenes de subministrament, el debat gira sobre sobirania operativa. La clàusula “tots els usos lícits” no és una frase legalista: és un intent de fixar un estàndard per a la pròxima dècada, quan els models no seran accessoris, sinó peces de decisió, anàlisi i coordinació.
La indústria entén que això no va només d’Anthropic. Per això han aparegut suports públics i reaccions creuades: si un laboratori que es ven com a “safety-first” és penalitzat per sostenir límits, la resta haurà d’escollir entre adaptar-se a l’estàndard del govern o construir una estratègia legal i reputacional per mantenir línies vermelles sense quedar fora de joc.
Un tancament amb implicacions globals
La paradoxa final és política: la Casa Blanca descriu la competència amb la Xina com una cursa estratègica comparable a una gran pugna tecnològica del segle XX, però alhora està disposada a arraconar un proveïdor domèstic punter per imposar un principi de control. Si el precedent prospera, la pregunta ja no serà “quin model és millor”, sinó “quin model està autoritzat” i “sota quina doctrina”. I aquesta és la frontera on la IA deixa de ser mercat i passa a ser Estat.