Skip to main content

Washington amenaça de tractar Anthropic com a “risc de cadena de subministrament” si no accepta que els seus models s’utilitzin per a qualsevol propòsit legal, fins i tot en armes, intel·ligència i operacions de combat.

La guerra per la intel·ligència artificial ja no es lliura només en benchmarks i rondes de finançament. Es lliura en un terreny més aspre: el de l’Estat i la seguretat nacional. I aquí, una de les empreses més associades a la narrativa d’“IA responsable”, Anthropic, s’enfronta a una pressió directa del Departament de Defensa dels Estats Units: o obre l’ús dels seus models a “tots els fins lícits”, incloent-hi els escenaris més sensibles de l’aparell militar, o s’arrisca a perdre accés al client més exigent —i més influent— del planeta.

La història, avançada per Axios i recollida per Reuters, descriu una escalada que va més enllà d’una simple renegociació contractual. El Pentàgon hauria arribat a plantejar-se trencar la relació amb Anthropic i, en l’extrem, etiquetar-la com a “supply chain risk” (risc per a la cadena de subministrament), una categoria que acostuma a reservar-se per amenaces estratègiques i que, aplicada a un proveïdor, pot obligar contractistes i socis a eliminar la seva tecnologia de sistemes federals.

El que exigeix el Pentàgon: “all lawful purposes” com a estàndard únic

Segons Reuters, el Departament de Defensa pressiona quatre laboratoris punters —Anthropic, OpenAI, Google i xAI— perquè permetin que l’exèrcit utilitzi les seves eines per a “tots els fins lícits”. Aquesta fórmula, aparentment neutral, és un torpede semàntic: obre la porta a usos en desenvolupament d’armes, recopilació d’intel·ligència i operacions al camp de batalla, sempre que el marc legal nord-americà els empari.

Per al Pentàgon, això té lògica operativa. Si un proveïdor limita casos d’ús —encara que sigui amb intenció ètica— introdueix fricció, incertesa i dependència. La defensa vol eines “de propòsit general” amb disponibilitat garantida, especialment quan el discurs estratègic a Washington gira entorn de la competència tecnològica amb la Xina i de la necessitat d’escurçar cicles de decisió. En aquest marc, una IA que funcioni bé però vingui amb “clàusules morals” es percep com un component no fiable.

La postura d’Anthropic: dues línies vermelles, passi el que passi

Anthropic, en canvi, manté límits concrets. Reuters recull la posició de la companyia: el nucli de la discussió amb Defensa se centraria en restriccions estrictes sobre dos àmbits: armes totalment autònomes i vigilància domèstica massiva. Un portaveu va afirmar que l’empresa continua compromesa a donar suport a la seguretat nacional, però no accepta creuar aquestes fronteres.

Wired ho resumeix amb claredat: la companyia no vol que la seva IA s’utilitzi en armament autònom ni en vigilància governamental, i aquestes “excepcions” podrien costar-li un contracte militar important.

Cal entendre l’asimetria del conflicte. Per al Pentàgon, “tots els fins lícits” és una clàusula de normalització: estandarditza l’accés. Per a Anthropic, acceptar aquesta frase equival a renunciar a qualsevol principi operatiu verificable: si tot és lícit, el marge per dir “no” es torna gairebé inexistent. No és un matís jurídic; és el nucli del poder.

El contracte de 200 milions i el problema del “client àncora”

Aquest pols passa, a més, amb diners reals sobre la taula. Anthropic va anunciar el juliol del 2025 que el Departament de Defensa, a través del seu Chief Digital and Artificial Intelligence Office (CDAO), li va adjudicar un acord de prototip de dos anys amb un sostre de 200 milions de dòlars per desenvolupar capacitats d’IA de frontera en suport de la seguretat nacional.

Aquest contracte no és només una xifra: és un senyal de credibilitat. En el mercat de la IA, tenir el Pentàgon com a client funciona com una certificació de robustesa, seguretat i capacitat de desplegament en entorns crítics. Per això l’amenaça de “tallar” a Anthropic és, en termes industrials, una amenaça d’aïllament: no només perdria ingressos, sinó posició.

El detonant polític i operatiu: el cas Veneçuela i l’efecte Palantir

La tensió es va agreujar amb un episodi explosiu: el Wall Street Journal va informar que l’exèrcit dels EUA hauria utilitzat Claude en una operació relacionada amb Veneçuela per capturar Nicolás Maduro, a través de la relació amb Palantir, els sistemes del qual s’integren amb models d’IA. Reuters també va recollir aquesta informació citant el WSJ.

Segons Axios, el Pentàgon considera que les restriccions d’Anthropic entorpeixen la seva llibertat operativa, i l’episodi hauria tensat encara més la relació. En paral·lel, Anthropic manté públicament que qualsevol ús de Claude ha de complir les seves polítiques, i evita confirmar operacions específiques.

Aquí hi ha un punt clau: la capa d’integració. Encara que Anthropic controli la seva política, l’ús militar pot arribar “per tercers” —contractistes i plataformes ja dins l’ecosistema DoD— i el control efectiu es torna difús. Si el client final és Defensa i l’integrador és un contractista dominant, el laboratori d’IA pot descobrir que els seus “guardarraïls” són, a la pràctica, negociables per arquitectura.

Què vol dir “risc de cadena de subministrament” aplicat a una empresa nord-americana?

Axios eleva el dramatisme amb la idea de classificar Anthropic com a “supply chain risk”. Això implicaria, segons el mitjà, que contractistes del Pentàgon podrien veure’s obligats a treure Claude dels seus sistemes.

No és un detall burocràtic. És una eina de poder: converteix un desacord de polítiques en un problema de seguretat nacional i, per tant, en una palanca per disciplinar el proveïdor. Dit clar: si no acceptes les nostres condicions, no només perds un contracte; pots quedar marcat com a proveïdor “problemàtic” per a tot l’ecosistema federal.

La paradoxa: Claude en sistemes classificats, però sense recanvi perfecte

Axios afegeix un altre element que complica l’amenaça: Claude seria, segons el mitjà, l’únic model integrat en sistemes militars classificats, mentre que altres laboratoris haurien relaxat salvaguardes per a usos no classificats però encara no estarien aprovats per al més sensible. Això converteix el conflicte en una negociació amb costos de sortida reals. Si el Pentàgon vol tallar, necessita una transició “ordenada”, amb substitució progressiva i garanties tècniques, com també suggereix Axios.

És a dir: l’amenaça és creïble, però no trivial d’executar. I aquesta fricció tècnica dona a Anthropic marge… tot i que limitat, perquè l’Estat pot tolerar una transició lenta si l’objectiu és establir precedent.

El xoc de fons: qui defineix l’ètica operativa en guerra?

La disputa no és només contractual. És un conflicte de sobirania moral. Els laboratoris d’IA han intentat posicionar-se com a guardians de “seguretat” mitjançant polítiques d’ús, límits a certes capacitats i marcs d’avaluació. L’Estat, quan entra en escena, canvia el tauler: assumeix que la legitimitat la marca la llei i l’autoritat democràtica (o, si més no, la legalitat vigent), no la política corporativa.

Des de la lògica militar, permetre que una empresa privada dicti límits sobre usos “lícits” és inacceptable: externalitza doctrina. Des de la lògica d’una empresa d’IA, acceptar usos irrestrictes en armes o vigilància erosiona la seva identitat, augmenta el risc reputacional i obre exposició a futurs marcs regulatoris o litigis.

Aquesta tensió també reflecteix un fet incòmode: la “IA responsable” és fàcil quan es ven a empreses per a productivitat; es torna explosiva quan entra en targeting, intel·ligència i operació. Aquí, qualsevol ambigüitat es transforma en doctrina.

El que està realment en joc per al sector

  1. El precedent: si el Pentàgon doblega Anthropic, l’estàndard “all lawful purposes” es pot consolidar com a requisit per treballar amb defensa.
  2. La convergència entre IA comercial i militar: la frontera entre eines per a “empresa” i eines per a “guerra” s’esborra quan els models són generalistes i els integradors són els mateixos.
  3. La governança real: les polítiques d’ús dels laboratoris, sense mecanismes tècnics inviolables i sense capacitat d’auditoria independent, poden acabar sent paper mullat en entorns d’alt poder.
  4. La batalla reputacional: als ulls del públic, “IA en guerra” activa reflexos de rebuig; als ulls d’inversors i clients institucionals, també pot ser segell de “seriositat”. Aquesta ambivalència és tòxica i atractiva alhora.

Una conclusió incòmoda: la seguretat no és un eslògan, és una renúncia

La paraula “salvaguardes” sona abstracta fins que implica dir “no” al client més poderós. Anthropic ha intentat dibuixar dues línies vermelles: armes totalment autònomes i vigilància domèstica massiva. El Pentàgon respon amb una fórmula totalitzadora: “tots els fins lícits”.

El xoc revela una cosa estructural: la fase “romàntica” de la IA, on n’hi havia prou de prometre responsabilitat, s’està acabant. En la fase que comença, la responsabilitat es mesura per la capacitat de sostenir límits davant poder polític i pressupost. I això no es resol amb comunicats: es resol amb decisions que costen diners, accés i, potencialment, mercat.

Leave a Reply