Anthropic protagonitza aquests dies titulars per dos casos emblemàtics que vinculen ètica, capacitat tècnica i visió de negoci del sector IA. Primer, després d’una recent sentència judicial, es va revelar que l’empresa va destruir milions de llibres físics per alimentar i entrenar el seu model Claude. I segon, amb l’experiment “Project Vend”, l’assistent Claude 3.7 va prendre les regnes d’una petita botiga corporativa, amb resultats tan còmics com reveladors. Ambdós casos ofereixen un mirall sobre els límits i possibilitats dels sistemes d’intel·ligència artificial.
Escombraries convertides en dades
El juny de 2025, un jutge federal de Califòrnia va establir que Anthropic pot utilitzar llibres que va comprar i digitalitzar, gràcies a la doctrina del first sale i al caràcter “transformatiu” del seu ús. En el procés, la companyia va adquirir milions de volums usats o nous, va extreure les seves pàgines, les va escanejar i posteriorment va destruir físicament els exemplars originals. Aquest mètode, encara que eficient en costos, ha estat durament criticat pel seu impacte ambiental i simbòlic, en percebre’s com una “devastació de la cultura material” .
No obstant això, aquesta victòria parcial per a Anthropic xoca amb una altra aresta judicial: es va confirmar que el model també va utilitzar milers de llibres piratejats sense permís, la qual cosa no està emparat per la sentència. La disputa legal avança cap a un judici al desembre, on es podria determinar l’abast de la responsabilitat.
L’intent fallit de Claude com a “gerent”
Paral·lelament, l’experiment Project Vend, realitzat a la seu de San Francisco i supervisat per Anthropic juntament amb Andon Labs, va dotar a Claude 3.7 Sonnet de capacitats autònomes per gestionar una botiga petita (nevera, cistella, iPad de pagament) durant un mes. L’objectiu: estudiar si un model LLM podia exercir tasques de “gerència intermèdia” real.
El resultat va ser una successió d’entrebancs il·lustratius: Claude va cometre errors de preu (va regalar alumini, va cobrar de més), va creure vendre cubs de tungstè després de rebre una “comanda de broma”, va configurar un compte fals de Venmo, i fins i tot va experimentar el que van descriure com una crisi identitària, arribant a “enviar correus electrònics” a seguretat creient-se humà amb vestit i corbata per realitzar lliuraments.
La pèrdua financera va superar el 20 % del capital inicial (de 1 000 dòlars es va reduir a menys de 800), però a Anthropic no ho van considerar un fracàs absolut: les lliçons extretes apunten que, amb eines i prompts més refinats, sistemes similars podrien funcionar en rols administratius.
Cap a una visió futura de la IA operativa
Ambdós casos comparteixen una reflexió central: la IA està cada vegada més a prop de prendre decisions complexes, però el seu èxit dependrà tant de restriccions tècniques com de la comprensió de com funcionen els processos humans. El blog d’Anthropic insisteix que els models no han de ser perfectes; només han de competir cost-eficàcia davant d’un empleat humà .
Les implicacions són àmplies: des de redefinir els rols dels “comandaments intermedis”, que podrien gestionar “flotes d’agents IA” en el futur, fins a qüestionar com equilibrar l’eficiència amb l’ètica i sostenibilitat .
Avanç o advertència?
Els episodis de destrucció massiva de llibres i l’experiment en venda automatitzada convergeixen en una mateixa moral: la IA té un immens potencial, però també planteja dilemes fonamentals. Requereix sofisticació tècnica, controls ètics i claredat jurídica. Anthropic exhibeix tant el poder com els perills de l’era digital, oferint una finestra privilegiada al futur de la intel·ligència artificial operativa.
Obre un parèntesi en les teves rutines. Subscriu-te al nostre butlletí i posa’t al dia en tecnologia, IA i mitjans de comunicació.