Skip to main content

Anthropic traça una línia vermella en la IA conversacional: la publicitat no té cabuda en un diàleg que aspira a ser fiable, íntim i alineat amb l’usuari.

En un moment en què la monetització s’ha convertit en l’eix central de gairebé totes les plataformes digitals, Anthropic ha decidit nedar a contracorrent. L’empresa liderada per Dario Amodei va anunciar públicament que Claude, el seu assistent d’intel·ligència artificial, no incorporarà anuncis, enllaços patrocinats ni continguts promocionats en les converses amb els usuaris. La decisió, comunicada al blog oficial de la companyia, no és un matís tècnic ni una promesa condicional: és una postura estratègica que busca diferenciar-se de models de negoci ja normalitzats al sector, especialment després de l’obertura de la porta publicitària a ChatGPT i altres assistents.

«Hi ha molts bons llocs per a la publicitat. Una conversa amb Claude no n’és un», resumeix el text d’Anthropic amb una claredat poc habitual en una indústria que acostuma a deixar obertes les opcions de monetització futura. El missatge no és només una crítica implícita a la competència, sinó una declaració de principis sobre quin tipus de relació vol establir una IA conversacional amb els seus usuaris.

No és una croada contra la publicitat

Anthropic es cuida de subratllar que la seva decisió no és un atac a la indústria del màrqueting ni a la publicitat en si mateixa. La companyia reconeix haver realitzat campanyes pròpies i haver vist com Claude s’utilitza en agències i departaments creatius. El problema, sostenen, no és la publicitat com a eina econòmica, sinó el lloc on s’introdueix.

Per a Anthropic, l’espai conversacional d’una IA generalista no és equiparable a un feed de xarxa social o a una pàgina web. En plataformes com Instagram o TikTok —assenyalen— l’usuari ja assumeix que una part substancial del contingut està mediada per interessos comercials, fins i tot quan aquests no es presenten de manera explícita. En canvi, una conversa amb un assistent d’IA es percep com un entorn d’ajuda directa, sovint associat a tasques personals, professionals o fins i tot emocionals.

Introduir anuncis en aquest context, argumenta l’empresa, trenca el contracte psicològic entre usuari i sistema.

Incentius sota sospita

El nucli de la postura d’Anthropic no és només l’experiència de l’usuari, sinó els incentius interns que la publicitat introdueix en el desenvolupament de models de llenguatge. Si els ingressos depenen d’anunciants, què garanteix que les respostes de la IA no acabin prioritzant determinats productes, marques o narratives?

«Volem que Claude actuï inequívocament en benefici dels nostres usuaris», explica la companyia. Per això, es compromet que les respostes no estaran influenciades per tercers ni inclouran recomanacions patrocinades que l’usuari no hagi sol·licitat de manera explícita. Tampoc apareixeran enllaços promocionats al costat dels xats, ni formats publicitaris “aïllats” que, encara que no alterin les respostes, puguin condicionar el disseny del producte.

Aquest últim punt és clau. Anthropic adverteix d’un risc menys evident: fins i tot si la publicitat no afecta directament el contingut generat, sí que pot reorientar l’evolució del sistema. Optimitzar l’engagement per maximitzar impressions o clics és un incentiu poderós que ja ha modelat el funcionament de les xarxes socials i les plataformes de vídeo. Traslladar aquesta lògica a un assistent conversacional podria empènyer la IA a ser més addictiva, més complaent o més persuasiva emocionalment, en detriment de la seva fiabilitat i neutralitat.

Converses sensibles en joc

Un altre argument central té a veure amb la naturalesa de les converses que els usuaris mantenen amb Claude. A diferència d’un cercador o una xarxa social, els xats amb una IA solen incloure dades personals, informació laboral confidencial, dubtes mèdics, inquietuds emocionals o decisions estratègiques d’empresa.

En aquest context, permetre que la publicitat “contamini” l’espai conversacional introdueix una ambigüitat perillosa: l’usuari podria preguntar-se si la resposta que rep l’ajuda realment o si respon, encara que sigui de manera subtil, a un objectiu comercial. Per a Anthropic, aquest dubte erosiona la confiança, un actiu crític quan es tracta de sistemes que aspiren a convertir-se en copilot cognitius del dia a dia.

Una línia divisòria al sector

La postura d’Anthropic converteix l’empresa en el primer gran actor de la IA generativa que rebutja de manera explícita i pública la inclusió d’anuncis en el seu chatbot. Amb això, no només es distancia de ChatGPT, sinó també d’altres assistents generalistes com Gemini, on s’espera que Google explori formats patrocinats aprofitant la seva històrica experiència publicitària.

El contrast no és menor. Mentre alguns models aposten per un esquema freemium finançat parcialment amb anuncis, Anthropic reforça una via alternativa basada en subscripcions i contractes empresarials, assumint que renunciar a la publicitat implica renunciar també a una font potencialment massiva d’ingressos.

Idealisme o estratègia a llarg termini?

La pregunta inevitable és si aquesta decisió respon a un idealisme ètic o a una estratègia competitiva de llarg recorregut. Probablement, a totes dues coses. En un mercat cada vegada més saturat d’assistents, diferenciar-se per principis clars pot ser tan valuós com afegir noves capacitats tècniques.

A més, la decisió encaixa amb la filosofia més àmplia d’Anthropic al voltant de l’alineació i la seguretat: minimitzar conflictes d’interès, reduir incentius perversos i reforçar la percepció que el model treballa per a l’usuari, no per a tercers invisibles.

Tanmateix, el compromís també amaga riscos. Mantenir models avançats sense recórrer a la publicitat exigeix ingressos sostinguts per altres vies i una disciplina financera que no totes les startups poden permetre’s. Anthropic sembla confiar que la confiança i la claredat de propòsit acabin sent un avantatge competitiu suficient.

Un senyal primerenc de com serà la IA quotidiana

Més enllà de la rivalitat amb ChatGPT, l’anunci d’Anthropic anticipa un debat més profund: quin tipus d’espais volem que ocupin les IA en la nostra vida quotidiana. Si es converteixen en intermediaris constants —per escriure, decidir, aprendre o fins i tot desfogar-nos—, la presència d’incentius comercials directes pot alterar radicalment el seu paper social.

En dir “no” als anuncis, Claude no només evita bàners o enllaços patrocinats. Marca una posició sobre el futur de la IA conversacional: menys semblant a una xarxa social optimitzada per monetitzar l’atenció i més propera a una eina de confiança, el valor de la qual depèn de mantenir intacta la relació amb qui la utilitza.

Leave a Reply