Vuit hores a l’estrada, un jutge alertant sobre gravacions amb ulleres intel·ligents i una pregunta de fons: si el “disseny” d’Instagram i YouTube pot considerar-se responsable de danys reals en la salut mental de joves.
Mark Zuckerberg va entrar en un jutjat del centre de Los Angeles com ho faria qualsevol testimoni clau en un procés d’alt voltatge —vestit formal, gest contingut, pressa mesurada— excepte per un detall que va concentrar mirades i simbolisme: anava flanquejat per un petit seguici aparentment equipat amb les ulleres intel·ligents Ray-Ban de Meta. No era un element anecdòtic, sinó un recordatori físic de l’era que es jutja: plataformes socials acusades de modelar conductes i, alhora, dispositius que amplien la captura del quotidià. A l’exterior, pares que atribueixen a les xarxes socials part del patiment que van viure els seus fills observaven el pas cap a la sala. A dins, l’escena es va convertir en un examen públic de la tesi que recorre centenars de litigis: no es tracta només de continguts, sinó d’arquitectura de producte.
El cas, conegut per les inicials de la demandant (K.G.M., una dona de 20 anys), enfronta Meta i Google per presumptes decisions de disseny que haurien incentivat un ús compulsiu des d’edats primerenques i agreujat problemes de salut mental. L’acusació sosté que els mecanismes d’enganxament —notificacions, bucles de consum, recomanacions, fricció mínima per continuar— es van construir amb coneixement dels seus efectes en menors. Les companyies ho rebutgen i al·leguen que els danys no poden atribuir-se linealment als seus productes, subratllant també factors personals i familiars en la història de la demandant.
Un judici que vol perforar l’escut legal de les plataformes
Aquest procés s’ha presentat com a “històric” per una raó pràctica: si un jurat conclou que el disseny de les aplicacions —i no el contingut publicat per tercers— pot generar responsabilitat civil, s’obre una via diferent de la que tradicionalment ha protegit les plataformes als Estats Units. Reuters emmarca l’inici del judici com una prova directa de si Big Tech pot ser considerada responsable per com “construeix” el producte, no només pel que allotja. És un matís jurídic amb conseqüències industrials: obliga a debatre què és exactament un “dany” atribuïble a la interfície, als patrons de recomanació, a la gamificació i a l’economia de l’atenció.
En l’obertura del cas, l’advocat principal de la demandant, Mark Lanier, va plantejar davant el jurat una tesi contundent: que existien indicis interns que les empreses coneixien el potencial addictiu del disseny per a cervells joves. Meta, per la seva banda, va defensar que l’historial clínic i el context personal eren determinants i que l’atribució causal a les aplicacions és, com a mínim, discutible. Aquesta pugna —causalitat versus correlació, responsabilitat del disseny versus complexitat de factors— és el cor del judici.
Vuit hores de testimoni: el CEO com a testimoni del “disseny”
Zuckerberg va romandre prop de vuit hores declarant, amb un estil descrit com a sobri i literal, intentant matisar com es debatien internament decisions de seguretat. Segons el relat de la jornada, Lanier —litigador conegut per la seva oratòria— va contrastar amb un Zuckerberg que va intentar reencuadrar preguntes que li atribuïen intencions explícites. En un moment determinat, davant una interpretació de l’interrogatori, va arribar a replicar: “Això no és el que estic dient en absolut”, segons va recollir NPR en la cobertura citada.
Més enllà del to, el contingut era rellevant pel que representa: quan un CEO declara sobre decisions de producte, el judici deixa de ser abstracte. Es converteix en una auditoria humana sobre per què una empresa decideix mantenir una funció, com avalua riscos, què prioritza quan hi ha tensió entre creixement i seguretat, i què entén per “mitigació” davant possibles danys.
Filtres de bellesa: una discussió de “seguretat” que no sempre sembla seguretat
Entre els punts que van aflorar hi havia decisions sobre eines concretes, com determinats filtres estètics a Instagram. El debat al voltant d’aquests filtres té un component tècnic —són efectes visuals— però sobretot social: què fan a la percepció corporal, com es consumeixen massivament, quin impacte tenen en usuaris joves i si han de tractar-se com un risc de salut digital.
La rellevància que aquesta qüestió aparegui en un judici és doble. Primer, perquè mostra que la seguretat ja no s’entén només com “evitar delictes” o “retirar contingut”, sinó com gestionar impactes psicològics de funcions aparentment innocents. Segon, perquè introdueix una pregunta incòmoda: si una funció genera engagement i alhora pot reforçar inseguretats, què pesa més i com es decideix?
Un jutge adverteix sobre les Ray-Ban: la tecnologia entra a la sala… i el tribunal frena
La imatge del seguici amb ulleres Ray-Ban no va ser només estètica. A la sala, el jutge va advertir que no es podien portar aquestes ulleres i que qualsevol gravació havia d’eliminar-se, amb la possibilitat de conseqüències per desacatament si no es complia. L’escena aporta una capa gairebé irònica: es debat sobre danys atribuïts a productes digitals mentre un accessori amb capacitat de gravació i IA amenaça de convertir el judici en contingut capturat sense control.
En termes simbòlics, és potent. El tribunal intenta protegir la integritat del procés limitant la captura tecnològica. Les plataformes, en canvi, han crescut optimitzant la captura d’atenció i l’amplificació.
De l’“ús excessiu” a la responsabilitat del disseny: per què aquest cas importa
El litigi no es limita a un relat individual. Reuters apunta que un veredicte advers podria obrir la porta a milers de demandes similars. Això explica l’interès: no és només un cas reputacional, sinó un precedent potencial.
Per a Meta i Google, el risc no és només econòmic. És també de model operatiu: que el “disseny persuasiu” passi a considerar-se un front legal equiparable a negligències o fallades de seguretat. Per a reguladors i legisladors, un judici així funciona com un laboratori de fets: obliga a exposar documents, discussions internes i criteris de decisió.
I per a l’ecosistema d’IA aplicada a xarxes —recomanació avançada, edició automàtica, filtres generatius— l’impacte pot ser indirecte però real: com més autònom i optimitzat sigui el sistema per retenir usuaris, més pressió hi haurà per demostrar controls i límits mesurables.