Un grup de senadors nord-americans ha activat l’alarma institucional davant un problema que s’ha multiplicat en els últims mesos, la circulació massiva d’imatges sexualitzades generades per intel·ligència artificial sense consentiment. La carta, enviada a les direccions executives de X (abans Twitter), Meta, Alphabet (Google), Reddit, TikTok i Snap, exigeix claredat i acció.
Les plataformes sota la lupa
Els legisladors demanen que les empreses demostrin l’existència de proteccions eficaces contra els anomenats «deepfakes sexuals». També els exigeixen que conservin tots els documents relacionats amb la detecció, moderació i possible monetització d’aquest tipus d’imatges. La carta va ser signada per vuit senadors demòcrates, entre ells Lisa Blunt Rochester, Tammy Baldwin i Adam Schiff. El document va més enllà d’una reprimenda, sol·licita definicions internes sobre termes com «contingut íntim no consensuat» i exigeix detalls sobre eines tècniques per eliminar aquestes imatges i evitar la seva circulació posterior.
L’espurna: Grok i la IA generativa
Bona part del focus recent està posat en Grok, el xatbot desenvolupat per xAI i integrat en X. Investigacions periodístiques van revelar que usuaris han aconseguit generar milers d’imatges sexualitzades a partir de retrats reals, incloses fotos de dones i menors. Encara que l’empresa ha limitat certes funcions i promet més controls, els senadors qüestionen l’eficàcia real d’aquestes mesures. X no és l’única assenyalada. La carta menciona antecedents en Reddit, TikTok i Telegram, on comunitats senceres s’han organitzat per generar o compartir imatges manipulades. Les plataformes asseguren tenir polítiques contra aquests usos, però la seva aplicació resulta irregular.
Una tendència amb història
Els deepfakes sexuals no són nous. Des de 2017 circulen vídeos falsos de celebritats, i amb la popularització d’eines accessibles d’IA, el fenomen s’ha expandit a persones anònimes. Bots capaços de «desvestir» fotografies o simular escenes íntimes són ara accessibles sense barreres tècniques ni ètiques. El dany és difícil de revertir, una vegada a la xarxa, aquestes imatges solen replicar-se en múltiples canals abans que les plataformes puguin intervenir. Les víctimes enfronten un procés lent i desigual per aconseguir l’eliminació del contingut.
Entre lleis vigents i buits pendents
L’acció senatorial es produeix en paral·lel a l’aprovació de lleis com el Take It Down Act, que obliga les plataformes a retirar imatges íntimes no consentides sota certes condicions. També està en tràmit la DEFIANCE Act, que permetria a les víctimes demandar a qui generi deepfakes sexuals. Aquestes iniciatives reflecteixen una tensió no resolta entre l’avanç tècnic i els límits legals. Mentre la IA generativa s’expandeix, les proteccions per a qui pateix els seus usos abusius segueixen en construcció.
Què està en joc
La carta dels senadors no només exigeix explicacions. Posa a prova la voluntat real de les grans plataformes per enfrontar els danys col·laterals de la intel·ligència artificial. Les respostes que donin –o el seu silenci– podrien accelerar nous marcs regulatoris o augmentar la pressió pública sobre les seves pràctiques internes. La tecnologia corre, però les víctimes no haurien de quedar enrere.
Obre un parèntesi en les teves rutines. Subscriu-te al nostre butlletí i posa’t al dia en tecnologia, IA i mitjans de comunicació.