Grok Imagine va néixer com la funció visual de l’assistent d’Elon Musk, dissenyada per convertir paraules en imatges. Entre les seves opcions, un “mode Spicy” prometia resultats més atrevits i amb llicència creativa. Però a finals de juliol, reportatges de The Verge i Times of India, basats en proves d’usuaris i anàlisi de captures, van documentar que l’eina generava imatges sexualitzades de la cantant Taylor Swift sense que en les sol·licituds s’inclogués una instrucció explícita per fer-ho. Deep fakes d’alta nitidesa que van encendre la polèmica i van revivar el debat sobre els límits de la IA.
Anatomia d’un escàndol digital
Segons les investigacions, el model va combinar fotografies públiques i patrons visuals apresos durant el seu entrenament per fabricar retrats falsos, realistes i de caràcter sexual. En els exemples analitzats, no hi va haver instruccions directes per a aquest resultat i el sistema va interpretar el context de forma automàtica. El resultat va ser una vulneració directa de la imatge i la privacitat de l’artista i els seus fans van respondre amb crítiques.
La resposta i les esquerdes
L’incident també va revelar un biaix de gènere persistent en el funcionament de molts models generatius. Organitzacions especialitzades van assenyalar que aquest tipus d’IA tendeix a produir amb més freqüència contingut sexual no sol·licitat sobre dones, reflectint patrons presents en les dades d’entrenament i en la cultura digital en la qual s’alimenten. Exemples recents inclouen deep fakes d’actrius com Scarlett Johansson o Gal Gadot, i d’esportistes com Serena Williams, que han circulat sense el seu consentiment. Aquest patró agreuja el risc de violència simbòlica i amplifica estereotips que ja circulen fora de l’entorn tecnològic.
Consentiment en l’era de la IA
L’episodi va reobrir el debat sobre la protecció de figures públiques davant l’ús no autoritzat de la seva imatge. Encara que les fotos de celebritats estan disponibles a la xarxa, transformar-les en material sexualitzat sense la seva aprovació planteja un buit legal i ètic. Organitzacions de drets digitals van advertir que aquest tipus de contingut constitueix una forma de violència digital, amb impacte emocional i reputacional.
Un problema que no és aïllat
El que va passar amb Grok Imagine és un reflex d’una tendència més àmplia, sistemes generatius que, sense controls suficients, produeixen contingut sexual no sol·licitat. Casos similars en altres plataformes han impulsat propostes legislatives específiques, però la seva aplicació i abast continuen sent irregulars en la majoria dels països.
Obre un parèntesi en les teves rutines. Subscriu-te al nostre butlletí i posa’t al dia en tecnologia, IA i mitjans de comunicació.