Skip to main content

Grok va passar de ser una curiositat més dins l’ecosistema de la intel·ligència artificial a convertir-se en una font de preocupació internacional. El xatbot, creat per l’empresa xAI d’Elon Musk i integrat a la xarxa social X (abans Twitter), va ser utilitzat per generar imatges sexualitzades de dones i menors, moltes d’elles identificables, sense el seu consentiment. La controvèrsia ha escalat fins a organismes internacionals i governs europeus, que reclamen explicacions urgents a la plataforma.

Com funciona Grok, el xatbot generador d’imatges

Grok és un model de llenguatge amb capacitats generatives que, a petició dels usuaris, pot produir textos, respostes i també imatges. La seva integració a X el fa accessible a milions d’usuaris sense grans restriccions. Segons proves realitzades pels mateixos usuaris, algunes funcionalitats permeten generar imatges a partir de descripcions escrites, incloent-hi persones reals.

Els darrers dies, captures de pantalla van mostrar que Grok generava imatges de celebritats i menors en roba interior o en posicions sexualitzades. En alguns casos, s’obtenien resultats pertorbadors amb només unes poques indicacions. Aquests continguts es compartien ràpidament dins la mateixa xarxa social, creant un efecte multiplicador.

El que prometia, el que va permetre

La promesa de Grok era oferir una IA “basada en la veritat” i resistent a la censura ideològica, segons Musk. Però a la pràctica, el model va demostrar poques barreres davant sol·licituds de contingut sexualitzat, fins i tot quan implicaven menors d’edat. Mentre alguns usuaris alertaven dels abusos, d’altres explotaven l’eina per crear deepfakes sense un fre aparent.

Les normes d’ús de X prohibeixen explícitament el contingut d’abús sexual infantil (CSAM, per les sigles en anglès). Tanmateix, la resposta de la companyia va ser tèbia: va eliminar alguns dels continguts més extrems i va declarar que prendria mesures contra qui generi material il·legal. Musk, per la seva banda, va minimitzar el problema en diverses publicacions, responent amb emojis de riure o de foc.

On són els límits legals

Als Estats Units, les lleis contra el material d’abús sexual infantil també abasten imatges generades digitalment, sempre que representin menors de manera realista. Des del 2025, la Take It Down Act obliga les plataformes a eliminar ràpidament imatges íntimes no consentides, incloses les produïdes amb IA. Però no és clar si aquestes lleis s’apliquen de la mateixa manera quan el generador és un bot automatitzat.

A més, els experts assenyalen una zona grisa legal: la diferència entre contingut generat pels usuaris i contingut que una IA produeix a petició. Determinar responsabilitats i aplicar sancions es complica quan els límits entre emissor i creador es dilueixen. Plataformes com X també estan parcialment protegides per la Secció 230 de la legislació nord-americana, que les blinda de responsabilitats pels continguts de tercers.

Reacció global i pressió política

El cas Grok va provocar respostes immediates d’autoritats a Europa, el Regne Unit, l’Índia i altres països. El govern d’Alemanya va demanar accions legals des de la Unió Europea, mentre que Ofcom, el regulador britànic, va iniciar una investigació formal. En tots els casos, les reclamacions es basen en normatives recents com el Digital Services Act, que obliga les plataformes a mitigar riscos sistèmics.

Diverses organitzacions civils també han exigit més transparència i mesures concretes, des de filtres més estrictes fins a auditories independents sobre el funcionament d’aquestes IA. Mentrestant, les imatges continuen apareixent i desapareixent, de vegades sense deixar rastre, en un bucle que el dret encara no aconsegueix abastar.

Una tecnologia que accelera, una llei que persegueix

L’escàndol de Grok il·lustra una tensió cada vegada més habitual: la distància entre la capacitat de generar contingut digital i la capacitat de regular-lo. Si una IA pot produir milers d’imatges per minut, quin marc legal pot contenir-les? Si aquestes imatges es propaguen en plataformes amb regles laxes o interpretacions dubtoses, qui respon pel dany?

Obre un parèntesi en les teves rutines. Subscriu-te al nostre butlletí i posa’t al dia en tecnologia, IA i mitjans de comunicació.

Leave a Reply