La plataforma X, abans coneguda com a Twitter, s’ha trobat enmig d’una de les seves crisis més delicades relacionades amb intel·ligència artificial. El seu xatbot Grok, dissenyat per generar i editar imatges a partir de text o fotografies, va passar d’eina experimental a focus global d’escàndol després de la difusió massiva d’imatges manipulades de persones reals, incloent-hi dones i menors, en posicions sexualitzades o sense roba. El cas va obligar la companyia a aplicar restriccions tècniques i legals sobre el que el seu sistema d’IA pot fer, amb implicacions que travessen regulacions, política pública i debats sobre responsabilitat digital.
De la promesa a la polèmica
Quan Grok va introduir capacitats de generació i edició d’imatges, l’objectiu era expandir l’ús creatiu de la intel·ligència artificial a X i més enllà. No obstant això, des de desembre de 2025 usuaris van descobrir que podien demanar-li a la IA que modifiqués fotos de persones per fer-les aparèixer en roba reveladora o nues, fins i tot quan aquestes persones no havien donat el seu consentiment. En alguns casos aquests deepfakes es van viralitzar ràpidament.
Els anomenats deepfakes —imatges generades per IA que semblen reals, però que no ho són— fa anys que són tema de debat en tecnologia i drets digitals pel seu potencial per danyar reputacions, violar la privacitat o facilitar abusos sexuals digitals. Però l’escala i facilitat amb què Grok estava complint aquest tipus de sol·licituds generà una resposta internacional sense precedents.
Les restriccions que van canviar el joc
En resposta a la pressió pública i legal, X va implementar una sèrie de modificacions clau en els primers dies de gener:
- Va limitar la capacitat de generar i editar imatges amb Grok a usuaris de pagament, el que busca augmentar la traçabilitat sobre qui crea contingut.
- Va introduir filtres automàtics per impedir sol·licituds que intentin sexualitzar persones reals, especialment amb roba reveladora o sense ella.
- Va activar geobloquejos en països amb lleis estrictes contra contingut íntim no consensuat.
- Va associar la identitat de pagament dels usuaris amb el contingut generat per IA, com a mesura de dissuasió legal.
Aquestes restriccions intenten alinear el funcionament de Grok amb lleis nacionals i internacionals sobre privacitat, consentiment i abús digital.
— Safety (@Safety) January 14, 2026
Investigacions, bloquejos i reaccions regulatòries
La reacció dels governs va ser immediata. Al Regne Unit, l’organisme regulador Ofcom va obrir una investigació per determinar si X havia violat la Llei de Seguretat Online. En paral·lel, països com Indonèsia i Malàisia van bloquejar l’accés a Grok completament. Als Estats Units, legisladors van sol·licitar a Apple i Google que retiressin l’app de X de les seves botigues virtuals.
Aquests moviments busquen frenar el dany potencial de la tecnologia abans que es normalitzi el seu ús sense controls. Les autoritats assenyalen que els filtres actuals, encara que millorats, podrien continuar sent vulnerables a manipulacions per part dels usuaris.
Un problema que no acaba a X
Encara que la companyia assegura haver reforçat els controls, investigacions independents apunten que en versions web o serveis externs, Grok encara permet certes funcions que ja no estan actives a l’app principal. Això subratlla un dilema tècnic i legal amb una tecnologia distribuïda que pot operar fora de l’abast immediat de les restriccions imposades.
El cas X-Grok posa en evidència les línies difuses entre innovació i dany digital. La pregunta ja no és només què pot fer una IA, sinó sota quines condicions i amb quines responsabilitats.
Obre un parèntesi en les teves rutines. Subscriu-te al nostre butlletí i posa’t al dia en tecnologia, IA i mitjans de comunicació.