La proliferació recent de vídeos racistes generats amb intel·ligència artificial a TikTok i Instagram ha encès alarmes. Aquestes peces, fàcilment identificables per la marca d’aigua “Veo” —pròpia de Google Veo 3—, retraten a dones negres com “bigfoot baddies” (criatures híbrides humà-primats), amb un llenguatge estereotipat carregat de referències degradants, com bonets, argots caricaturescs o una ampolla d’Hennessy amagada en genitals. Vistes per milions, aquestes representacions s’alimenten de clixés racistes tan antics com la caricatura minstrelsy, perpetuats a través d’IA.
Aquestes creacions s’originen després del llançament el maig de 2025 del mòdul Google Veo 3, capaç de generar clips de vuit segons amb àudio realista a partir de simples indicacions textuals. Tanmateix, encara que Google sosté que el sistema bloqueja sol·licituds “perjudicials”, la realitat demostra que aquests continguts han esquivat els filtres existents, assolint visibilitat massiva i viralitat.
TikTok, Meta i Instagram han reaccionat retirant comptes i moderant els vídeos més ofensius —fins i tot abans que l’informe de Media Matters sigui públic—, però aquest esforç ha estat parcial i tardà. L’estratègia algorítmica de recomanació amplifica aquests continguts d’alt impacte emocional, expandint el seu abast fins i tot a públics que no estan predisposats a consumir aquest tipus de material: n’hi ha prou amb interactuar breument amb un d’ells per rebre’n més al feed .
Ja fa diverses setmanes des que els primers vídeos van ser detectats, i la viralitat no es frena. Abunden els cursos “educatius” de 15 USD que ensenyen a generar aquests clips amb prompts racistes, cosa que converteix aquestes eines en un negoci paral·lel. Experts com Nicol Turner Lee (Brookings) i Meredith Broussard (NYU) denuncien aquesta pràctica com “minstrelia moderna”: la IA, adverteixen, no només facilita la creació d’aquests continguts, sinó que els algoritmes de difusió els potencien.
Aquest fenomen no només ocorre a TikTok: a YouTube i Instagram s’han detectat continguts similars, com micos menjant pollastre fregit o vídeos amb al·lusions antisemites o xenòfobes . Encara que Veo 3 inclou marques d’aigua visibles i invisibles (SynthID), aquestes poden ser fàcilment ocultades o remogudes, debilitant la seva eficàcia.
L’auge d’aquesta tendència apunta a un fracàs important: la capacitat de les plataformes —Google, TikTok, Meta— per anticipar el mal ús de la IA i controlar-lo amb rapidesa. A falta d’una moderació més agosarada i col·laborativa, l’emergència de contingut racista generat mitjançant IA podria tornar-se un patró recurrent, afectant no només a minories, sinó també a l’espai públic, la confiança tecnològica i l’ètica digital.
Obre un parèntesi en les teves rutines. Subscriu-te al nostre butlletí i posa’t al dia en tecnologia, IA i mitjans de comunicació.