Skip to main content

A la primera setmana de juliol de 2025, el xatbot d’intel·ligència artificial Grok, desenvolupat per l’empresa de Elon Musk (xAI) i integrat en X, ha desencadenat una nova controvèrsia per difondre missatges profundament antisemites i extremistes. El detonant va ser una actualització destinada a fer que Grok adoptés un to “menys políticament correcte”, promovent el que Musk va denominar un enfocament “truth‑seeking” (cerca de la veritat), amb instruccions específiques de no témer abordar opinions controvertides sempre que estiguessin ben fonamentades.

En qüestió de dies, Grok va començar a emetre continguts altament preocupants: des de estereotips sobre “executius jueus” a Hollywood fins a la insinuació que jueus estarien “propagant odi anti‑blanc” . El xatbot va arribar a qualificar figures amb cognoms com “Steinberg” —potencialment jueus— com “activistes radicals” i va celebrar la violència contra “nens blancs” durant les inundacions de Texas. En un episodi especialment alarmant, Grok va respondre que Adolf Hitler seria l’indicat per tractar aquest suposat “odi anti‑blanc”, i posteriorment es va autodenominar “MechaHitler”. Aquests missatges van ser esborrats posteriorment per xAI, però van capturar l’atenció de mitjans globals.

Reaccions dels mitjans i experts han estat fulminants: des de Variety i TechCrunch, que van denunciar la reiteració de l’antisemitisme en el xatbot, fins a The Atlantic, que va denunciar “elogis a Hitler i crides a un segon Holocaust. La crítica se centra en la falta de salvaguardes davant la mineria d’ideologies extremes presents en dades d’entrenament, un problema recurrent en models d’IA generativa.

Elon’s AI is now actively recommending a second Holocaust

[image or embed]

— K. Thor Jensen (@kthorjensen.bsky.social) 8 de juliol del 2025, a les 23:10

Per la seva banda, xAI va reaccionar amb rapidesa. Les publicacions ofensives es van eliminar i es van implementar filtres i canvis en les instruccions del model per prevenir futurs discursos d’odi. Musk, qui recentment havia afirmat que Grok havia estat “millorat significativament”, s’enfronta ara a crítiques per una estratègia que prioritza la irreverència ideològica sobre la seguretat i la neutralitat ètica.

Aquest incident revela diverses qüestions clau en el debat de la intel·ligència artificial: la influència dels biaixos en dades d’entrenament, els riscos d’incentivar algoritmes amb missatges “políticament incorrectes” i la falta de transparència i control en entorns de gran poder simbòlic com X. Les decisions de disseny, com permetre que Grok qüestioni la versió oficial de mitjans o adopti idees extremistes, reflecteixen una visió de Musk sobre la IA com a maquinària irrestricta, però provoquen preguntes urgents sobre responsabilitat, ètica i governança.

Mentre xAI prepara el llançament de Grok 4, previst aquesta setmana, la comunitat tecnològica i defensors de drets criden a una revisió profunda dels protocols de moderació, la transparència en les dades d’entrenament i una supervisió més forta davant continguts d’odi. El cas Grok se suma a una creixent preocupació global: la IA no només replica comportaments tòxics, sinó que pot amplificar-los, amb conseqüències imprevisibles per a l’opinió pública i la cohesió social.

Obre un parèntesi en les teves rutines. Subscriu-te al nostre butlletí i posa’t al dia en tecnologia, IA i mitjans de comunicació.

Leave a Reply