Skip to main content

L’expansió de Likeness Detection converteix el rostre en una nova categoria de dret gestionat per algoritme: YouTube vol protegir qualsevol adult davant deepfakes, però la frontera entre suplantació, crítica, paròdia i censura automatitzada serà cada vegada més delicada.

YouTube ha fet un pas decisiu en la gestió de la identitat digital. La plataforma ha anunciat que la seva eina de detecció de semblances generades per intel·ligència artificial, Likeness Detection, s’ampliarà a tots els creadors majors de 18 anys. La mesura permetrà que qualsevol adult pugui registrar el seu rostre mitjançant un procés de verificació i rebre alertes quan YouTube detecti vídeos generats o alterats amb IA que semblin utilitzar la seva imatge. L’objectiu declarat és combatre deepfakes, suplantacions, fraus i usos no consentits de la identitat visual en una plataforma on un vídeo fals pot arribar a milions de persones en poques hores.
Font:

La notícia té una lectura immediata: YouTube reconeix que els deepfakes ja no són només un problema de celebritats, polítics, periodistes o grans creadors. Són un risc generalitzat. Qualsevol persona pot veure el seu rostre inserit en un vídeo fals, un anunci fraudulent, un muntatge sexual, una estafa financera, una campanya d’assetjament o una peça manipulada per danyar la seva reputació. Per això la companyia ha decidit obrir una eina que primer va provar amb membres del Programa de Partners, després va estendre a líders cívics i periodistes, més tard al sector de l’entreteniment, i ara desplega per a tots els adults elegibles.

L’eina funciona d’una manera semblant a Content ID, però aplicada a la imatge personal. Content ID exigia als titulars de drets pujar obres protegides perquè YouTube comparés automàticament els vídeos publicats i detectés coincidències. Likeness Detection trasllada aquesta lògica al rostre: l’usuari verifica la seva identitat, proporciona una referència facial i YouTube busca continguts en què la seva cara sembli haver estat alterada o generada amb IA. Si apareix una coincidència, l’afectat pot revisar el contingut i decidir si sol·licita la seva retirada mitjançant el procés de reclamació per privacitat.

El paral·lelisme amb Content ID és útil, però també inquietant. Content ID va ser una eina eficaç per protegir drets d’autor, però també va generar durant anys queixes per bloquejos excessius, reclamacions abusives, falsos positius i usos estratègics del copyright per silenciar crítiques, ressenyes, paròdies o continguts transformatius. Ara YouTube s’endinsa en un terreny encara més sensible: la identitat biomètrica. Si abans el sistema comparava cançons, fragments audiovisuals o arxius de referència, ara compara rostres. La pregunta deixa de ser només “qui posseeix aquesta obra?” i passa a ser “qui pot controlar la representació d’una persona?”.

YouTube insisteix que detecció no significa retirada automàtica. La plataforma assegura que els usuaris podran sol·licitar eliminació, però que cada cas serà avaluat conforme a les seves polítiques de privacitat. Entre els factors que es tindran en compte hi ha si el contingut és realista, si està etiquetat com a generat per IA, si identifica de manera única una persona i si encaixa en excepcions d’interès públic, crítica, sàtira o paròdia. La companyia ja havia subratllat al març, en ampliar el pilot a polítics i periodistes, que continuarà preservant continguts de paròdia i sàtira quan s’utilitzin per criticar figures públiques o persones influents.

Aquest és el punt més delicat. L’eina neix per protegir les persones davant abusos reals, però també es pot convertir en un mecanisme de silenciament si s’aplica d’una manera massa automàtica. La història de les plataformes demostra que els sistemes de moderació a escala tendeixen a resoldre conflictes complexos mitjançant regles simplificades. Una paròdia política, una imitació humorística, una peça de crítica audiovisual o una sàtira sobre un personatge públic poden semblar, per a una màquina, un ús no autoritzat de la imatge. I si el procés s’automatitza massa, el dany a la llibertat d’expressió es pot produir abans que un humà revisi el context.

YouTube sap que aquest risc existeix. Per això insisteix que no totes les coincidències donaran lloc a retirada. Però l’experiència amb copyright convida a la prudència. A la pràctica, molts creadors petits no tenen recursos per impugnar decisions, esperar revisions o defensar matisos jurídics. Si una figura pública, una empresa de representació o un usuari amb capacitat de pressió sol·licita la retirada d’una peça crítica, la plataforma pot tendir a minimitzar riscos eliminant el contingut. El problema no és només la norma; és l’incentiu operatiu d’una plataforma gegantina que gestiona milions de vídeos.

L’expansió de Likeness Detection mostra que la identitat personal s’està convertint en un nou camp de gestió algorítmica. Fins ara, la imatge d’una persona estava protegida per drets de privacitat, honor, pròpia imatge, normes contra l’assetjament, polítiques de suplantació i, en alguns països, drets de publicitat. La IA generativa desborda aquest marc perquè permet crear representacions hiperrealistes a baix cost i a escala massiva. No cal una productora ni un estudi d’efectes especials. N’hi ha prou amb una eina, unes imatges de referència i una intenció maliciosa.

Per això la mesura de YouTube respon a una necessitat real. Els deepfakes ja no són una curiositat tècnica. Es poden utilitzar per fabricar declaracions falses, simular suports polítics, promoure estafes amb famosos, crear pornografia no consentida, manipular campanyes electorals o danyar carreres professionals. La plataforma té raons poderoses per oferir als usuaris una manera de saber quan el seu rostre apareix en continguts generats per IA. Sense una eina així, moltes víctimes ni tan sols arribarien a assabentar-se’n.

La novetat és que YouTube generalitza aquesta protecció a persones no famoses. Aquest canvi és important perquè durant anys la protecció de la imatge digital ha estat desigual. Les celebritats, polítics i grans creadors disposen d’agències, advocats, equips de comunicació i accés directe a plataformes. Un ciutadà corrent, no. Si la seva cara apareix en un deepfake perjudicial, pot no saber a qui reclamar, com demostrar-ho o com aconseguir que el vídeo es retiri. L’eina democratitza, almenys en part, aquesta capacitat de vigilància.

Però la democratització exigeix una altra pregunta: què ha d’entregar l’usuari a canvi? Perquè el sistema funcioni, els participants han de verificar la seva identitat i proporcionar una referència facial. YouTube afirma que les dades aportades s’utilitzen per verificació i per activar la funció de seguretat, i que no s’utilitzen per entrenar models generatius de Google. En la seva expansió prèvia a periodistes i líders cívics, la companyia va subratllar que la informació proporcionada durant la configuració s’utilitza estrictament per verificar identitat i fer funcionar l’eina.

Tot i així, la preocupació per les dades biomètriques no desapareixerà. Un rostre no és una contrasenya que es pugui canviar si es filtra. És un identificador permanent. Demanar a milions d’usuaris que pugin una referència facial per protegir-se de deepfakes crea una base de dades extremadament sensible. Encara que Google prometi usos limitats, els ciutadans hauran de confiar que aquestes dades es custodiaran amb seguretat, que no es reutilitzaran per a altres finalitats, que es podran eliminar i que no acabaran integrades en sistemes d’entrenament, publicitat, identificació o anàlisi de comportament.

La mateixa cobertura de The Verge assenyala que l’eina no detecta encara imitacions de veu, sinó usos facials, i que els usuaris poden donar-se de baixa i sol·licitar l’eliminació de les seves dades d’inscripció. Aquest detall és rellevant, però també mostra una limitació: molts deepfakes perjudicials no es basen només en la cara, sinó en la veu. La suplantació vocal es pot utilitzar per estafes, declaracions falses o fraus familiars. YouTube avança en un front, però el problema de la identitat sintètica és multimodal.

L’expansió també confirma un canvi de filosofia en les plataformes. Durant anys, YouTube actuava sobre continguts problemàtics quan algú els denunciava. Ara es mou cap a una vigilància proactiva de la identitat. El sistema busca coincidències abans que la víctima hagi de trobar-les manualment. Això pot ser positiu per reduir danys, però també reforça la idea d’una plataforma que escaneja permanentment vídeos a la recerca de senyals biomètrics. La protecció i la vigilància comencen a assemblar-se massa.

El cas dels polítics i periodistes va ser especialment significatiu. YouTube va justificar aquesta expansió perquè són persones situades al centre del debat públic i vulnerables a campanyes de manipulació mitjançant IA. La plataforma reconeixia així que els deepfakes poden afectar no només la reputació individual, sinó la qualitat del debat democràtic. Un vídeo fals d’un candidat, un ministre, un periodista o un activista pot alterar percepcions, polaritzar comunitats o sembrar desconfiança abans de ser desmentit.

L’ampliació al sector de l’entreteniment reforçava un altre aspecte: la imatge com a actiu econòmic. Actors, músics, esportistes i influencers viuen en part del seu rostre, la seva veu, el seu estil i el seu reconeixement públic. La IA pot explotar aquesta identitat per vendre productes, generar contingut fraudulent o crear versions sintètiques sense permís. YouTube va treballar amb agències com CAA, UTA, WME i Untitled Management per adaptar l’eina a celebritats i artistes, fins i tot encara que no tinguessin canal propi a la plataforma.

L’expansió a tots els adults uneix ambdues dimensions: la imatge com a dret personal i com a actiu vulnerable. Ja no hi ha una frontera clara entre famós i anònim. Un usuari corrent pot convertir-se en víctima d’un deepfake sexual. Un treballador pot ser suplantat en un vídeo laboral. Un professor pot aparèixer falsament en un muntatge. Un adolescent que acaba de fer 18 anys pot veure el seu rostre reutilitzat en un contingut perjudicial. La IA fa que qualsevol pugui ser objectiu.

La qüestió és si el remei pot generar nous abusos. YouTube contempla excepcions per a paròdia i sàtira, però aquestes categories són difícils d’automatitzar. Una paròdia pot ser incòmoda, agressiva, políticament feridora o estèticament molt realista. Precisament la seva força pot dependre d’assemblar-se al personatge satiritzat. Si s’exigeix que tota paròdia sigui òbvia, se’n redueix la potència crítica. Si es permet qualsevol imitació sota l’etiqueta de sàtira, s’obre la porta a abusos. La frontera no és tècnica; és cultural i jurídica.

A Europa, a més, la discussió es creuarà amb drets fonamentals i protecció de dades. La pròpia imatge, la privacitat, la llibertat d’expressió, la protecció contra la difamació, el dret a la informació i l’excepció de paròdia s’han d’equilibrar cas per cas. Una plataforma global com YouTube no pot resoldre tots aquests equilibris amb una única regla mundial. El que en un país es considera sàtira protegida, en un altre pot entrar en conflicte amb drets d’imatge o normes electorals. La moderació de deepfakes serà inevitablement jurisdiccional.

El sistema també pot afectar el periodisme. Imaginem una peça informativa que analitza un deepfake viral i inclou fragments per denunciar-lo. Imaginem un reportatge sobre propaganda sintètica que mostra exemples. Imaginem una investigació sobre estafes que utilitza imatges alterades per explicar l’engany. Si les eines de detecció produeixen alertes sense distingir bé el context informatiu, els mitjans poden afrontar reclamacions injustes. YouTube diu que avaluarà excepcions d’interès públic, però l’aplicació pràctica serà determinant.

La mateixa preocupació val per a creadors de contingut polític. A YouTube abunden canals de sàtira, anàlisi, crítica, doblatge humorístic, animació i comentari social. Molts utilitzen imitacions, muntatges, clips alterats o recursos visuals per fer crítica. La IA generativa pot enriquir aquests formats, però també fer-los més sospitosos. La pregunta serà si YouTube pot protegir una persona davant suplantacions perjudicials sense matar el llenguatge audiovisual crític que caracteritza internet.

L’antecedent de Content ID ensenya que una eina de protecció pot acabar modelant la creativitat. Molts creadors van aprendre a evitar música, fragments de vídeo o referències per por a reclamacions automàtiques, fins i tot quan podien tenir dret a utilitzar-les sota excepcions de cita, crítica o paròdia. Amb la detecció de semblances, podria sorgir una autocensura similar: evitar rostres, imitacions o sàtires visuals per temor a reclamacions d’identitat.

També pot aparèixer una nova indústria de gestió del rostre. Agències, creadors, polítics i figures públiques podrien monitorar usos de la seva imatge, sol·licitar retirades, negociar llicències o monetitzar representacions sintètiques. La identitat es convertirà en un actiu gestionable dins de plataformes. YouTube, en crear la infraestructura de detecció, es col·loca al centre d’aquest mercat emergent.

Per ara, l’eina no sembla oferir monetització directa, a diferència de Content ID, que permet als titulars de drets bloquejar, rastrejar o monetitzar vídeos. Però aquesta possibilitat pot arribar. Si una celebritat detecta un ús sintètic del seu rostre, podria voler retirar-lo, permetre’l o cobrar-ne. La frontera entre protecció d’identitat i mercat de llicències biomètriques serà cada vegada més estreta.

Per als usuaris comuns, la prioritat serà més bàsica: evitar danys. El deepfake no consentit pot ser devastador per a una persona anònima. No necessita milions de visualitzacions per arruïnar una vida; n’hi ha prou amb circular en un entorn laboral, escolar, familiar o comunitari. La capacitat de detectar i demanar retirada pot reduir aquest dany. Però la plataforma haurà d’oferir processos ràpids, comprensibles i accessibles, no formularis opacs que només usuaris experts sàpiguen utilitzar.

YouTube ha construït durant anys un ecosistema de moderació híbrid: algoritmes, revisors humans, polítiques globals, sistemes d’apel·lació i eines per a titulars de drets. Likeness Detection afegeix una capa nova. No moderarà només el que un vídeo diu o mostra, sinó a qui sembla representar. Això canvia la naturalesa del control. La plataforma ja no jutja únicament contingut; jutja identitat.

L’expansió arriba en un moment de creixent pressió reguladora. Governs d’arreu del món intenten definir normes contra deepfakes, especialment en contextos electorals, sexuals i fraudulents. Les plataformes volen anticipar-se per demostrar responsabilitat i evitar regulacions més dures. YouTube pot presentar aquesta eina com una prova que la indústria pot autoregular-se. Els crítics respondran que una infraestructura tan poderosa no hauria de dependre només de polítiques privades.

La pregunta de fons és qui ha de decidir sobre la identitat sintètica. La persona representada? La plataforma? El creador del contingut? Els tribunals? La llei? En casos evidents de suplantació fraudulenta, la resposta sembla senzilla. En casos de sàtira, crítica, art, documental, educació o denúncia, la decisió és molt més difícil. Un sistema just necessitarà revisió humana qualificada, transparència en criteris, dret d’apel·lació i dades públiques sobre retirades.

Seria desitjable que YouTube publiqués informes específics sobre Likeness Detection: nombre d’usuaris inscrits, coincidències detectades, sol·licituds de retirada, percentatge acceptat, motius de rebuig, apel·lacions, casos de paròdia preservats i errors reconeguts. Sense estadístiques, el debat quedarà entre la confiança en YouTube i la por a la censura. Una eina que gestiona identitat a escala global necessita rendició de comptes.

També caldrà saber com es protegeix menors. L’anunci es limita a majors de 18 anys, probablement per la sensibilitat del tractament biomètric i la capacitat de consentiment. Però els menors són precisament un dels col·lectius més vulnerables a deepfakes sexuals, assetjament i manipulació. L’exclusió inicial evita problemes legals, però deixa oberta una qüestió urgent: com protegir adolescents sense crear bases biomètriques perilloses ni dependre exclusivament de pares o tutors.

L’expansió de Likeness Detection mostra que l’era de la IA generativa obliga a reinventar drets bàsics. La identitat ja no és només presència física, document oficial o perfil social. També és una representació sintètica que pot circular sense permís. Protegir-la exigirà noves eines. Però aquestes eines no poden convertir-se en censors invisibles ni en magatzems opacs de dades biomètriques.

YouTube ha triat una via pragmàtica: detecció proactiva, verificació d’identitat, alertes a l’usuari i sol·licituds de retirada avaluades sota polítiques de privacitat. És un avenç davant la indefensió. Però l’èxit dependrà dels matisos: protecció sense abús, automatització sense censura cega, privacitat sense acumulació biomètrica, identitat sense liquidar la paròdia.

La frase clau no és que YouTube detectarà deepfakes. La clau és que, a partir d’ara, qualsevol adult podrà demanar a YouTube que vigili el seu rostre. Aquesta possibilitat canvia la relació entre usuari i plataforma. El rostre es converteix en una empremta que pot ser rastrejada, reclamada i gestionada. En una internet inundada d’imatges sintètiques, pot ser una defensa necessària. També pot ser l’inici d’una nova batalla pels límits de l’expressió.

Leave a Reply