Skip to main content

Sam Altman va publicar al seu blog personal un primer informe d’avanç sobre Sora 2, l’aposta d’OpenAI per a generació de vídeo amb IA. Altman presenta l’informe com un ajust necessari després de les primeres proves d’ús. D’una banda, reconeix la tensió amb els titulars de drets. D’altra banda, exposa un problema menys visible. Els usuaris estan generant molts vídeos, però per a audiències mínimes. La monetització, per ara, no acompanya aquesta escala. I això obliga a repensar el model des de la seva base.

Una demanda inesperada: vídeos massius, públics mínims

«Les persones estan generant molt més del que esperàvem per usuari, i molts vídeos s’estan generant per a audiències molt petites», escriu Altman. És un fenomen curiós, una eina que produeix com a indústria, però per a públics gairebé privats. Aquesta escala sense retorn econòmic pressiona el model. “Haurem de guanyar diners d’alguna manera amb la generació de vídeo”, admet sense embuts.

Drets negociats i diners compartits

OpenAI busca una doble via per sostenir el model. La primera implica habilitar mecanismes de bloqueig selectiu per evitar que es generin personatges o universos protegits sense consentiment. «Escoltem comentaris útils de titulars de drets, creadors i usuaris sobre com manejar la generació amb personatges protegits», afirma Altman.

La segona és més ambiciosa, oferir una fórmula de monetització compartida. “Intentarem compartir part d’aquests ingressos amb els titulars de drets que vulguin que els seus personatges siguin generats pels usuaris”, anticipa. El model encara no està tancat, i Altman reconeix que “portarà una mica de prova i error per esbrinar-ho”, però assegura que començarà “molt aviat”.

Més enllà de l’econòmic, el text apunta a una dimensió simbòlica. “La nostra esperança és que aquest nou tipus de participació sigui encara més valuós que la part d’ingressos compartida, encara que, per descomptat, volem que ambdues coses siguin valuoses”.

Què es necessita perquè funcioni

Els canvis que proposa Altman impliquen una nova capa de governança, detectar quan s’utilitza un personatge, distingir entre ús lliure i contingut llicenciat, i aplicar restriccions acordades. No es detalla si serà un sistema automatitzat o manual, ni com es notificarà als titulars. Però tot apunta a un gir cap al model d’“opt-in”, en què els propietaris han d’autoritzar l’ús de les seves creacions abans que puguin ser generades.

També s’obrirà un espai per al registre voluntari, els que vulguin que els seus personatges estiguin disponibles podran obtenir part dels beneficis. Per als que no, s’activarà un filtre previ. Això marca un contrast amb la política original d’OpenAI, que operava per defecte fins a rebre objeccions.

El que l’anunci deixa fora

El text d’Altman evita entrar en alguns dels terrenys més delicats. No ofereix una solució tècnica clara a l’ús no autoritzat de personatges que ja s’ha produït. Tampoc aborda de forma directa el problema dels deepfakes o la possibilitat que es generin vídeos amb finalitats de suplantació o manipulació.

A més, esquiva una qüestió de fons: la sostenibilitat tècnica. Generar vídeo amb IA és costós. Afegir capes de control, traçabilitat i repartiment d’ingressos només incrementa aquesta complexitat. Altman recupera la lògica d’iteració de ChatGPT —provar, ajustar, corregir— però l’impacte dels errors potencials aquí pot ser més gran.

Una IA que ja no opera sola

El blog d’Altman no marca una celebració, sinó una advertència. Sora entra en la fase on el desafiament ja no és tècnic, sinó estructural, com sostenir la creativitat generativa sense col·lapsar per costos o demandes legals. L’escala ja no és suficient. La participació —consentida, traçable, compartida— es torna el nou eix.

Obre un parèntesi en les teves rutines. Subscriu-te a la nostra newsletter i posa’t al dia en tecnologia, IA i mitjans de comunicació.

Leave a Reply