Skip to main content

OpenAI ha publicat un document que sona a declaració d’intencions i a manual d’instruccions. Diu on som i on podríem arribar si la intel·ligència artificial continua avançant al ritme actual. No parla només de xatbots més intel·ligents, sinó de descobriments científics, nous materials, educació personalitzada… Però en aquest mateix moviment, proposa regles, frens i vigilància. Perquè quan es trepitja l’accelerador, algú ha de mirar la carretera.

De tasques en segons a setmanes d’investigació

OpenAI assegura que els seus sistemes ja no es limiten a respondre preguntes ràpides. Comencen a abordar tasques que, en mans humanes, durarien setmanes. En paral·lel, el cost per entrenar-los cau en picat, fins a 40 vegades més eficiència per any en alguns casos (una xifra que convida a rellegir-la dues vegades). Aquesta barreja entre potència i abaratiment canvia l’escenari. No és una hipòtesi a llarg termini. El document marca dates: el 2026, primers descobriments petits; el 2028, els importants. El missatge és clar, això no va de millorar eines, sinó de començar a crear coneixement des de zero.

Quatre regles per a un joc que ja ha començat

El document gira al voltant de quatre propostes, que busquen ordenar un joc sense àrbitres:

  1. Estàndards compartits entre els laboratoris capdavanters (els frontier labs). Acords sobre seguretat, avaluacions conjuntes, menys competència cega.
  2. Supervisió escalada segons capacitats. No és el mateix regular una app de filtres que una IA capaç de descobrir noves proteïnes.
  3. Un ecosistema de resiliència, com el que es va crear per a la ciberseguretat. Auditories, protocols, simulacres de fallades.
  4. Accés ampli i just. Que la IA sigui com l’aigua potable o l’electricitat: un recurs distribuït, no un privilegi.

Darrere de cada punt, una tensió no resolta per cooperar sense frenar la cursa, regular sense espantar el capital, distribuir sense perdre el control.

Dades, capacitats i preguntes sense respondre

No hi ha detalls tècnics exhaustius, però sí pistes: els models actuals processen grans volums de dades i duen a terme tasques que exigeixen molt càlcul. OpenAI demana avaluacions constants, informes sobre impacte i regulacions proporcionals al nivell de risc.

També proposa menys càrrega per a aquells que usin IA bàsica, més obligacions per a aquells que desenvolupin sistemes propers a l’anomenada «IA general» (la que podria igualar o superar una ment humana en molts àmbits).

Riscos anticipats i dilemes per resoldre

En el seu diagnòstic, OpenAI reconeix que l’avanç va per davant de les normes. I que això pot ser un problema. Si una IA comença a fer descobriments, com es decideix què és fiable, útil, ètic? També s’entreveu el desajust econòmic. Si una màquina fa en dies el que abans portava setmanes, què passa amb aquells que vivien d’aquest treball? I el dilema del control, distribuir poder sense perdre seguretat, obrir capacitats sense disparar riscos. No hi ha respostes fàcils, però el document posa els temes sobre la taula.

Una frontera irregular

El text apareix en un moment en què molts governs i organismes busquen regles. A Europa, l’AI Act defineix quins models requereixen control estricte. Alhora, estudis independents alerten que les promeses ètiques de les grans empreses d’IA són difícils de verificar. En The New Yorker, un article recent deia que el progrés de la IA no és una línia recta, sinó una frontera desigual. Hi ha zones d’avanç ràpid i altres on res no canvia durant mesos. El document d’OpenAI se situa just en aquest límit. Amb ambició, però també amb cautela.

Obre un parèntesi en les teves rutines. Subscriu-te al nostre butlletí i posa’t al dia en tecnologia, IA i mitjans de comunicació.

Leave a Reply