OpenAI ho ha tornat a fer. El seu model experimental d’intel·ligència artificial acaba d’assolir el que abans era terreny exclusiu de ments brillants de carn i ossos: una medalla d’or a l’Olimpíada Internacional de Matemàtiques (IMO). No és només una fita tècnica. És una postal del lloc on es dirigeix la intel·ligència artificial quan no es distreu amb tasques quotidianes i s’endinsa en el pensament abstracte.
Pensar durant hores, sense ajuda externa
L’IMO no és una prova de càlcul. És una marató mental de nou hores dividida en dues jornades, amb sis problemes que requereixen intuïció, lògica i creativitat. El model d’OpenAI va resoldre cinc d’ells sense accés a internet, amb raonaments escrits en llenguatge natural. Tres exolímpics van revisar les seves respostes: 35 punts sobre 42, prou per penjar-se l’or.
De resoldre sumes a imaginar estructures
L’evolució del model és progressiva, gairebé com una cursa de fons. Va començar resolent problemes escolars (nivell GSM8K), va passar per proves universitàries (MATH), després per exàmens classificatoris (AIME) i ara, l’IMO. Segons Alex Wei, investigador a OpenAI, el que distingeix aquest sistema no és la velocitat, sinó la capacitat de mantenir el fil durant hores, sense perdre’s en el seu propi raonament.
1/N I’m excited to share that our latest @OpenAI experimental reasoning LLM has achieved a longstanding grand challenge in AI: gold medal-level performance on the world’s most prestigious math competition—the International Math Olympiad (IMO). pic.twitter.com/SG3k6EknaC
— Alexander Wei (@alexwei_) July 19, 2025
Sense trucs, sense entrenament especial
El model no va ser entrenat específicament per a aquesta olimpíada. Tampoc és un producte optimitzat com AlphaGeometry de DeepMind. El que va utilitzar va ser una combinació de tècniques de “reforç general” i una dosi major de potència de càlcul durant l’execució —una estratègia coneguda com a test-time compute scaling. En altres paraules: el model va aprendre a pensar, no només a memoritzar.
Un or que no tots celebren igual
Gary Marcus, un dels crítics habituals del sector, ho va resumir amb escepticisme. En una publicació a LinkedIn va escriure: “la meva impressió general és que OpenAI ens ha explicat el resultat, però no com es va aconseguir. (…) Suposant que el resultat —que no ha estat validat de forma independent per l’IMO— sigui legítim, encara necessitem conèixer més sobre l’entrenament, l’arquitectura i els costos per problema”. Altres experts, com els participants del fòrum LessWrong, recorden que la puntuació (35/42) tot just supera el llindar de la medalla d’or i subratllen que el model encara no demostra comprensió genuïna com un humà. La IA raona, sí, però encara no pregunta.
Ni Google ni xAI han arribat tan lluny
Fins ara, cap altre model havia assolit medalla en aquest tipus de proves. Ni Gemini, de Google, ni Grok, de xAI. L’IMO existeix des de 1959 i ha estat un planter de ments com Terence Tao o Maryam Mirzakhani. Que una IA s’assegui a la mateixa taula no és poca cosa. És, com a mínim, un canvi d’època.
Però no serà part de GPT-5 (per ara)
Sam Altman ja ho va deixar clar: aquesta versió experimental no estarà disponible immediatament. GPT-5, que arribarà aviat, no inclourà aquestes capacitats matemàtiques. Caldrà esperar a un nou model més centrat en raonament. Per ara, aquesta IA es queda als laboratoris, resolent problemes que ni tan sols tenen utilitat directa, però que anticipen el que ve.
Obre un parèntesi en les teves rutines. Subscriu-te al nostre newsletter i posa’t al dia en tecnologia, IA i mitjans de comunicació.