OpenAI presenta GPT-5.4 com el seu model més “factual” i eficient: redueix afirmacions falses i fa servir menys tokens per resoldre tasques complexes.
OpenAI ha llançat GPT-5.4 i l’ha desplegat alhora a ChatGPT (com a GPT-5.4 Thinking), a l’API i a Codex, amb una variant addicional, GPT-5.4 Pro, orientada a qui vol el màxim rendiment en tasques exigents. L’empresa el descriu com el seu model “frontera” més capaç i eficient per a feina professional, amb millores combinades en raonament, programació i fluxos agentius (agents) que operen a través d’eines, connectors i entorns de programari.
La clau d’aquesta versió no és un únic “truc” nou, sinó un canvi d’enfocament: GPT-5.4 vol convertir-se en el model que fa la feina, no només el que respon. OpenAI afirma que ha posat especial èmfasi en tasques reals que sovint encallen els models: crear i editar fulls de càlcul, presentacions i documents, mantenir el context quan la resposta requereix “pensar més estona”, i executar tasques encadenades on l’usuari necessita més un assistent operatiu que no pas un xatbot.
Dos GPT-5.4: Thinking i Pro, amb una diferència pràctica
A ChatGPT, el model arriba com GPT-5.4 Thinking, que incorpora un canvi d’interacció rellevant: pot mostrar un pla per avançat i permetre que l’usuari redirigeixi la resposta mentre s’està generant (el que OpenAI i alguns mitjans han descrit com a steering: guiar el raonament en marxa). Aquesta capacitat es desplega primer a web i Android, amb arribada posterior a iOS, segons la comunicació pública sobre el llançament.
La versió GPT-5.4 Pro es posiciona com l’opció de “màxim rendiment” en tasques complexes i també està disponible a ChatGPT (segons el pla) i a l’API. A nivell editorial, el missatge d’OpenAI és clar: menys anades i vingudes per arribar a un entregable final usable.
El salt que marca aquesta entrega: agents amb “ús natiu de l’ordinador”
A Codex i a l’API, GPT-5.4 es presenta com el primer model generalista d’OpenAI amb capacitats natives avançades d’ús de l’ordinador (computer use): agents capaços d’operar interfícies, coordinar aplicacions i executar fluxos en programari a partir d’objectius. La companyia ho emmarca com un pas important cap a sistemes que no només generen text o codi, sinó que planifiquen, executen i verifiquen tasques llargues.
Aquest punt importa per una raó: el mercat de la IA s’ha mogut de “models millors” cap a “models que fan coses”. En aquest terreny, l’avantatge no és només respondre bé, sinó interactuar amb eines i entorns (navegador, suites ofimàtiques, repositoris, connectors corporatius) de manera robusta, sense degradar la precisió. OpenAI diu haver reforçat justament aquesta capa: el model millora la seva capacitat per treballar en ecosistemes grans d’eines i connectors mitjançant el que anomena tool search, per trobar i fer servir l’eina adequada amb més eficiència.
1 milió de tokens: context llarg, però amb matisos
Una de les dades que més titulars genera és la finestra de context: OpenAI indica que GPT-5.4 a Codex inclou suport experimental de fins a 1 milió de tokens de context, amb configuració específica, i que superar el llindar estàndard té implicacions de cost i ús. Dit d’una altra manera: hi ha “mode llarg”, però és una capacitat pensada per a desenvolupadors i agents en entorns controlats, no necessàriament per al ChatGPT de consum tal com el fa servir la majoria.
Al mateix anunci, OpenAI també aclareix que les finestres de context a ChatGPT per a GPT-5.4 Thinking no canvien respecte a GPT-5.2 Thinking. És un detall important per no confondre el que el model pot fer a l’API o a Codex amb el que arriba tal qual a la interfície de ChatGPT.
Més “factual”, menys tokens, més velocitat: l’argument d’eficiència
OpenAI presenta GPT-5.4 com el seu model més “factual” fins ara: en un conjunt de prompts desidentificats on usuaris havien assenyalat errors, l’empresa afirma que les afirmacions individuals són un 33% menys propenses a ser falses i que les respostes completes tenen un 18% menys de probabilitats de contenir errors en comparació amb GPT-5.2.
A aquest argument n’hi suma un altre: eficiència de tokens. GPT-5.4 es descriu com el model de raonament més eficient d’OpenAI, fent servir menys tokens per resoldre problemes, cosa que es tradueix en menys consum i més rapidesa en molts escenaris, especialment en tasques llargues on el cost no és només el preu per token, sinó la quantitat total de tokens gastats per arribar al resultat.
“Professional” vol dir Office: fulls de càlcul, presentacions i documents
L’anunci d’OpenAI dedica espai explícit a la feina d’oficina i al tipus d’entregables que sostenen la productivitat real: models financers en fulls de càlcul, presentacions i documents amb estructura i edició iterativa. La companyia afirma que GPT-5.4 millora de forma notable en tasques de modelatge de fulls de càlcul i ho acompanya amb eines i guies per fer-ne un ús més fiable en fluxos professionals.
A més, OpenAI enllaça aquesta orientació amb un moviment pràctic: el mateix dia del llançament esmenta un complement per a Excel en el context de clients empresarials, subratllant que l’objectiu no és només generar text, sinó integrar-se a les aplicacions on es decideix i es treballa.
Benchmarks: per què importen (i per què no n’hi ha prou)
Com és habitual, OpenAI acompanya el llançament amb mètriques en avaluacions: resultats en tasques de coneixement professional, programació i ús de l’ordinador, a més de proves de navegació i ús d’eines. La lectura que proposa OpenAI és que GPT-5.4 puja el llistó de manera consistent en escenaris que combinen raonament, eines i execució.
Però el matís periodístic és imprescindible: aquests benchmarks serveixen per orientar, no per certificar seguretat o fiabilitat en producció. El que sí indiquen és que el focus del model ja no és només generar text correcte, sinó actuar amb eines sense enfonsar-se.
Preu i estratègia: més car per token, però amb promesa de menor cost total
A l’API, OpenAI situa GPT-5.4 per sobre de GPT-5.2 en preu per token. Segons la seva taula, GPT-5.4 costa 2,50 dòlars per milió de tokens d’entrada i 15 dòlars de sortida, davant d’1,75 d’entrada a GPT-5.2 i 14 de sortida. A GPT-5.4 Pro, el salt és més acusat: 30 dòlars d’entrada i 180 dòlars de sortida per milió.
La justificació és doble: capacitats superiors i més eficiència, que podria reduir la despesa total en casos on abans calien més torns o més tokens de raonament per arribar al mateix resultat. Aquesta és l’aposta comercial d’OpenAI: cobrar més per unitat, però prometre que la feina surt abans i amb menys iteració.
Disponibilitat: qui el veu i què passa amb GPT-5.2 Thinking
A ChatGPT, OpenAI indica que GPT-5.4 Thinking està disponible per als plans Plus, Team i Pro, substituint GPT-5.2 Thinking, que es manté a la secció de models heretats durant un període de transició abans de retirar-se. Per a Enterprise i Edu es preveu accés primerenc mitjançant ajustos d’administrador, i GPT-5.4 Pro queda associat a plans superiors.
El que canvia per a usuaris i empreses: del “prompt” al “procés”
Si hi ha una idea que travessa GPT-5.4 és que la IA s’acosta al territori del procés complet: no només escriure un text, sinó fer una recerca, sintetitzar fonts, construir un entregable —document, presentació o full de càlcul— i, a l’API o a Codex, operar programari amb capacitats d’ús de l’ordinador.
El risc, tanmateix, també augmenta: com més actua un model, més importants són el control, l’auditoria i la governança. OpenAI intenta respondre amb el discurs de factualitat, eficiència i millor ús d’eines; el mercat avaluarà si aquestes promeses es sostenen quan GPT-5.4 es posi a prova en empreses amb dades sensibles, fluxos crítics i tolerància zero a l’error.