Skip to main content

OpenAI ha sorprès a tothom. Tot i que els rumors deien que aquest 5 d’agost de 2025 sortiria GPT-5, OpenAI acaba de llançar GPT - OSS, la seva primera família de models de pesos accessibles —també coneguts com a open-weight— des de GPT-2. La companyia ha optat per publicar abans aquest model d’accés obert, compatible amb arquitectures comunes i dissenyat per córrer localment. Una decisió que promet accelerar la democratització de l’accés a la intel·ligència artificial avançada, encara que per un camí diferent del que molts esperaven.

Una tornada als orígens, però amb més memòria

GPT - OSS arriba en dues versions: gpt-oss-120b, amb uns 120.000 milions de paràmetres, i gpt-oss-20b, amb aproximadament 20.000 milions. Ambdós estan disponibles sota llicència Apache 2.0, que permet ús comercial, modificació i redistribució. Es poden descarregar des de plataformes com Hugging Face, Azure, AWS o Databricks. El model gran necessita una GPU de 80 GB; el petit funciona amb 16 GB de RAM. No cal el núvol: n’hi ha prou amb una bona targeta gràfica i una mica de paciència.

Pensar en veu alta, pas a pas

Ambdós models estan entrenats per aplicar el que s’anomena raonament en cadena (chain-of-thought reasoning): en lloc de donar respostes directes, construeixen una seqüència lògica de passos. Poden integrar-se amb eines com cerca web, execució de codi o agents que interactuen amb altres programes. El model de 120B competeix amb o4-mini en tasques científiques i de codificació, i el supera en proves de medicina o matemàtiques avançades. El de 20B, més lleuger, arriba al rendiment de o3-mini.

Text, pur i dur

Són models centrats exclusivament en text. No processen imatges, àudio ni vídeo. Tampoc s’ha publicat el seu codi d’entrenament ni les dades utilitzades, però sí permeten ajust fi (fine-tuning), ja sigui des de zero o sobre el model base. Per això resulten especialment útils en entorns on es requereix control total del sistema: hospitals, universitats o administracions públiques.

Fins on es pot obrir sense perdre el control?

OpenAI insisteix: GPT-OSS no és open source en sentit estricte. Falten components essencials —com les dades d’entrenament—, cosa que limita la transparència. Tot i això, en alliberar els pesos del model, s’habiliten usos que poden escapar al control previst. OpenAI va fer proves adversàries per detectar riscos i garantir que fins i tot versions modificades no superin llindars crítics en seguretat biològica o cibernètica. Una de les claus està en el sistema d’instruccions, que ha d’evitar que el model es salti les seves pròpies restriccions.

Una cursa d’obertures desiguals

GPT-OSS entra en un ecosistema divers. Davant d’iniciatives com LLaMA (Meta), Gemma (Google) o DeepSeek (Xina), OpenAI planteja una fórmula mixta: un model potent, amb llicència permissiva, però sense arribar a publicar tot el procés. Compta a més amb suport per a eines com llama.cpp, NVIDIA RTX o Microsoft AI Foundry, cosa que afavoreix una adopció àgil entre desenvolupadors i centres de recerca.

Tornar al punt de partida (però amb altres preguntes)

Amb GPT-OSS, OpenAI reprèn un camí que altres mai van abandonar. S’obre de nou, però sense entregar-ho tot. Ofereix una opció per a aquells que busquen independència tècnica, menor cost o desplegament local. Queda per veure què faran amb això aquells que s’animin a descarregar-lo.

Sam Altman, CEO d’OpenAI, va anticipar que aquesta setmana podrien anunciar-se més coses (possiblement GPT-5) i va deixar caure a X: «molt aviat, alguna cosa més intel·ligent que la persona més llesta que coneguis estarà funcionant en un dispositiu a la teva butxaca, ajudant-te amb el que necessitis. És una cosa realment extraordinària.»

Obre un parèntesi en les teves rutines. Subscriu-te al nostre butlletí i posa’t al dia en tecnologia, IA i mitjans de comunicació.

Leave a Reply