La novetat no és només un accés escalonat per a defensors verificats: és que els nivells més alts podran sol·licitar GPT-5.4-Cyber, una variant afinada per a tasques com l’enginyeria inversa binària, l’anàlisi de malware i l’avaluació de robustesa sense codi font.
La ciberseguretat ha entrat en una fase especialment delicada de la intel·ligència artificial. Ja no es tracta només d’assistents que redacten informes, suggereixen fragments de codi o ajuden a interpretar alertes. El nou terreny és molt més sensible: models capaços d’intervenir en fluxos de defensa avançats, identificar vulnerabilitats amb més profunditat, analitzar binaris compilats i accelerar tasques que fins ara requerien perfils altament especialitzats. En aquest context, OpenAI ha anunciat l’ampliació del seu programa Trusted Access for Cyber (TAC) amb nous nivells d’accés per a defensors autenticats i, en la part més alta d’aquesta jerarquia, la possibilitat de sol·licitar GPT-5.4-Cyber, una versió de GPT-5.4 ajustada específicament per a casos d’ús de ciberseguretat.
La companyia presenta aquesta evolució com un intent de donar més capacitat a aquells que protegeixen infraestructures i software crític sense obrir indiscriminadament la porta a usos maliciosos. La decisió és rellevant per dues raons. La primera és tècnica: GPT-5.4-Cyber ha estat afinat per ser més permissiu en contextos de seguretat legítims i habilitar fluxos defensius més avançats. La segona és política: en lloc d’oferir aquestes capacitats de manera generalista, OpenAI opta per un model d’accés basat en identitat, verificació i desplegament progressiu.
Aquest enfocament no és improvisat. Forma part d’una estratègia que OpenAI ha anat construint durant mesos. El febrer de 2026, la companyia va introduir formalment Trusted Access for Cyber com un marc per reduir la fricció que les salvaguardes automàtiques generaven en tasques legítimes de ciberdefensa. El problema era evident: moltes accions pròpies de la seguretat —com cercar vulnerabilitats o reproduir vectors d’atac per validar defenses— són intrínsecament ambigües. Poden ser part d’una auditoria responsable o d’una activitat ofensiva. TAC neix per gestionar aquesta ambigüitat sense eliminar els controls.
Ara, amb l’ampliació del programa, OpenAI fa un pas més. L’empresa assegura que està escalant TAC per donar cobertura a milers de defensors verificats i centenars d’equips encarregats de protegir software crític. Ja no es tracta d’un programa pilot reduït, sinó d’una arquitectura d’accés diferenciada que pot tenir impacte a escala sectorial. L’objectiu és doble: democratitzar l’accés defensiu i mantenir un desplegament controlat a mesura que els models es tornen més potents.
El nucli del moviment és GPT-5.4-Cyber. Aquesta variant està dissenyada per ampliar les capacitats operatives dels equips de seguretat en tasques d’alt valor tècnic, incloent-hi l’enginyeria inversa binària. Aquesta funció és especialment sensible perquè permet analitzar software compilat per detectar comportaments maliciosos o vulnerabilitats sense accedir al codi font. Això situa el model en un territori tradicionalment reservat a analistes de malware, equips de resposta a incidents i laboratoris forenses.
Aquest canvi té implicacions industrials importants. En molts entorns corporatius, el que arriba als equips de seguretat no és el codi original, sinó binaris, llibreries o components de tercers. Poder analitzar-los amb un model especialitzat pot accelerar enormement la detecció de riscos, la priorització de vulnerabilitats i la resposta davant amenaces. OpenAI parla de “fluxos defensius avançats”, però en realitat està apuntant a una transformació del treball de ciberseguretat.
Ara bé, aquest salt també implica més risc. Per això OpenAI insisteix que l’accés a GPT-5.4-Cyber serà limitat i progressiu. Només organitzacions i professionals verificats podran accedir a aquests nivells, i sempre sota condicions estrictes. A més, la companyia adverteix que aquest tipus d’accés pot veure’s restringit en entorns amb poca visibilitat operativa, com els sistemes de Zero Data Retention, on el control i la supervisió són més difícils.
Aquest equilibri entre capacitat i control és clau. OpenAI fa temps que adverteix que les capacitats de ciberseguretat dels seus models estan millorant ràpidament. En el seu marc de preparació, ja contempla escenaris on els models podrien ajudar a desenvolupar exploits complexos o facilitar intrusions sofisticades. Davant d’aquest risc, l’empresa aposta per una estratègia de defensa en profunditat: control d’accés, monitorització, infraestructura segura i desplegament gradual.
El moviment també s’inscriu en una estratègia més àmplia. OpenAI ha invertit en programes com el Cybersecurity Grant Program i ha desenvolupat eines com Codex Security (anteriorment Aardvark), un sistema agentic capaç de detectar vulnerabilitats, avaluar-ne l’impacte i proposar solucions. Segons la companyia, aquest sistema ja ha contribuït a identificar i corregir milers de vulnerabilitats crítiques. La combinació és clara: models més potents, accés més selectiu i eines operatives integrades.
Tot plegat apunta a una evolució del rol de la IA en ciberseguretat. Ja no es tracta només d’assistir analistes, sinó de formar part activa del sistema de defensa. Això situa OpenAI en una nova posició dins del mercat: no només com a proveïdor de models generalistes, sinó com a actor en la infraestructura de seguretat digital.
Tanmateix, la clau continua sent la governança. GPT-5.4-Cyber és més permissiu, i això obliga a reforçar els mecanismes de control. OpenAI manté prohibicions clares sobre usos maliciosos, com la creació de malware o l’explotació de sistemes sense autorització, però reconeix implícitament que la frontera entre ús legítim i abús és cada cop més fina.
Des d’un punt de vista estratègic, aquest moviment reflecteix la maduresa del sector. La ciberseguretat en IA ja no és un cas d’ús secundari: és un camp central que requereix models especialitzats, accés controlat i una governança sofisticada. En aquest escenari, la confiança es converteix en una capa estructural del producte.
Per als equips de seguretat, la novetat més rellevant és la creació d’una jerarquia d’accés basada en confiança. Des de la verificació individual fins a l’accés avançat a models especialitzats, OpenAI està definint un sistema on la capacitat depèn del grau d’acreditació i del context d’ús. Aquesta arquitectura pot marcar el futur del desplegament de la IA en àmbits sensibles.
La gran incògnita és si aquest model aconseguirà equilibrar velocitat i seguretat. OpenAI sosté que sí, però reconeix que les capacitats continuaran evolucionant i que caldran mesures encara més robustes en el futur. El que està en joc no és només un producte, sinó una manera de desplegar IA en un dels camps més crítics de l’economia digital.
En última instància, el moviment apunta a una transformació més profunda: la batalla de la intel·ligència artificial no es decidirà només en qui genera millor contingut, sinó en qui és capaç de protegir millor els sistemes que sostenen el món digital. I en aquest escenari, OpenAI vol jugar un paper central, però amb una condició clara: més poder per defensar, només per a qui pugui demostrar que està defensant.