Skip to main content

Quan OpenAI va presentar ChatGPT Atlas, el seu navegador web impulsat per intel·ligència artificial, ho va fer amb ambició, un assistent capaç de llegir pàgines, interactuar amb interfícies i executar tasques complexes en nom de l’usuari. Aquesta visió de productivitat expandida va obrir també un terreny de tensió amb la seguretat digital, on els riscos ja no depenen només del codi, sinó del llenguatge i la seva interpretació automàtica.

Un navegador que interpreta… i també es pot confondre

L’autonomia d’Atlas l’allunya dels navegadors tradicionals. Pot llegir, decidir i actuar. Aquesta capacitat, però, implica que qualsevol contingut que processi —des d’una web fins a un correu electrònic— pot amagar instruccions dissenyades per alterar el seu comportament. A això se li diu prompt injection.

En aquests atacs, els comandaments maliciosos no es veuen com a tal. Es camuflen dins del text, llestos per ser interpretats com a ordres. A diferència d’un usuari humà, la IA pot obeir-los sense dubtar, cosa que obre la porta a enviaments no autoritzats, modificacions de contingut o accessos indeguts.

Comandaments camuflats en enllaços, text i cerques

Aquest tipus de vulnerabilitat no és hipotètica. Investigacions externes han mostrat com Atlas pot ser induït a actuar a partir d’enllaços o fragments de text dissenyats amb intenció. Alguns exemples utilitzen l’omnibox —la barra que combina adreça i cerca— per injectar comandaments ocults que, en ser llegits com a legítims, desencadenen accions no desitjades. En aquest escenari, el navegador no només interpreta la web. També pot ser dirigit des d’ella.

Una IA que ataca una altra IA per entrenar defenses

Per respondre a aquest desafiament, OpenAI ha optat per una estratègia de hardening: reforçar el sistema mitjançant un cicle continu de detecció, correcció i millora. Al centre d’aquesta tàctica hi ha un atacant automàtic basat en IA, dissenyat per crear intents sofisticats de prompt injection.

Aquests atacs simulats serveixen per entrenar models adversarials que enforteixen l’agent davant amenaces reals. Cada vector detectat es converteix en una oportunitat per ajustar filtres, redefinir comportaments i blindar el navegador sense frenar la seva funcionalitat.

Consells perquè l’usuari no sigui la porta d’entrada

Juntament amb les seves pròpies defenses, OpenAI proposa mesures pràctiques per als usuaris. Algunes són tècniques —evitar sessions actives en utilitzar Atlas, llegir amb atenció les confirmacions— i altres tenen a veure amb la manera d’interactuar, com més precisa és una instrucció, menys espai deixa a l’ambigüitat que els atacants busquen explotar. Aquestes recomanacions no eliminen el risc, però sí que el dificulten.

Seguretat en moviment, no en repòs

OpenAI no ven falses seguretats. Reconeix que els prompt injections són una amenaça persistent, com la pesca de dades o el frau en línia. No hi ha una solució única, sinó una vigilància constant. Per això, el treball en Atlas no es planteja com una meta tancada, sinó com un procés en marxa. Entre la promesa d’automatitzar tasques i el risc de manipulació, l’ús d’aquests navegadors exigeix noves formes de llegir, entendre i decidir. És, en el fons, una nova alfabetització digital en construcció.

Obre un parèntesi en les teves rutines. Subscriu-te al nostre butlletí i posa’t al dia en tecnologia, IA i mitjans de comunicació.

Leave a Reply