Des de gener de 2026, ChatGPT ha començat a estimar si un compte pertany a un menor d’edat, fins i tot sense que l’usuari ho declari. El canvi forma part d’una estratègia més àmplia d’OpenAI per adaptar l’experiència d’ús segons l’edat, aplicant noves proteccions automàtiques. Aquesta funció obre el debat sobre privacitat, algoritmes i el paper de la intel·ligència artificial en la vida digital dels adolescents.
La nova intuïció de la IA
No es tracta d’una simple casella d’edat. El sistema de predicció utilitza un model que analitza senyals de comportament com el temps d’existència del compte, els horaris d’ús o els patrons d’interacció. Amb aquesta informació, el sistema estima si qui està darrere de la pantalla té menys de divuit anys. Si la resposta és sí, aplica una versió més restringida de ChatGPT, sense necessitat de verificació directa per part de l’usuari. Aquest sistema està actiu per defecte en els comptes personals de ChatGPT i s’inspira en iniciatives prèvies d’OpenAI, com el Teen Safety Blueprint i els principis de comportament per a menors de 18.
Un filtre que canvia l’experiència
Quan el sistema detecta que un usuari podria ser menor, activa proteccions que limiten l’accés a contingut considerat sensible. Això inclou temes com violència gràfica, reptes virals perillosos, jocs de rol de contingut sexual o violent, autolesions o estàndards extrems de bellesa.
En els casos en què el model no té certesa, s’aplica per defecte la versió amb salvaguardes. L’objectiu és minimitzar el risc sense requerir dades addicionals, encara que la decisió es basa en inferències automatitzades.
Si el sistema s’equivoca
Els adults que siguin classificats erròniament com a menors poden verificar la seva edat mitjançant una selfie a través de Persona, un servei extern de verificació. OpenAI afirma que no reté la imatge ni el document i que només rep la confirmació que l’usuari és major d’edat. El procés està disponible des del menú de configuració de compte. Aquest pas busca equilibrar la protecció de menors amb el respecte a la privacitat i l’experiència dels adults, encara que introdueix un nou nivell d’interacció amb sistemes automatitzats d’identificació.
Controls per a famílies i un pas cap al mode adult
A més del sistema automàtic, OpenAI ofereix controls parentals opcionals. Aquests permeten definir horaris d’ús, limitar funcions específiques o rebre alertes si es detecten senyals d’angoixa o risc. Funcionen com a complement al model de predicció, oferint un marc de supervisió més ampli per a adolescents.
La predicció d’edat també prepara el terreny per a un futur «mode adult» en ChatGPT, on certs continguts estaran disponibles només després de verificació explícita. És a dir, el sistema no només filtra, també segmenta.
Decidir sense preguntar
El moviment d’OpenAI s’inscriu en una tendència global on les plataformes intenten protegir menors sense demanar-los directament que confirmin la seva edat. El model automatitzat evita friccions, però planteja dilemes sobre privacitat, precisió i transparència. Quines dades s’utilitzen, com s’interpreten i fins on pot arribar una inferència són preguntes que no desapareixen, encara que la intenció sigui protegir.