Un creuament delicat entre autonomia i protecció
La intel·ligència artificial ha obert noves formes d’aprendre, crear i conversar. Però també ha complicat velles preguntes. Quanta llibertat és massa? Quanta protecció és suficient? OpenAI, una de les empreses que lideren el desenvolupament de models conversacionals com ChatGPT, acaba d’exposar la seva visió sobre l’ús d’aquestes eines per part d’adolescents. La tensió és evident i proposen oferir un espai segur sense ofegar la curiositat ni comprometre la privacitat.
“Si parles amb un metge sobre el teu historial clínic o amb un advocat sobre un problema legal, s’ha decidit que el millor per a la societat és que aquesta informació estigui protegida amb privilegis especials i alts nivells de confidencialitat. Creiem que aquest mateix nivell de protecció s’ha d’aplicar a les converses amb una IA, ja que cada vegada més persones recorren a aquests sistemes amb preguntes delicades i preocupacions privades. Estem defensant aquesta postura davant els legisladors», argumenta Sam Altman.
Una IA que es fixa en els gestos
No caldrà pujar un DNI. OpenAI treballa en un sistema que, observant com s’utilitza l’eina, intentarà deduir si qui està a l’altre costat és menor d’edat. Si hi ha dubtes, la IA aplicarà restriccions com si ho fos. Es tracta de prevenir riscos des del disseny, sense demanar credencials d’entrada.
Quan la llei ho exigeixi —perquè no tots els països marquen el mateix llindar— es podrà demanar una verificació més formal. Admeten que és una concessió en privacitat per als adults. Però la justifiquen com a part d’un deure major.
Controls parentals i apagades programades
Durant setembre, OpenAI implementarà controls parentals opcionals per a adolescents des dels 13 anys. Els comptes podran vincular-se amb la d’un pare o tutor, qui podrà:
- Ajustar com respon ChatGPT, segons criteris apropiats per edat.
- Desactivar funcions com la memòria del xat o l’historial de converses.
- Rebre notificacions si es detecten senyals d’angoixa greu.
- Establir horaris en què la IA no es podrà utilitzar (“blackout hours”).
En cas extrem, si no és possible contactar amb un tutor i s’identifica un risc imminent, es podrà involucrar les autoritats, com a policia o serveis d’emergència.
Zones vedades, fins i tot en la ficció
La proposta d’OpenAI inclou límits segons l’edat. Temes com suïcidi, autolesió o sexualitat explícita quedaran fora de l’abast adolescent, fins i tot si es formulen com a ficció o curiositat narrativa. El que seria una resposta permesa per a adults, aquí es bloqueja o suavitza.
I si el sistema detecta senyals de risc —una frase que insinuí desesperació, una cerca que soni a crit—, s’activarà una cadena de resposta. Primer, cal avisar els tutors. Si això falla i hi ha perill immediat, s’avisarà les autoritats. La IA, diuen, no mirarà cap a un altre costat.
Promesa de privacitat, però amb doble fons
L’empresa assegura que vol una privacitat «al nivell de la consulta mèdica o legal». És a dir, confidencialitat gairebé absoluta. Però hi ha una excepció, si els sistemes automàtics detecten amenaces greus —a un mateix o a altres— podran activar revisió humana. El marge és fi. Prou obert per intervenir quan toca, prou tancat per no envair sense motiu. En teoria.
Preguntes que la IA encara no pot contestar
L’enfocament recorda al de xarxes socials amb controls parentals o filtres d’edat. Però la IA generativa afegeix un ingredient diferent. Aquí no es modera contingut preexistent, sinó que es genera al moment, segons la conversa. És més difícil preveure, més difícil limitar.
I aquí sorgeixen preguntes. Quina precisió tindrà l’estimació d’edat? Qui decideix què es pot explicar i què no en una història fictícia? Què passa si un menor expressa malestar sense utilitzar les paraules clau que activen les alarmes? Com s’evitaran falsos positius? I qui vigila que les excepcions no es converteixin en norma?
Podar per créixer, sense tallar de més
OpenAI ho resumeix amb una metàfora de jardineria: cal podar perquè l’arbre creixi fort. El símil és transparent. Amb la intenció de limitar per cuidar. Però en cada tall hi ha una decisió. I si es talla una branca que encara no sabíem necessària? La IA pot ser refugi o perill, guia o filtre. Sobretot quan qui pregunta és algú que encara està descobrint què pot dir, què pot imaginar i fins on pot arribar.
Obre un parèntesi en les teves rutines. Subscriu-te al nostre butlletí i posa’t al dia en tecnologia, IA i mitjans de comunicació.