Skip to main content

OpenAI ha fet un pas significatiu en la seva estratègia de seguretat digital. A partir d’ara, els pares podran vincular el seu compte amb el del seu fill adolescent a ChatGPT, activant un conjunt d’eines pensades perquè l’experiència amb intel·ligència artificial sigui més segura, més personalitzada i més apropiada per als menors d’edat.

L’objectiu és clar: equilibrar la innovació tecnològica amb la protecció dels usuaris més joves. En un context en què els adolescents interactuen diàriament amb models de llenguatge com ChatGPT, la companyia busca oferir opcions reals d’acompanyament i supervisió.

Un compte, dos accessos: com funciona la connexió familiar

El sistema parteix d’una acció senzilla: un pare o tutor envia una invitació a l’adolescent per connectar els comptes. Un cop acceptada, s’activa automàticament una sèrie de salvaguardes, i l’adult obté accés a un panell des d’on pot ajustar diferents aspectes de l’ús.

La connexió no és permanent. L’adolescent pot optar per desvincular-se en qualsevol moment. Si ho fa, el sistema envia una notificació immediata a l’adult responsable. Un mecanisme pensat per mantenir l’equilibri entre autonomia i supervisió.

Panell de control: filtres, horaris i configuracions clau

Des de la interfície de gestió, l’adult pot aplicar diverses restriccions personalitzades:

  • Horaris d’ús: es poden establir franges del dia en què ChatGPT no estarà disponible.
  • Desactivació de funcions: és possible inhabilitar el mode de veu o la generació i edició d’imatges.
  • Privacitat de dades: els pares poden impedir que les converses de l’adolescent s’utilitzin per entrenar els models d’IA.
  • Control de memòria: també es pot aturar la funció de memòria, que guarda informació entre sessions.

Aquests ajustos són opcionals i modificables, cosa que permet a cada família adaptar l’experiència segons el seu context.

Filtres automàtics per a continguts delicats

En vincular els comptes, s’activen salvaguardes automàtiques que filtren continguts potencialment inadequats per a adolescents. Aquestes inclouen la reducció de referències gràfiques, romàntiques, violentes o sexualitzades, així com l’atenuació de desafiaments virals perillosos o estàndards de bellesa poc saludables.

Aquestes proteccions s’apliquen de forma predeterminada i no poden ser modificades des del compte de l’adolescent, encara que l’adult sí pot ajustar-les o desactivar-les si ho considera necessari.

Sistema d’alertes per a situacions de risc

Una de les novetats més rellevants és la incorporació d’un sistema de detecció de possibles senyals d’autolesió o altres riscos greus. Quan es detecta una activitat que pugui indicar una situació crítica, un equip especialitzat revisa l’alerta. Si es confirma, s’envia una notificació a l’adult a través de correu electrònic, SMS o notificació push.

OpenAI adverteix que poden produir-se falses alarmes, però ha optat per prioritzar la intervenció en escenaris potencialment perillosos. En el futur, també es contempla la possibilitat de contactar amb serveis d’emergència si l’adult no respon.

Un full de ruta per detectar edat i prevenir riscos

Com a part del seu compromís amb la seguretat, OpenAI planeja desenvolupar un sistema de predicció d’edat. La seva funció serà identificar automàticament els usuaris menors de 18 anys i activar les restriccions adequades sense necessitat d’intervenció externa.

Aquesta mesura ampliarà la cobertura del sistema, assegurant que fins i tot en comptes sense vinculació parental s’apliquin criteris de seguretat acordes a l’edat de l’usuari.

Obre un parèntesi en les teves rutines. Subscriu-te a la nostra newsletter i posa’t al dia en tecnologia, IA i mitjans de comunicació.

Leave a Reply