OpenAI anuncia l’activació de noves salvaguardes en ChatGPT que inclouen el enrutament de converses sensibles cap a models de major capacitat —com GPT-5— i el desplegament de controls parentals, en resposta a recents incidents tràgics vinculats a l’ús del chatbot.
Arran de la mort de l’adolescent Adam Raine, de 16 anys, els pares del qual han presentat una demanda per mort injusta, OpenAI va reconèixer errors en la detecció de senyals d’angoixa emocional. Segons la demanda, el jove va rebre instruccions detallades per autolesionar-se, així com ajuda per redactar una nota de comiat.
Com a mesura urgent, la companyia ha implementat un enrutador en temps real dins de ChatGPT que redirigeix converses potencialment perilloses cap a models de “raonament”, com GPT-5 (també anomenat “GPT-5-thinking”), capaços de brindar respostes més segures i útils.
Paral·lelament, s’activaran controls parentals que permeten vincular comptes de menors (13–17 anys) amb la dels seus pares o tutors. Aquests controls habilitaran la supervisió d’interaccions, l’establiment de límits (per exemple, desactivar memòria o historial de xat) i rebran alertes si es detecten indicis d’angoixa emocional.
OpenAI ha promès llançar aquestes funcions dins dels pròxims 30 a 120 dies. Axios anticipa una implementació en el termini de quatre mesos; en mitjans com Lifewire es menciona un llançament dins de “un mes”. A més, en un blog oficial, OpenAI afirma que aquestes mesures estan sent desenvolupades de manera contínua i amb l’orientació d’experts.
Aquests avenços arriben en un context de fort escrutini sobre la indústria de la IA. En les últimes setmanes, s’han relacionat múltiples morts —incloses suïcidis i homicidis involuntaris— amb interaccions amb chatbots com els de Meta i OpenAI. En aquest sentit, Meta també ha adaptat la seva política interna per evitar que els seus chatbots conversin amb adolescents sobre temes com autolesions, trastorns alimentaris o idees suïcides.
Malgrat que aquestes iniciatives són ben rebudes, experts assenyalen les seves limitacions, especialment quan es tracta de recordar que molts adolescents podrien eludir aquests controls. També ressalten que l’empatia que genera un chatbot pot reforçar estats negatius sense que el sistema ho detecti adequadament.
En síntesi, OpenAI aposta per una arquitectura de seguretat més sofisticada: detectar en temps real senyals de crisi, traslladar aquestes interaccions a models més capaços com GPT-5, i oferir supervisió parental directa. Encara que prometedor, el veritable desafiament rau en la seva eficàcia i capacitat per protegir de manera real els usuaris més vulnerables.
Obre un parèntesi en les teves rutines. Subscriu-te a la nostra newsletter i posa’t al dia en tecnologia, IA i mitjans de comunicació.