Skip to main content

Sam Altman va escriure a X “Aviat podràs personalitzar el to i la personalitat de ChatGPT. I per als nostres usuaris adults que desitgin una IA eròtica (i estiguin disposats a verificar la seva edat), això també arribarà.” La frase va ser breu, però l’eco no va trigar a expandir-se. El CEO d’OpenAI anunciava així un doble moviment, més personalització en la veu de la IA i la possibilitat d’activar un mode eròtic, només disponible per a adults verificats.

We made ChatGPT pretty restrictive to make sure we were being careful with mental health issues. We realize this made it less useful/enjoyable to many users who had no mental health problems, but given the seriousness of the issue we wanted to get this right.

Now that we have…

— Sam Altman (@sama) October 14, 2025

 

Ajustar el to, sense tocar el motor

OpenAI ha confirmat que els usuaris podran adaptar l’estil de resposta de ChatGPT, més informal, més directe, amb picades d’ullet emocionals o un to més tècnic. No es tracta de reprogramar la IA, sinó d’ajustar la seva «veu». Les regles internes continuaran sent les mateixes, però la presentació es personalitza.

És una extensió del que ja existeix avui, ChatGPT ofereix perfils de «personalitat» que alteren el to, no el contingut. Segons la documentació oficial, aquesta funció no canvia els filtres ni la informació, només l’embolcall comunicatiu.

Mode eròtic per a majors d’edat

L’aspecte que ha generat més titulars és que, segons Reuters, a partir de desembre de 2025, els usuaris verificats com a adults podran activar un mode de conversa eròtica. No estarà actiu per defecte. Requerirà una verificació d’edat que OpenAI encara no ha detallat. Segons Reuters, aquesta opció permetrà que el model mantingui diàlegs amb contingut sexual si l’usuari ho sol·licita expressament. Altman ha insistit que es farà només sota demanda i amb controls per evitar accessos indeguts.

Dades delicades i mecanismes de protecció

OpenAI afirma que aplicarà salvaguardes addicionals en aquestes funcions. Si el sistema detecta senyals d’angoixa o temes delicats, passarà automàticament a un mode més segur. S’incorporaran filtres contextuals per avaluar cada conversa. No és la primera vegada que s’enfronten a aquest dilema, l’abril de 2025, un error va permetre que menors accedissin a contingut explícit per error. L’empresa va assegurar haver corregit el problema. També al febrer es van relaxar les normes de contingut per permetre descripcions sexuals en contextos creatius, històrics o educatius.

Llibertat creativa o frontera difusa

L’obertura a aquest tipus de contingut planteja tensions. D’una banda, alguns usuaris reclamen més llibertat per explicar històries sense censura automàtica. D’altra banda, especialistes en salut mental adverteixen que la relació emocional amb una IA pot tornar-se dependent, especialment en contextos de solitud o vulnerabilitat. També hi ha la qüestió legal: què implica que una empresa amb seu als EUA permeti contingut sexual conversacional? Com es regula el consentiment entre humà i model? Les lleis no estan dissenyades per a aquest tipus d’interacció.

Ecos internacionals i una conversa que comença

El model Grok, desenvolupat per xAI (l’empresa d’Elon Musk), ja va implementar un mode visual anomenat spicy, que permet generar imatges i vídeos amb nus i escenes sexualitzades. Aquesta funció va provocar una onada de crítiques després de descobrir-se que podia ser utilitzada per crear deepfakes i contingut no sol·licitat.

El cas Grok serveix com a mirall i advertència. Mentre OpenAI es prepara per introduir converses eròtiques en format text, Grok explora camins similars en el visual. Les reaccions regulatòries i els errors detectats en spicy mode anticipen els reptes que vindran: com evitar abusos, com aplicar filtres robustos, com definir el consentiment en una interacció amb IA.

Mitjans com The Verge, Reuters o Business Insider han recollit l’anunci d’Altman com un gir important. Mentrestant, fòrums de desenvolupadors discuteixen ja si hauria d’existir un mode encara més explícit, amb menys restriccions, per a usuaris que ho sol·licitin. OpenAI insisteix que no es tracta d’obrir la veda, sinó de confiar en el criteri adult de l’usuari. Però el debat està servit. La línia entre una IA assistent i una IA confident, fins i tot còmplice, es torna cada vegada més prima.

Obre un parèntesi en les teves rutines. Subscriu-te a la nostra newsletter i posa’t al dia en tecnologia, IA i mitjans de comunicació.

Leave a Reply