El nou mode adult de ChatGPT permetria converses pujades de to en text, però no generarà pornografia ni contingut explícit multimèdia; tot i així, el projecte ha provocat una forta discussió interna a OpenAI sobre els seus riscos psicològics i socials.
L’evolució dels assistents d’intel·ligència artificial està entrant en una zona cada vegada més delicada: la de la intimitat emocional, les relacions digitals i els límits del contingut adult. En aquest context, OpenAI torna a estar al centre de la polèmica després que s’hagin filtrat nous detalls sobre l’anomenat mode adult de ChatGPT, una funcionalitat que permetria converses de caràcter eròtic o suggerent entre usuaris adults i el xatbot.
Tanmateix, lluny de tractar-se d’un llançament tecnològic més, el projecte ha obert un intens debat dins de la mateixa companyia. Segons va revelar The Wall Street Journal, executius d’OpenAI i membres del seu consell assessor de benestar van protagonitzar un dur enfrontament a començaments d’aquest any pels possibles efectes psicològics i socials d’aquesta nova modalitat.
El desacord no gira únicament entorn del contingut sexual que podria generar la IA, sinó sobre una cosa més profunda: el risc que els usuaris desenvolupin dependència emocional envers els sistemes conversacionals, especialment quan aquests adopten un to íntim, empàtic o seductor.
Un debat intern que reflecteix un problema més gran
Segons la informació publicada pel diari nord-americà, diversos assessors externs especialitzats en benestar digital van advertir la companyia dirigida per Sam Altman que el mode adult podria intensificar els problemes de dependència emocional que ja s’han detectat en alguns usuaris de xatbots.
Un dels experts citats en la discussió interna va arribar a utilitzar una expressió especialment dura: va afirmar que, si OpenAI seguia endavant amb el projecte sense prou salvaguardes, corria el risc de crear un “entrenador de suïcidis sexi”.
La frase, tan polèmica com reveladora, al·ludeix a les controvèrsies que han envoltat el sector de la intel·ligència artificial conversacional en els darrers anys. En diversos casos àmpliament difosos, persones en situacions de vulnerabilitat emocional van mantenir interaccions intenses amb xatbots abans de suïcidar-se. Encara que no existeix evidència de causalitat directa en tots els casos, aquests episodis han obligat les empreses d’IA a reconsiderar l’impacte psicològic dels seus productes.
El debat dins d’OpenAI reflecteix fins a quin punt la indústria tecnològica s’enfronta a un dilema complex: els sistemes conversacionals són cada vegada més capaços de simular empatia, afecte i proximitat emocional, però aquestes mateixes capacitats poden generar vincles problemàtics quan els usuaris comencen a tractar la IA com a substitut de les relacions humanes.
Un mode adult… però sense pornografia
Malgrat la controvèrsia, el projecte continua endavant, encara que amb canvis importants respecte de la idea inicial.
Segons els detalls revelats en el mateix informe del Wall Street Journal, el mode adult de ChatGPT tindria restriccions significatives que impedirien la generació de contingut pornogràfic explícit.
La modalitat permetria mantenir converses suggerents o pujades de to en format textual, però la IA no podria generar:
- imatges sexuals explícites
- vídeos pornogràfics
- àudios eròtics
- contingut visual de caràcter sexual
En altres paraules, el sistema podria participar en converses amb un cert contingut eròtic, però sempre dins de límits estrictes definits per les polítiques de seguretat d’OpenAI.
Aquesta decisió respon a un problema evident: permetre la generació de material pornogràfic mitjançant IA obriria la porta a abusos greus, com la creació de contingut sexual no consentit o la producció de material relacionat amb menors.
El risc és particularment sensible en el cas d’eines generatives que poden crear imatges o vídeos hiperrealistes. Per aquesta raó, OpenAI sembla haver optat per limitar el mode adult exclusivament al text, una decisió que redueix el risc tècnic, tot i que no elimina els dilemes ètics.
El problema de verificar l’edat
Un dels obstacles més importants per implementar el mode adult de ChatGPT no té a veure amb el contingut en si, sinó amb la verificació de l’edat.
OpenAI ha estat treballant en sistemes automatitzats capaços de determinar si un usuari és major d’edat, però segons les filtracions citades pel Wall Street Journal, els resultats encara són lluny de ser fiables.
En les proves realitzades per la companyia, el sistema de predicció d’edat ha classificat erròniament com a adults comptes pertanyents a menors en aproximadament el 12 % dels casos.
Aquest marge d’error podria tenir conseqüències significatives.
ChatGPT té desenes de milions d’usuaris setmanals. Si el sistema de verificació falla en una proporció similar a gran escala, milions de menors podrien accedir a converses explícites destinades exclusivament a adults.
Per a una empresa que ja es troba sota l’escrutini constant de reguladors i legisladors, aquest escenari representa un risc reputacional i legal considerable.
Un llançament ajornat
Inicialment, OpenAI tenia previst llançar el mode adult durant el primer trimestre del 2026. Tanmateix, la companyia va decidir ajornar-ne el desenvolupament.
Oficialment, el motiu de l’ajornament és que OpenAI ha optat per concentrar-se en altres prioritats tecnològiques, entre les quals millores en els seus models de raonament i noves eines empresarials.
Però dins de la indústria tecnològica molts interpreten el retard d’una altra manera: com un intent d’evitar una polèmica innecessària en un moment particularment sensible per a l’empresa.
OpenAI es troba en plena expansió del seu negoci corporatiu i fa temps que s’especula amb una possible sortida a borsa en els pròxims anys. Llançar una funcionalitat potencialment controvertida abans d’aquest moment podria incomodar inversors institucionals.
Algunes fonts del sector creuen fins i tot que la companyia podria esperar fins després d’una eventual OPV per introduir el mode adult, quan l’impacte reputacional sigui menys crític.
El dilema dels xatbots emocionals
Més enllà del cas concret de ChatGPT, el debat reflecteix una qüestió molt més àmplia: el paper de les relacions emocionals en la intel·ligència artificial.
En els darrers anys han sorgit aplicacions dissenyades explícitament per oferir companyia emocional mitjançant xatbots. Plataformes com Replika o Character AI han demostrat que existeix una demanda significativa de sistemes capaços de mantenir converses íntimes o romàntiques.
Per a algunes persones, aquestes eines funcionen com una forma de suport emocional. Per a d’altres, es converteixen en substituts problemàtics de les relacions humanes.
El desafiament per a companyies com OpenAI consisteix a trobar un equilibri entre oferir experiències conversacionals més naturals i evitar que aquestes interaccions generin dependències psicològiques perjudicials.
Reguladors i legisladors observen de prop
La polèmica entorn del mode adult de ChatGPT també arriba en un moment en què els reguladors examinen amb una atenció creixent l’impacte social de la intel·ligència artificial.
A Europa, l’AI Act estableix obligacions estrictes per als sistemes que puguin afectar menors o generar manipulació emocional. Als Estats Units, diversos estats han començat a estudiar lleis específiques per regular l’ús de xatbots en contextos sensibles.
Si les plataformes conversacionals comencen a oferir interaccions més íntimes o emocionalment intenses, és probable que l’escrutini regulatori augmenti.
Per a OpenAI, això significa que qualsevol nova funcionalitat s’ha d’avaluar no només des del punt de vista tècnic, sinó també des de la perspectiva de la seguretat, el benestar i la responsabilitat social.
Una decisió que marcarà el futur dels assistents d’IA
El mode adult de ChatGPT encara no té una data definitiva de llançament, però el debat que ha provocat dins d’OpenAI ja anticipa una cosa important: el futur de la intel·ligència artificial conversacional no dependrà únicament de la seva capacitat tècnica.
També estarà determinat per les decisions ètiques sobre quin tipus de relacions volem permetre entre humans i màquines.
A mesura que els sistemes d’IA es tornen més sofisticats i capaços d’imitar emocions humanes, la línia entre eina tecnològica i company digital esdevé cada vegada més difusa.
La discussió dins d’OpenAI mostra que fins i tot les companyies que lideren el desenvolupament d’aquestes tecnologies encara intenten respondre aquesta pregunta.