La recent advertència del CEO d’OpenAI, Sam Altman, ha encès les alarmes sobre l’ús de ChatGPT com a eina d’acompanyament emocional. En un episodi del podcast This Past Weekend with Theo Von, Altman va explicar que les interaccions amb ChatGPT no compten amb la protecció legal equivalent a la que ofereixen professionals com metges, advocats o psicòlegs, cosa que significa que aquestes converses podrien ser sol·licitades per tribunals.
Altman assenyala que moltes persones, especialment joves, han arribat a emprar la IA com si fos el seu terapeuta o coach emocional. Relaten els seus problemes personals i busquen orientació sobre relacions o salut mental, sense ser conscients que aquestes converses no gaudeixen de privilegi legal com passa en la relació metge–pacient o advocat–client.
Segons informa Fast Company, encara que molts usuaris senten que han trobat un espai de confiança, aquestes converses podrien ser revelades davant una demanda, ja que no existeixen garanties legals com el secret professional. Altman va arribar a afirmar: “Si fas servir ChatGPT per parlar de les teves coses més sensibles i després hi ha una demanda, podríem estar obligats a produir-les, i em sembla molt malament”, recalcant la necessitat urgent d’establir un marc legal clar.
OpenAI enfronta una batalla legal amb The New York Times, que exigeix la retenció indefinida dels registres de conversa de milions d’usuaris, fins i tot si aquests han estat esborrats per l’usuari. La companyia està apel·lant aquesta exigència, argumentant que es tracta d’un excés judicial que amenaça la privacitat de l’usuari.
L’article de Fast Company subratlla que, a diferència dels missatges xifrats d’extrem a extrem en plataformes com WhatsApp o Signal, les converses en ChatGPT no estan encriptades d’aquesta manera i OpenAI pot accedir-hi per entrenar models o vigilar usos indeguts.
El contrast entre la sensació subjectiva d’intimitat de l’usuari i la realitat legal és notable: moltes persones fan servir el chatbot per tractar emocions, però sense fonament legal que recolzi el concepte de confidencialitat. Altman adverteix del potencial dany a la salut mental d’aquesta pràctica i el risc de dependència emocional o desinformació en situacions delicades.
Finalment, Altman reclama que s’ha de legislar amb urgència per establir estàndards de privacitat apropiats per a la intel·ligència artificial, equiparables als existents en professions regulades. La falta de definició en aquest terreny pot desencoratjar l’ús responsable d’IA en àmbits sensibles.
Obre un parèntesi en les teves rutines. Subscriu-te al nostre butlletí i posa’t al dia en tecnologia, IA i mitjans de comunicació.