Un tribunal dels Estats Units va ordenar a OpenAI conservar totes les converses mantingudes a ChatGPT, incloses les que l’usuari va decidir esborrar. La mesura, dictada en plena disputa legal amb The New York Times, desfà una promesa tàcita, que el que s’escrivia al xatbot quedava entre tu i la màquina. No hi ha dret a l’oblit en la intel·ligència artificial.
El que vas dir ja no desapareix
L’ordre judicial es va emetre el maig de 2025, però ha tornat a escena per dues raons. Primer, per les recents declaracions de Sam Altman, que reobren el debat sobre la confidencialitat dels xats. I, en segon lloc, l’aclariment d’OpenAI sobre quins comptes estan afectats i com s’està gestionant aquesta retenció de dades. Més que una novetat, és una actualització amb conseqüències encara en curs.
Des de maig, OpenAI està obligat a guardar tots els registres de ChatGPT, sense límit de temps. L’ordre inclou els missatges eliminats, les sessions temporals i els historials d’usuaris que mai van activar el desament. Encara que fins ara la política deia que s’esborraven 30 dies després, aquesta clàusula ja no aplica. Això afecta qualsevol usuari que no tingui un contracte empresarial amb “retenció zero”. És a dir, a gairebé tothom.
El que es prometia (i el que s’incompleix)
OpenAI assegurava que no emmagatzemava xats més enllà del necessari per “millorar el servei” o detectar abusos. Si algú eliminava una conversa, desapareixia. Això deia la lletra petita. Però el conflicte legal amb The New York Times ho va canviar tot. Un jutge federal va ordenar preservar totes les dades per al seu possible ús en judici. Les promeses es tornen opcionals quan intervé un tribunal.
L’empresa ha presentat una apel·lació. Al·lega que l’ordre judicial contradiu la seva política de privacitat i posa en dubte la confiança de milions d’usuaris.
Quan el xatbot es converteix en testimoni
En una entrevista recent, Sam Altman—CEO d’OpenAI—va admetre que les converses amb ChatGPT no estan protegides per cap privilegi legal. No és un advocat. Ni un terapeuta. Ni un metge. “No hem resolt això encara”, va dir. En altres paraules: si un fiscal ho demana, el teu historial pot parlar.
I encara que tu l’hagis esborrat, OpenAI pot haver-lo guardat.
Precedents que ja han deixat empremta
No és una hipòtesi. El 2023, dos advocats van presentar davant un tribunal de Nova York textos generats per ChatGPT amb jurisprudència falsa. El jutge els va multar amb 5.000 dòlars i els va obligar a formar-se sobre IA. No és que el xatbot mentís, és que ells no van comprovar el que deia. Però el resultat va ser el mateix: càstig judicial.
En un altre cas, tres lletrats van utilitzar l’eina per construir un al·legat i van acabar sancionats per “imprudència extrema”. La IA no va reemplaçar el seu judici, el va desactivar.
Una memòria llarga com un judici
Hi ha quelcom desconcertant en la idea que una conversa digital pugui sortir del xat i entrar en una sala amb estrat. No per culpa de l’algoritme, sinó per la fragilitat de les regles. La pregunta no és si la IA pot recordar. És si tu tenies dret a oblidar.
Obre un parèntesi en les teves rutines. Subscriu-te al nostre butlletí i posa’t al dia en tecnologia, IA i mitjans de comunicació.