En plena onada d’adopció de models de llenguatge com ChatGPT, Gemini o Claude, un estudi recent de la firma Incogni posa el focus sobre una dimensió que sol passar desapercebuda: la privacitat. El seu informe, titulat «Gen AI and LLM Data Privacy Ranking 2025», analitza i compara nou dels models més populars del mercat segons onze criteris agrupats en tres blocs clau: entrenament, transparència i recollida-compartició de dades.
Qui protegeix (i qui no) les teves dades
El resultat és revelador. Mentre alguns models recullen i reutilitzen informació personal de forma opaca, altres ofereixen més claredat i opcions de control. Gemini (Google), Meta AI i Copilot (Microsoft) apareixen com els menys respectuosos amb la privacitat. No només impedeixen que l’usuari exclogui les seves dades de l’entrenament, sinó que a més recullen informació delicada com la ubicació o el número de telèfon. En contrast, Claude (Anthropic), ChatGPT (OpenAI), Le Chat (Mistral) i Grok (xAI) permeten limitar l’ús de dades personals i expliquen les seves polítiques de forma accessible.
Polítiques comprensibles vs. documents opacs
L’estudi també posa en evidència differences en la transparència. Claude i ChatGPT destaquen per presentar les seves condicions d’ús en llenguatge clar i accessible, mentre que Meta i Gemini amaguen la informació rellevant entre llargs documents legals, dificultant a l’usuari conèixer el destí de les seves dades.
Compartició amb tercers: una pràctica estesa
Una altra àrea sensible és la compartició de dades amb tercers. Encara que tots els models recullen informació en crear un compte o utilitzar l’app, alguns van més enllà. Meta AI, per exemple, pot compartir noms, correus i telèfons amb socis o institucions de recerca. Gemini i DeepSeek també recopilen números de telèfon, mentre que Claude i Grok deriven algunes interaccions cap a serveis externs.
Recomanacions per protegir les teves dades
Davant aquest panorama, Incogni recomana triar models que funcionin com a simples «processadors», sense emmagatzemar informació dels usuaris, o bé utilitzar versions locals o en el núvol privat, on hi hagi un major control sobre les dades. El consell més pràctic: no introdueixis en un model d’IA res que no diries en una xarxa social.
Més enllà del rendiment: la privacitat com a criteri
En definitiva, l’estudi d’Incogni va més enllà de la comparativa funcional. Llença un missatge clar: a l’hora de triar una intel·ligència artificial, no només importa la seva capacitat tècnica, sinó també el seu compromís amb la privacitat. En l’era de les dades, el que fan els models amb la teva informació importa tant com el que t’ajuden a crear.