Un estudi recent d’OpenAI desentranya una de les trampes millor disfressades dels models de llenguatge: les «al·lucinacions». No són errors grossers ni fallades visibles, sinó afirmacions falses que sonen certes. Una seguretat impostada que amaga incertesa. L’informe, signat per Adam Tauman Kalai, Ofir Nachum, Santosh Vempala i Edwin Zhang, suggereix que els models estan programats, gairebé sense voler-ho, per respondre amb fermesa abans que admetre que no saben.
Una predicció rere una altra (encara que no tingui sentit)
Models com GPT o Claude operen amb una lògica estadística. Preveuen, paraula a paraula, el que segueix amb més probabilitat. No hi ha comprensió. Només continuïtat. Si no tenen dades, no s’aturen. Omplen el buit amb el que sona bé. L’entrenament els ha ensenyat que és millor semblar llest que quedar-se callat, de fet, la consigna implícita és omplir els buits, no reconèixer-los. Així és com un model pot inventar un autor que mai va escriure, una llei que mai es va promulgar, o un estudi que no existeix en cap base de dades. No es tracta de mentir amb intenció, sinó de continuar la frase com si res. Ho fa amb tanta coherència formal que costa notar l’error. Però tot encaixa. I aquest és el problema.
Un exemple recent va circular per X. Un usuari va corregir a Grok —el model de llenguatge de xAI— després de confondre una fotografia de l’arxiu de la Universitat de Màlaga amb una imatge de Walker Evans del MET. Grok va respondre amb rapidesa i seguretat. Encara que s’equivocava. Va insistir durant diversos missatges. Malgrat els enllaços, les comparacions, les proves. Només va cedir hores després, quan la conversa ja era pública i visible. Una il·lustració en temps real del biaix de confiança que OpenAI descriu.
Us explico què va passar ahir amb una foto de l’Espanya dels 50, la reacció de tuiter ultradreta, i l’aparició «estel·lar» (més aviat estavellada) de @grok.
Un fil sobre els perills de fiar-se de la IA i no fer comprovacions.
Tot comença amb aquesta publicació de @kritikafull pic.twitter.com/EDFPrSpTFY— r.p.m. (@ropamuig37) August 25, 2025
Respondre amb seguretat s’ha tornat un atall
La tensió és clara. Mentre les proves valorin respostes segures, els models tindran incentius per sonar ferms, amb evidència o sense. En una xerrada informal, pot semblar una virtut. Però en medicina, dret o educació, aquesta confiança sense base pot convertir-se en un risc. El dilema no és només tècnic. També és cultural. Volem una IA que ho sàpiga tot, o una que reconegui els seus límits?
Quan aprendre significa arriscar sense mirar
El treball d’OpenAI no culpa el model, sinó el mètode. Avui, un sistema és millor valorat si respon sempre, fins i tot mentre improvisa. Dir «no sé» abaixa la nota. Per això, els models aprenen a llançar-se. Les mètriques actuals, centrades en precisió i cobertura, no penalitzen les afirmacions falses si sonen versemblants. El resultat és que es prioritza la forma sobre el fons. L’estudi proposa canviar les regles del joc i ajustar les mètriques perquè reconeguin el valor d’una resposta honesta, fins i tot si és incompleta. Això inclou puntuar positivament les negatives fonamentades, les expressions de dubte raonat o els silencis informats. Perquè admetre que s’ignora alguna cosa no és debilitat, sinó part de la intel·ligència. Una intel·ligència, a més, més útil per conviure amb la incertesa del món real.
Canviar el mètode, no només el model
Algunes solucions ja s’exploren. Una és RAG (generació augmentada amb recuperació), una tècnica que combina el poder d’un model de llenguatge amb un sistema de cerca documental. Abans de generar una resposta, el model consulta una base de dades o corpus específic —per exemple, articles científics, manuals tècnics o documents institucionals— i construeix la seva resposta a partir d’aquesta evidència. Així es redueix la probabilitat que inventi dades, ja que es veu obligat a ‘llegir abans de parlar’. Una altra idea és sumar un segon sistema que revisi si el que s’ha dit té suport. Però cap d’aquestes fórmules resol el fons, perquè si el model està entrenat per endevinar, continuarà fent-ho. Encara que llegeixi primer. Encara que revisi després.
Callar també és una forma de saber
L’estudi d’OpenAI proposa una idea simple, però incòmoda, que els models aprenguin a callar. No perquè fallin, sinó perquè a vegades no hi ha res cert a dir. Avui es premia la fluïdesa. Potser demà valorarem més la pausa. Saber quan no parlar. Quan no fingir. Quan reconèixer el buit.
Obre un parèntesi en les teves rutines. Subscriu-te al nostre butlletí i posa’t al dia en tecnologia, IA i mitjans de comunicació.