GPT-5 va ser llançat l’agost de 2025 amb grans promeses: “intel·ligència a escala de doctorat”, respostes més útils, raonament iteratiu i menor tendència a “al·lucinar” o generar errors fàctics. No obstant això, només setmanes després, usuaris i experts van començar a reportar fallades sorprenents que qüestionen aquest perfil idealitzat de model superior.
Per a molts usuaris, GPT-5 se sent superficial, fins i tot frustrant. Reddit està ple de crítiques: respostes més curtes, pèrdua de “personalitat” en el to, límits d’ús més estrictes, i models previs que funcionaven millor desactivats sense avís. Un desenvolupador ho va resumir així: “short replies that are insufficient, more obnoxious AI-stylized talking…”, lamentant a més la major lentitud del model enfront d’alternatives com Gemini 2.5 Pro.
En el pla de la actualitat, els errors també afloren. Un usuari va notar que GPT-5 duplicava xifres reals del PIB d’alguns països — per exemple, va situar el de Polònia en més de dos bilions de dòlars quan segons el FMI ronda els 979 000 milions. El problema de les «al·lucinacions» persisteix: generar dades imaginàries amb confiança encara és un taló d’Aquil·les, especialment quan el sistema no admet la seva ignorància.
Més estrany encara van resultar etiquetes incoherents i imatges absurdes. En un experiment, en demanar etiquetar parts d’una zarigüeya, GPT-5 va col·locar cada etiqueta en llocs incorrectes a tal punt que fins i tot en induir un error tipogràfic (“posse” en lloc de “possum”) va continuar fallant — va acabar generant un grup de vaquers amb línies apuntant etiquetes a barrets o cames, no parts anatòmiques. També es van documentar errors de geografia i ortografia bàsics. Per exemple, mal va lletrejar “Northern Territory” (“Northan Territor”), va afirmar erròniament que conté només tres “R” en lloc de cinc, va inventar estats ficticis com “New Jefst” i “Mitroinia”, i fins i tot va doble llistar Califòrnia en un mapa generat.
Investigadors com Christoph Heilig, de la Universitat de Múnic, identifiquen un fenomen cridaner: la prosa de GPT-5 pot semblar literària i sofisticada, encara que manqui de sentit real — un estil més ornamental que coherent. Heilig suggereix que GPT-5 podria estar optimitzat per “enganyar” a altres models d’IA, generant un llenguatge aparentment elaborat que aquests sistemes valoren, però que no necessàriament es comprèn bé des de l’humà.
Enmig del descontentament, Altman va reconèixer errors en el llançament i va prometre millores, anticipant el pròxim GPT-6 amb millor memòria d’usuari i més personalització. Però per ara, el balanç mostra un model amb avenços tècnics en proves controlades, segons OpenAI, però que en la pràctica quotidiana exhibeix fallades que erosionen la seva credibilitat.
Obre un parèntesi en les teves rutines. Subscriu-te al nostre butlletí i posa’t al dia en tecnologia, IA i mitjans de comunicació.