Skip to main content

En una recent aparició durant l’esdeveniment Code with Claude a San Francisco, Dario Amodei, CEO d’Anthropic, va fer una declaració que no va passar desapercebuda: “Depèn molt de com es mesuri, però sospito que els models d’IA probablement al·lucinen menys que els humans, tot i que ho fan de formes més sorprenents”, va afirmar Amodei

El terme “al·lucinació”, en el context de la IA, fa referència al moment en què un model inventa informació i la presenta com si fos certa. Tot i que és un dels defectes més assenyalats en els models generatius, Amodei no el considera una barrera rellevant en el desenvolupament de la dita intel·ligència artificial general. Per a ell, el sector progressa de manera constant cap a aquest objectiu, i no existeix cap límit tècnic que impedeixi la seva consecució: “La gent sempre busca aquests bloquejos definitius sobre el que la IA pot fer. No existeixen.”

Aquesta visió, tanmateix, no és unànime a la indústria. Demis Hassabis, CEO de Google DeepMind, va expressar recentment que els models actuals presenten encara “massa forats”, fent fallida fins i tot en tasques elementals.

El debat sobre fins a quin punt són fiables aquests sistemes continua obert. Comparar els seus errors amb els dels humans no és fàcil, ja que els mètodes actuals solen centrar-se a mesurar el rendiment entre models, no pas enfront dels criteris humans. Tot i això, alguns avenços semblen haver reduït la taxa d’al·lucinacions. Models com GPT-4.5 d’OpenAI han mostrat millores notables, sobretot quan es combinen amb eines externes com navegadors web.

No obstant això, estudis recents apunten a una paradoxa: versions més avançades, com o3 i o4-mini d’OpenAI, registren més al·lucinacions que generacions anteriors. L’empresa reconeix que encara no entén del tot per què es produeix aquest fenomen.

¿Pot una IA ser ‘general’ si encara s’equivoca?

Amodei també va destacar que equivocar-se no hauria de veure’s com sinònim d’idiotesa. “Presentadors de televisió, polítics i professionals de tota mena cometen errors constantment”, va recordar. Tot i això, sí que va admetre que la manera com la IA afirma falsedats amb absoluta seguretat representa un repte crític.

La postura d’Amodei deixa clar que per a Anthropic una IA amb intel·ligència general podria continuar cometent errors, sempre que el seu rendiment global superi el dels humans. Una idea que, sens dubte, continuarà alimentant el debat sobre els límits ètics i tècnics del desenvolupament artificial.

La imatge utilitzada es va publicar originalment a Flickr per TechCrunch a https://flickr.com/photos/52522100@N07/53202070940. Va ser revisada el 16 de maig de 2024 per FlickreviewR 2 i es va confirmar que té llicència cc-by-2.0.

Obre un parèntesi en les teves rutines. Subscriu-te a la nostra newsletter i posa’t al dia en tecnologia, IA i mitjans de comunicació.

Gerard Quintana

Periodista. M'encanta el periodisme i la tecnologia.

Leave a Reply