Una de les promeses més visibles de la intel·ligència artificial a internet és la rapidesa. Google ho sap, i per això des de fa mesos experimenta amb els anomenats “AI Overviews”, resums automàtics que responen a la part superior dels resultats de cerca. Però hi ha camps on aquesta velocitat pot ser perillosa. Aquesta setmana, Google va decidir retirar aquests resums per a certes consultes mèdiques.
Un resum massa automàtic
Des del seu llançament, els AI Overviews funcionen com una mena de drecera. En cercar alguna cosa a Google, en lloc de mostrar enllaços tradicionals, apareix un paràgraf generat per IA que sintetitza la resposta. El sistema s’alimenta de múltiples fonts per redactar una explicació clara i ràpida.
Però amb preguntes mèdiques, la claredat no sempre és suficient. **Segons va revelar una investigació de **The Guardian, els resums que oferia Google per a consultes com “quin és el rang normal d’una prova de funció hepàtica” eren inexactes o donaven peu a malentesos. En alguns casos, ometien variables essencials com l’edat, el sexe o l’historial clínic, fonamentals per interpretar una prova de laboratori.
Una promesa que toca límits
La idea darrere dels AI Overviews és reduir l’esforç de l’usuari. En comptes de revisar diversos enllaços, la informació apareix condensada i llesta per ser llegida. Per a preguntes senzilles o generals, la funció pot resultar útil. Però quan es tracta de salut, aquesta simplificació pot passar una línia sensible. El mateix disseny d’aquests resums pot generar una falsa sensació de certesa. En aparèixer a la part superior i amb llenguatge directe, l’usuari podria assumir que la resposta és precisa i aplicable al seu cas, sense matisos. Aquesta confiança mal ubicada és just el que preocupa a metges i organitzacions sanitàries.
Dades mèdiques sense context
El problema no és només el que diu la IA, sinó com arriba a dir-ho. Per generar els resums, el sistema analitza múltiples llocs, combina fragments i produeix una síntesi. Però en medicina, el context ho és tot. Un mateix resultat pot tenir significats diferents segons el pacient.
La falta de precisió no és nova en els models de llenguatge, però el seu impacte es multiplica quan s’apliquen a diagnòstics o tractaments. En el cas dels AI Overviews, Google va assegurar que treballa amb equips clínics interns per revisar contingut delicat, encara que no va especificar quines consultes mèdiques han estat restringides ni sota quins criteris.
Dubtes que no es dispersen
Després de la investigació de The Guardian, Google va eliminar els resums per a algunes cerques mèdiques específiques. No obstant això, altres termes similars encara poden activar el resum generat per IA. I encara que es va retirar la funció automàtica, continua existint l’opció d’utilitzar el “mode IA” de manera voluntària per obtenir respostes similars. Aquest escenari fragmentat planteja si una IA pot oferir consells mèdics sense substituir la responsabilitat professional. Les plataformes tecnològiques s’han beneficiat durant anys de l’argument que només “intermedien” contingut. Però quan el contingut ja no prové de tercers, sinó que és creat pel mateix sistema, aquesta distància es desvaneix.
Entre l’útil i el perillós
La retirada parcial dels AI Overviews en salut no elimina la funció, però sí que marca un límit. Google ha avançat ràpidament en la integració d’IA en el seu cercador, però el pas enrere suggereix que hi ha territoris on aquesta velocitat ha de ser posada en pausa. El cas també serveix com avís per a la resta de l’ecosistema digital. En un món on els motors de cerca ja no només troben respostes, sinó que les fabriquen, la pregunta no és només què pot fer la intel·ligència artificial, sinó quan ha de saber callar.
Obre un parèntesi en les teves rutines. Subscriu-te al nostre butlletí i posa’t al dia en tecnologia, IA i mitjans de comunicació.