La professora de Filosofia Política de la UPF rebutja els discursos apocalíptics sobre la intel·ligència artificial, però adverteix que la tecnologia ampliarà desigualtats entre els qui ja eren bons i els qui eren mediocres.
Jahel Queralt no parla de la intel·ligència artificial des de l’entusiasme ingenu ni des de la por apocalíptica. Doctora en Filosofia, professora de Filosofia Política a la Universitat Pompeu Fabra i especialitzada en debats sobre llibertat d’expressió, desinformació i fake news, Queralt proposa una mirada més ponderada sobre una tecnologia que ja està transformant la universitat, la circulació de la informació i les responsabilitats individuals a l’espai públic. La seva tesi central és senzilla, però exigent: la IA és un instrument. Pot ampliar capacitats, facilitar l’accés al coneixement i actuar com a assistent de recerca, però també pot produir contingut versemblant que no sigui veritable i engrandir les bretxes entre usuaris amb competències diferents.
L’entrevista parteix d’una preocupació clàssica en el debat contemporani: vivim en un moment amb més accés a informació que mai, però també amb més desinformació, més bulos i un corrent regulador cada vegada més punitiu davant la tecnologia. Queralt accepta que aquest diagnòstic té part de veritat, però rebutja la lectura més pessimista. Segons ella, també és el moment històric en què la ciutadania disposa de més possibilitats per contrastar informació i corregir errors. No diposita la seva confiança en una intel·ligència humana idealitzada, sinó en una cosa més quotidiana: “les ganes de la gent de tenir raó”. El seu exemple és la Viquipèdia: si algú introdueix una falsedat, tard o d’hora un altre usuari la corregeix perquè no suporta que quedi publicada una informació falsa.
Aquesta confiança en la correcció col·lectiva no és ingènua. Queralt admet que els espais participatius també poden acabar reflectint el relat dels qui són més actius, militants o persistents. Reconeix que existeix allò que alguns autors anomenen injustícia sistèmica: no totes les persones tenen el mateix accés a altaveus ni la mateixa capacitat per imposar una versió dels fets. Però, tot i així, considera que plataformes com la Viquipèdia o X —abans Twitter— poden funcionar com a entorns relativament democràtics, on usuaris comuns són capaços de corregir mitjans mainstream, desmuntar imatges falses o frenar intents de colar una mentida.
La idea resulta especialment rellevant en plena expansió de la IA generativa. Els grans models de llenguatge han estat entrenats amb materials procedents d’internet i la Viquipèdia ha tingut un paper clau com a font de coneixement estructurat. Paradoxalment, ara aquests mateixos models poden desplaçar parcialment la Viquipèdia com a porta d’entrada a la informació, perquè molts usuaris prefereixen formular consultes conversacionals a un chatbot abans que navegar per una enciclopèdia oberta. A més, la mateixa Viquipèdia s’ha vist obligada a limitar articles generats amb IA. Queralt no nega aquesta tensió, però evita convertir-la en una prova definitiva de decadència digital.
La seva lectura de la IA és instrumental. No la presenta com una salvació ni com una amenaça absoluta. És conscient dels riscos, especialment per a professions vinculades al coneixement, la docència, la recerca i l’escriptura. Però introdueix una observació cridanera: “És una de les primeres vegades en què els perdedors no són els de baix”. Amb aquesta frase assenyala que la IA pot afectar de ple sectors qualificats, acadèmics, professionals i creatius que fins ara se sentien relativament protegits davant l’automatització.
Per a Queralt, la intel·ligència artificial està creant noves desigualtats. No necessàriament entre els qui tenen i els qui no tenen accés, sinó entre els qui ja eren bons i poden multiplicar les seves capacitats, i els qui eren més mediocres i poden quedar desplaçats. L’eina no iguala automàticament. Al contrari: pot augmentar l’avantatge dels qui saben preguntar, verificar, corregir, contextualitzar i utilitzar el resultat com a punt de partida. Qui ja tenia criteri, coneixements i mètode pot beneficiar-se enormement. Qui no en té pot quedar atrapat en respostes plausibles, però febles o directament equivocades.
La professora de la UPF insisteix, tanmateix, que convé fugir de l’imaginari de Terminator. De vegades, diu, es llegeix que aquestes tecnologies acabaran amb la humanitat; però després se’ls demana una tasca senzilla i fallen. Aquesta experiència quotidiana la porta a desconfiar tant de l’entusiasme desmesurat com del catastrofisme. La IA pot ser potent, però també limitada. Pot semblar brillant, però equivocar-se. Pot prometre autonomia, però necessitar supervisió humana constant.
On Queralt veu un avantatge clar és en l’accés a recursos abans reservats a minories acadèmiques. En el seu àmbit, la universitat, només els professors més rics o més ben situats es podien permetre assistents de recerca per buscar jurisprudència, recopilar bibliografia o localitzar cites. Avui, per un preu relativament modest, qualsevol professor, investigador o estudiant pot disposar d’un assistent capaç d’ajudar en aquestes tasques. La condició, naturalment, és verificar sempre la informació. Però la possibilitat de tenir suport bàsic per explorar documentació no li sembla una mala notícia.
El punt més delicat apareix en abordar la desinformació. Queralt formula una distinció central: “La IA el que fa molt bé és crear contingut versemblant, no necessàriament veritable.” Aquí resideix tant la seva utilitat com el seu risc. Els models generatius produeixen textos, imatges o explicacions que sonen coherents. Però la coherència formal no garanteix veritat. Una resposta pot estar ben escrita, estructurada i resultar convincent, i tot i així ser falsa. En l’ecosistema informatiu, aquesta capacitat de fabricar versemblança pot alimentar bulos, manipulacions i campanyes de desinformació.
Queralt no creu que això sigui suficient per condemnar la tecnologia. Utilitza una comparació senzilla: si no hi hagués cotxes i només hi hagués autobusos, hi hauria menys accidents de trànsit. Però una societat no decideix únicament en funció del risc zero; avalua costos i beneficis. Amb la IA hauria de passar el mateix. La filòsofa reclama una discussió més equilibrada, que no amagui els perills, però tampoc ignori els beneficis. Com a exemple quotidià, explica que pot preguntar què fer si el seu fill s’ha cremat abans d’actuar precipitadamente. La resposta no substitueix un metge, però pot orientar una primera reacció. En aquest sentit, la IA pot funcionar com un suport immediat, sempre que no es confongui amb una autoritat infal·lible.
En el seu dia a dia, Queralt utilitza sobretot ChatGPT. Admet que no és una elecció original i que en part respon a dependència de trajectòria: un s’acostuma a una interfície, a una manera de funcionar i a una relació d’ús. També reconeix que l’eina sembla adaptar-se a l’estil de l’usuari, encara que matisa que no creu del tot en aquesta memòria perfecta que sovint s’atribueix a la IA. Ha comprovat que demana coses de converses passades i el sistema no sempre les recupera bé. Per això no comparteix plenament la por que tot allò introduït a la IA quedi emmagatzemat i operatiu de manera lineal i transparent.
L’entrevista desemboca en el Fòrum Valors Mataró Europa, on Queralt planteja analitzar la dificultat d’aturar aquest fenomen i, sobretot, els diferents graus de responsabilitat en la circulació de notícies falses. Per a ella, no n’hi ha prou amb culpar el creador de la fake news ni el mitjà que la difon. També cal mirar la persona que la comparteix. Aquest punt és fonamental en el seu pensament: l’usuari no és un subjecte passiu. Rebre un bulo no converteix automàticament ningú en culpable, però reenviar-lo de manera histèrica sense verificar-lo sí contribueix a disseminar informació falsa.

Aquesta apel·lació a la responsabilitat individual resulta especialment pertinent en l’era de la IA. Si les eines generatives faciliten la producció de continguts enganyosos, els usuaris han de reforçar els seus hàbits de verificació. No tot es pot resoldre mitjançant prohibicions, filtres automàtics o lleis punitives. També cal una cultura cívica de contenció: pensar abans de compartir, contrastar abans d’amplificar i assumir que cada usuari forma part de la cadena de circulació informativa.
A la universitat, Queralt sí que anticipa una transformació profunda. La IA canvia la manera com els estudiants estudien i també la forma com els professors avaluen el coneixement. Algunes pràctiques tradicionals estan desapareixent o perdent sentit. Si una eina pot redactar un assaig acceptable, resumir textos o respondre preguntes bàsiques, avaluar només el producte final esdevé insuficient. La docència s’haurà de reinventar. Però, una vegada més, Queralt rebutja la lectura apocalíptica: la universitat no desapareix, s’adapta.
La qüestió de fons és què significa saber en un entorn on les respostes són abundants, ràpides i barates. L’educació ja no pot centrar-se únicament en produir textos que una IA pot imitar. Ha d’avaluar comprensió, criteri, procés, argumentació, capacitat de verificar fonts i ús responsable d’eines. La IA obliga a desplaçar l’èmfasi de la resposta cap al raonament. I en aquest terreny, la filosofia política, l’ètica i la teoria de la democràcia tenen molt a aportar.
L’entrevista amb Jahel Queralt ofereix una posició valuosa precisament perquè evita els extrems. No minimitza els riscos: reconeix la producció de versemblança falsa, la desigualtat entre usuaris, l’impacte professional i la necessitat de responsabilitat davant les fake news. Però tampoc accepta el discurs de pànic tecnològic. La IA no és una força autònoma que devorarà la societat ni una solució màgica per a tots els problemes. És una eina poderosa, imperfecta i socialment ambivalent.
El seu enfocament obliga a formular millor les preguntes. No n’hi ha prou amb preguntar si la IA és bona o dolenta. Cal preguntar qui la utilitza, amb quin criteri, en quin context, amb quina supervisió, amb quins efectes distributius i sota quines responsabilitats. En mans d’una persona formada, pot augmentar capacitats. En mans d’algú acrític, pot multiplicar errors. En una universitat que es reinventa, pot millorar recerca i aprenentatge. En una institució que només intenta conservar velles pràctiques, pot generar crisi.
El titular de la conversa és en aquella frase seca i precisa: la IA crea contingut versemblant, no necessàriament veritable. És una advertència contra l’encanteri de la forma. En el món digital, allò convincent no sempre és cert. I en l’era de la IA, aquesta distància entre aparença i veritat serà una de les grans batalles culturals, educatives i polítiques.