Una intel·ligència artificial, entrenada per detectar textos escrits per altres intel·ligències artificials, ha començat a rastrejar la literatura científica amb ull clínic. El que ha trobat no és un error, sinó un símptoma. I planteja preguntes urgents sobre com es construeix el discurs acadèmic en l’era del llenguatge automàtic.
Quan el resum ve redactat
Ho anomenen manuscrit, però moltes vegades és un resum. Una introducció polida. Un apartat de mètodes que encaixa com un guant. Des de fora sembla impecable. Però alguna cosa en el ritme, en l’elecció de paraules, en la textura del text, delata una altra autoria. Entre 2021 i 2024, més de 46.000 documents científics van ser analitzats per una IA entrenada per caçar fragments escrits per altres IAs. Més del 23% dels resums enviats a les revistes de l’American Association for Cancer Research (AACR) el 2024 mostraven senyals de llenguatge generat automàticament. També els comentaris de revisió per parells —teòricament humans, rigorosos, personals— incloïen IA, un 5%, malgrat estar prohibit.
El model que imita l’imitador
L’eina que ha posat les dades sobre la taula és obra de Pangram Labs. La van entrenar amb milions de textos escrits per humans abans de 2021. I després li van afegir una capa més amb textos generats per IA que imitaven amb precisió quirúrgica l’estil científic. Així va aprendre a distingir el que estava escrit per persones del que estava redactat per models com ChatGPT, Claude o LLaMa. Amb una precisió que supera el 99%. I una taxa d’error que amb prou feines arriba a un entre deu mil.
Redactar no és traduir
El més inquietant no és el percentatge, sinó el lloc on apareix. La majoria d’usos detectats estaven en la secció de mètodes. Aquesta part de l’article on no hi caben adorns ni metàfores. Només fets. Si aquí el llenguatge es torna ambigu, la ciència s’emborratxa. Daniel Evanko, director editorial a l’AACR, va expressar durant el Congrés Internacional de Revisió per Parells —segons va recollir Nature— la seva preocupació per l’ús de models de llenguatge en seccions tècniques com la de mètodes, on un canvi subtil en la redacció pot portar a errors d’interpretació. La IA ajuda, però també pot confondre.
Idioma prestat, precisió prestada
Molts dels textos generats per IA venien de països on l’anglès no és llengua nativa. La tecnologia serveix com a corrector, traductor, estilista. Però aquest suport lingüístic té un cost. No sempre es nota. De vegades, n’hi ha prou amb una paraula suavitzada per alterar el to. Una frase millor construïda per canviar l’èmfasi. O un sinònim que no és sinònim. El llenguatge, quan és tècnic, no perdona.
Prohibit, però freqüent
L’AACR va prohibir l’ús d’IA en les revisions per parells el 2023. Tot i això, el nombre de comentaris generats va augmentar el 2024. No és un error del sistema, és el sistema. Perquè les eines s’integren sense fer soroll. Perquè el text sembla legítim. Perquè la línia entre ajuda i delegació completa és tan borrosa com una cita mal escrita.
Escriure ja no és el que era
La detecció de text generat per IA no és un final. És un inici. La pregunta ja no és si algú ha utilitzat ChatGPT per redactar, sinó que significa escriure en un context en què el llenguatge també pot ser sintètic. Les revistes volen més transparència. Les eines afinen. Les firmes com Clear Skies celebren l’avanç, però avisen que els biaixos també poden estar en la lupa. La ciència, mentrestant, continua escrivint-se. De vegades per humans. De vegades no. I gairebé mai ho diu en veu alta.
Obre un parèntesi en les teves rutines. Subscriu-te al nostre butlletí i posa’t al dia en tecnologia, IA i mitjans de comunicació.