Skip to main content

Per què investigadors demanen normes més clares perquè la intel·ligència artificial no erosioni la credibilitat de la ciència

En els últims mesos, creixents veus dins de la comunitat científica han encès una alarma. L’adopció massiva d’eines d’intel·ligència artificial en la investigació està posant en tensió el rigor i la qualitat de la ciència. La preocupació no és una crítica a la tecnologia en si, sinó a com s’està integrant en un sistema —l’acadèmic— que encara no té regles clares per avaluar-la i gestionar-la.

L’allau d’articles de qualitat qüestionable

Un estudi liderat per investigadors de la Universitat de Surrey, publicat en PLOS Biology, va posar xifres a una tendència inquietant, treballs científics basats en grans bases de dades —com l’enquesta nacional de salut dels Estats Units (NHANES)— es van multiplicar de forma abrupta en pocs anys, passant de només uns pocs fins a gairebé dues-centes publicacions en 2024. Molts d’aquests articles utilitzaven anàlisis superficials o simplistes que, encara que estadísticament significatius, no sostenen conclusions sòlides sota escrutini rigorós. Els autors adverteixen que, a mesura que la IA facilita l’anàlisi de dades i la redacció de text, les publicacions “manufacturades” podrien començar a ser indistinguibles dels treballs ben fonamentats.

Informes paral·lels adverteixen sobre patrons encara més preocupants com els textos amb cites inventades, conclusions exagerades o sense base experimental robusta i proliferació del que alguns crítics anomenen “slop” —contingut d’aparença acadèmica però qualitat superficial— que satura revistes i conferències i dificulta el procés de revisió per parells tradicional.

El sistema de revisió es veu desbordat

Un dels efectes més directes d’aquest auge és la pressió sobre la revisió científica. En camps com la intel·ligència artificial, on els congressos i esdeveniments accepten un nombre creixent de treballs, els estàndards de revisió són sovint més ràpids i menys exhaustius que en disciplines clàssiques com la biologia o la química. Això deixa buits on treballs de baixa robustesa metodològica poden colar-se i, al mateix temps, aglomerar els revisors amb volum sense suficient profunditat.

La conseqüència és doble, d’una banda, s’alenteix l’avaluació d’investigacions amb aportacions significatives, i, d’altra banda, es dilueix el senyal davant el soroll en la literatura científica, debilitant la fiabilitat global de la ciència publicada.

Peticions de normes clares i aplicacions ètiques

En resposta, diverses institucions acadèmiques i editorials han començat a reclamar polítiques més clares sobre l’ús d’IA en la investigació. Un sondeig promogut per Wiley, basat en dades recollides per l’eina Proofig, va mostrar que molts investigadors veuen com a principal obstacle la manca de directrius explícites sobre com aplicar la IA de forma ètica i eficaç, i prop del 70% va demanar a les revistes que defineixin regles clares sobre el seu ús en publicacions.

A Europa, tallers i grups de treball que donen suport al Consell Científic Assessor de la Comissió Europea han desenvolupat informes que ajuden a aclarir què pot fer la IA en contextos crítics, quines dades necessita i per què la supervisió humana continua sent essencial. Aquests documents subratllen la importància de mantenir la responsabilitat de l’investigador i no delegar decisions clau únicament a sistemes automatitzats.

Deu regles pràctiques per usar IA sense perdre el nord

Un article recent a arXiv ha sintetitzat el debat des d’una perspectiva operativa. Titulat «Ten Simple Rules for AI-Assisted Coding in Science», proposa deu regles per mantenir el rigor quan s’usa IA per programar o analitzar dades científiques. No es tracta de recomanacions editorials, sinó de pautes de treball per al dia a dia de l’investigador. Algunes claus:

  • Comprendre abans d’automatitzar: usar IA no eximeix de conèixer a fons el problema científic.
  • Gestionar bé el context: dividir tasques, mantenir claredat i coherència en les instruccions a la IA.
  • Validar amb proves independents: preparar tests abans de generar codi i usar-los per comprovar el seu funcionament.
  • Revisar i documentar cada pas: tot codi generat ha de revisar-se, comentar-se i contrastar-se amb altres solucions.
  • No delegar la responsabilitat: encara que la IA escrigui, el científic és qui respon davant la comunitat.

L’article també planteja desafiaments ètics com l’impacte ambiental dels grans models, l’autoria del codi generat i el risc de delegar decisions sense supervisió.

El context espanyol: transparència i ètica

La preocupació no es limita a debats tècnics. A Espanya, científics reunits en fòrums com la Confederació de Societats Científiques (COSCE) van cridar a reforçar la transparència i el rigor científic en l’ús de la IA, apuntant fins i tot al risc que la pressió per publicar superi el compromís amb l’ètica i la solidesa dels resultats.

Aquests debats s’entrellacen amb iniciatives més àmplies sobre ètica i governança de la IA, que busquen establir normes que redueixin riscos sense frenar l’avenç científic, un equilibri delicat que també preocupa en altres fòrums internacionals.

El que està en joc

El fons d’aquestes discussions és simple, però profund, la ciència es basa en la fiabilitat i la reproduïbilitat. Quan eines com la IA acceleren certes etapes del procés —anàlisi de dades, generació de text, redacció de conclusions— sense normes clares sobre el seu ús i límits, es corre el risc de soscavar la credibilitat dels resultats. Això no afecta només l’acadèmia, sinó també com la societat confia en la ciència per respondre a desafiaments complexos, des de la salut pública fins a la crisi climàtica.

Cap a normes que acompanyin l’avenç

Davant aquests reptes, el consens emergent entre investigadors és que la integració de la IA en la investigació ha d’anar acompanyada de directrius clares, transparència en com s’utilitza i mecanismes de revisió que reconeguin les seves particularitats. Només així pot la comunitat científica assegurar que la velocitat no substitueixi la validesa, i que la innovació potenciï, en lloc de diluir, el rigor que fa fiable a la ciència.

Obre un parèntesi en les teves rutines. Subscriu-te a la nostra newsletter i posa’t al dia en tecnologia, IA i mitjans de comunicació.

Leave a Reply