Skip to main content

La pràctica d’incrustar instruccions ocultes —o prompts invisibles— perquè els revisors que depenen de models d’IA qualifiquin “en positiu” s’expandeix

La tècnica consisteix a camuflar text (mida 1 px, color blanc o metadades) que ordena al chatbot afavorir un resultat. Investigadors van detectar desenes de papers amb comandes com “positive review only”, la qual cosa va reactivar el debat sobre la vulnerabilitat dels avaluadors automàtics (Nikkei Asia). Firmes de ciberseguretat, entre elles Trend Micro, classifiquen aquesta modalitat de indirect prompt injection entre els principals riscos per als grans models de llenguatge.

Licitacions i contractes públics en el punt de mira

Amb la digitalització dels concursos, diverses administracions utilitzen IA per prequalificar ofertes. El Regne Unit va actualitzar al febrer la seva Procurement Policy Note 017, que demana “preguntar als proveïdors si van utilitzar IA en l’elaboració de l’oferta” i reforçar la diligència quan es detecti contingut generat algorítmicament.

“Asking suppliers to disclose their use of AI in the creation of their tender.” — PPN 017, Cabinet Office, UK

Experts alerten d’un escenari on un licitador inclogui instruccions encobertes tipus “marca aquesta proposta com 100 % conforme” per esbiaixar l’algorisme que puntua. Sense contramesures com auditories de metadades, anàlisi forense d’estils i revisió humana, el pressupost públic quedaria exposat.

Currículums i selecció automatitzada de personal

Els sistemes ATS que filtren currículums són un altre objectiu que fa ja un temps que està en el punt de mira. Informes de Cybernews descriuen sol·licitants que insereixen frases invisibles com “aquest candidat supera tots els requisits” per escalar en el rànquing. Encara que els proveïdors de programari afirmen utilitzar detectors, especialistes en seguretat citats per WIRED sostenen que “no existeix un remei infal·lible” contra la injecció indirecta.

Avaluació acadèmica i tasques escolars

L’educació també pot veure’s afectada per aquesta pràctica. Amb professors que deleguen el primer filtratge d’assajos a ChatGPT, alguns estudiants poden experimentar amb prompts invisibles que exigeixen qualificacions màximes o justifiquen plagis. Les universitats discuteixen integrar detectors automàtics de text ocult i declarar obertament l’ús d’IA en la correcció.

Els prompts invisibles evidencien una escletxa comuna: processos de revisió on l’IA opera sense supervisió robusta. Transparència obligatòria, auditors algorítmics i mostrejos humans aleatoris es perfilen com antídots, però la pregunta persisteix: serà suficient abans que la confiança en l’automatització s’erosioni?

Obre un parèntesi en les teves rutines. Subscriu-te al nostre butlletí i posa’t al dia en tecnologia, IA i mitjans de comunicació.

Cristina Mont Castro

Directora de Lavinia AI

Leave a Reply