Skip to main content

El document, lliurat a Austràlia per la consultora, va ser corregit després de descobrir referències falses

Un encàrrec del govern australià ha forçat a Deloitte a retornar part dels diners pagats després que un informe lliurat contingués errors atribuïbles a l’ús d’IA generativa. Més enllà de l’error puntual, l’episodi posa en tensió l’ús d’aquestes eines en encàrrecs institucionals on la veracitat no és opcional.

Un informe tècnic amb cites fictícies

El Departament d’Ocupació i Relacions Laborals (DEWR) d’Austràlia va contractar Deloitte per revisar errors en un sistema automatitzat de sancions vinculat al benestar social. L’informe, lliurat al juliol de 2025 i valorat en 440.000 dòlars australians, va ser presentat com una revisió independent. Poc després, diversos experts van detectar referències imprecises, cites judicials inexistents i bibliografia inventada.

Un dels errors més notables incloïa una referència a un suposat cas judicial conegut com «Amato proceeding», que mai havia estat documentat. Altres errors afectaven a notes a peu de pàgina, cites doctrinals i referències legals essencials per al contingut de l’informe.

IA generativa en el procés sense supervisió suficient

Deloitte va reconèixer que part del contingut es va generar amb una eina d’IA basada en Azure OpenAI, concretament una versió empresarial de GPT-4. La firma va explicar que la intenció era accelerar tasques de redacció, però va admetre que el control de qualitat posterior no va detectar els errors inserits per la IA. En conseqüència, va publicar una versió corregida del document i va reemborsar parcialment l’import cobrat. Segons Deloitte, les conclusions generals de l’informe es mantenen intactes malgrat les correccions.

Dades tècniques decisions polítiques

L’informe abordava un sistema automatitzat de sancions en el sistema de benestar australià. Es tractava de revisar si el procés complia amb marcs legals i garanties bàsiques. Per a això, la consultora va incloure jurisprudència, referències acadèmiques i arguments tècnics que ara s’han revelat en part incorrectes. Aquest tipus de treballs solen ser utilitzats per prendre decisions de política pública o per donar suport a reformes legislatives. La presumpció de veracitat i exactitud no és negociable en aquests contextos.

Una tensió més enllà de l’error

El cas ha reobert el debat sobre l’ús d’IA en tasques tècniques i especialitzades. Les anomenades «al·lucinacions» dels models generatius —quan inventen dades versemblants, però falses— són conegudes, però la seva presència en documents institucionals compromet alguna cosa més que la reputació, posa en dubte la fiabilitat del procés mateix.

L’episodi també es troba amb una preocupació reguladora creixent. Al Regne Unit, per exemple, els supervisors han advertit que les grans consultores no sempre documenten com la IA afecta la qualitat de les seves auditories. L’automatització pot agilitzar tasques, però també pot erosionar el control humà si no s’implementa amb criteris clars.

La tecnologia no es disculpa però algú ha de respondre

A diferència d’altres eines, la IA generativa no es limita a calcular, redacta, interpreta i suggereix. Quan ho fa en nom d’una consultora global i en un encàrrec governamental, els estàndards de revisió haurien de ser encara més exigents. Deloitte ha respost amb correccions i reemborsaments, però el cas deixa una imatge clara, en l’era de la IA, la responsabilitat continua sent humana.

Obre un parèntesi en les teves rutines. Subscriu-te a la nostra newsletter i posa’t al dia en tecnologia, IA i mitjans de comunicació.

Leave a Reply