Skip to main content

Julio Ponce Solé sosté que, en les decisions administratives discrecionals, la intel·ligència artificial no hauria de substituir el decisor humà, sinó limitar-se a assistir-lo, perquè l’equitat, l’empatia i la motivació jurídica continuen exigint una intervenció humana real.

La discussió sobre intel·ligència artificial al sector públic sol plantejar-se en termes d’eficiència: expedients més ràpids, més automatització, menys càrrega burocràtica i decisions més homogènies. Però hi ha una pregunta prèvia, més incòmoda i molt més important: pot una administració justa prescindir d’una intervenció humana substantiva quan decideix sobre drets, càrregues o situacions individuals? El treball de Julio Ponce Solé, publicat a CERIDAP amb el títol Artificial Intelligence and Interaction Between Machines and Humans: Discretionary Powers, Human Reserve in the Public Sector and the EU Regulation of 2024, col·loca aquesta qüestió al centre del debat jurídic europeu i ho fa des d’una tesi clara: en l’àmbit de les potestats discrecionals de l’administració, la IA no hauria de reemplaçar la decisió final humana, sinó actuar únicament com a suport.

El valor del text no rau només en el seu posicionament normatiu, sinó en el marc que proposa per pensar la relació entre màquines, administració pública i drets fonamentals. Ponce Solé no discuteix la utilitat general de la intel·ligència artificial en la gestió pública, ni nega el seu potencial per assistir funcionaris i òrgans administratius. El que examina és una cosa més precisa: la compatibilitat entre l’ús d’IA i el dret a una bona administració quan la decisió exigeix ponderació, apreciació del cas, escolta de l’afectat i deure de motivació. En aquest terreny, l’autor formula allò que anomena “reserva d’humanitat” o “reserva humana”: una tècnica jurídica basada en el principi de precaució per excloure o limitar l’automatització plena allà on l’ús d’IA pugui conduir a decisions injustes.

La tesi parteix d’una distinció crucial que sovint es dilueix en l’entusiasme tecnològic. No totes les decisions administratives són iguals. Algunes són reglades: la norma fixa de manera estreta els pressupòsits i el resultat. D’altres, en canvi, són discrecionals: exigeixen valorar circumstàncies, ponderar interessos, interpretar el context, calibrar la proporcionalitat i, de vegades, atendre factors humans que no es deixen reduir fàcilment a variables predefinides. És precisament en aquest segon tipus de decisió on Ponce Solé situa el límit. En la seva anàlisi, la IA pot ajudar a ordenar informació, detectar patrons, suggerir cursos d’acció o anticipar riscos, però no hauria d’assumir per si sola la resolució final quan existeix un marge d’apreciació administrativa.

L’argument central de l’autor no se sosté només en la prudència política, sinó en una crítica de capacitat. L’assaig afirma que les màquines no tenen empatia i no poden desenvolupar determinades inferències abductives típicament humanes, dos elements que considera rellevants per decidir amb equitat. Ponce Solé sosté que l’empatia no s’ha de confondre amb sentimentalisme ni amb arbitrarietat, sinó entendre’s com la capacitat humana de comprendre la situació de l’altre, les seves vulnerabilitats i les seves dificultats, i d’integrar aquesta comprensió en una decisió imparcial i objectiva. En el seu raonament, precisament perquè la bona administració no és mera lògica instrumental, sinó també tracte just i atenció al cas concret, l’absència d’empatia en els sistemes algorítmics esdevé un problema jurídic i no només filosòfic.

L’autor va més enllà i connecta aquesta absència amb la qualitat mateixa del judici administratiu. Al seu parer, les màquines poden imitar estils lingüístics empàtics, però no experimentar la condició humana ni situar-se realment en el lloc de l’afectat. No emmalalteixen, no envelleixen, no pateixen, no depenen d’ajudes públiques ni experimenten la vulnerabilitat social que tantes vegades està en joc en els procediments administratius. Per això, encara que puguin semblar convincents o fins i tot “humanes” en la seva superfície conversacional, no estarien en condicions de substituir adequadament la dimensió relacional i comprensiva que exigeix una decisió justa. En el text, aquesta limitació no es presenta com una objecció romàntica a la tecnologia, sinó com una raó per aplicar el principi de precaució en l’estat actual de l’art.

A aquesta idea hi suma una altra menys popular en el debat públic, però jurídicament molt significativa: la de les inferències abductives. Ponce Solé sosté que les màquines no desenvolupen de la mateixa manera la capacitat humana de formular hipòtesis plausibles a partir d’indicis parcials i context obert, una operació cognitiva especialment rellevant quan l’administració ha de valorar situacions complexes que no encaixen netament en esquemes rígids. Aquesta referència a l’abducció apunta a un problema de fons: la decisió administrativa discrecional no consisteix únicament a aplicar regles o correlacions estadístiques, sinó a construir una comprensió raonable del cas. L’autor entén que aquesta operació, en connexió amb l’empatia i l’equitat, continua sent un espai que convé reservar a l’ésser humà.

L’assaig enllaça aquesta discussió amb el dret europeu a la bona administració. CERIDAP resumeix expressament que l’estudi aborda la relació entre éssers humans i IA a la llum del “right to good administration and fair discretionary administrative decisions”, i Ponce recorda que aquest principi ha estat desenvolupat des de fa dècades per la jurisprudència europea i avui forma part del marc de drets que ha d’orientar l’activitat administrativa. En aquesta lògica, l’audiència de l’interessat i l’obligació de motivar no són rituals formals: són garanties de correcció, de control i de justícia material. L’article insisteix que, si existeix obligació d’obrir un tràmit d’audiència o de donar raons individualitzades, l’automatització plena esdevé especialment problemàtica.

Aquí és on el text esdevé especialment rellevant per al debat regulatori actual. El Reglament europeu d’IA de 2024, el conegut AI Act, fixa com a objectiu promoure una IA centrada en l’ésser humà i fiable, garantint un elevat nivell de protecció de la salut, la seguretat i els drets fonamentals. Així ho expressa el mateix text oficial del Reglament (UE) 2024/1689, aprovat el 13 de juny de 2024 i publicat al Diari Oficial el 12 de juliol de 2024. El reglament va entrar en vigor vint dies després de la seva publicació i la seva aplicació general comença el 2 d’agost de 2026, tot i que les prohibicions de l’article 5 i les disposicions generals van començar a aplicar-se des del 2 de febrer de 2025.

Tanmateix, Ponce Solé subratlla una limitació important d’aquest marc europeu. L’AI Act sí que preveu supervisió humana per a sistemes d’alt risc, però no consagra de manera general una “reserva humana” per a les decisions discrecionals del sector públic. L’article 14 del reglament estableix que els sistemes d’IA d’alt risc han de dissenyar-se i desenvolupar-se de manera que puguin ser supervisats eficaçment per persones físiques durant el seu ús. I el mateix assaig recorda que aquesta supervisió humana es justifica en la norma per prevenir o minimitzar riscos per a la salut, la seguretat o els drets fonamentals. Però, segons l’autor, això no equival encara a prohibir que la decisió final discrecional es desplaci de facto cap a la màquina.

La crítica és rellevant perquè el concepte de supervisió humana pot buidar-se en la pràctica si la persona que “supervisa” es limita a validar una recomanació algorítmica sense veritable capacitat, temps o informació per apartar-se’n. En teoria, l’humà és in the loop; en la pràctica, pot convertir-se en un mer legitimador formal d’una decisió ja modelada pel sistema. El treball de Ponce Solé apunta justament a aquest risc: una administració podria complir nominalment amb la supervisió humana exigida per l’AI Act i, al mateix temps, erosionar la responsabilitat, l’escolta i la motivació que exigeix el principi de bona administració. Aquesta tensió entre supervisió formal i decisió realment humana és un dels punts més fèrtils de l’assaig.

L’AI Act sí que incorpora, a més, una altra peça que encaixa amb aquesta preocupació: el dret a explicació de l’article 86. Segons el reglament, les persones afectades tenen dret a obtenir una explicació quan una decisió del responsable del desplegament es basi principalment en la sortida de determinats sistemes d’IA d’alt risc i aquesta decisió produeixi efectes jurídics o les afecti significativament de manera similar, amb impacte negatiu en la seva salut, seguretat o drets fonamentals. Ponce Solé destaca expressament aquest punt, però el llegeix com una garantia útil encara que insuficient. Tenir dret a una explicació no resol per si sol el problema de fons si el sistema ja ha colonitzat el nucli de l’apreciació discrecional.

El text resulta especialment útil perquè no es limita a denunciar, sinó que proposa una orientació normativa concreta. Ponce Solé sosté que els reguladors dels Estats membres podrien, respectant l’AI Act, establir prohibicions o límits addicionals per impedir la substitució de la decisió discrecional final humana. Fins i tot va més enllà: considera que aquesta prohibició s’hauria d’incorporar de manera explícita en el futur a l’article 5 del reglament, que avui recull les pràctiques prohibides d’IA. És una proposta ambiciosa, perquè desplaça el debat des de la mera “supervisió” cap a una veritable reserva de decisió humana en sectors sensibles.

Aquest plantejament connecta directament amb una pregunta molt actual en la transformació digital de l’Estat: quina part de l’administració es pot automatitzar sense buidar de contingut l’ideal europeu d’una administració imparcial, motivada i respectuosa amb la dignitat de la persona. La temptació d’automatitzar no és només tecnològica; també és pressupostària i organitzativa. La IA promet velocitat, consistència i escala en contextos de plantilles tensionades i demanda creixent. Però l’assaig adverteix que l’administració no és una cadena de muntatge normativa. Allà on la decisió exigeix apreciar circumstàncies singulars, escoltar l’afectat i justificar per què s’adopta una opció i no una altra, la substitució del judici humà pot malmetre l’equitat mateixa del procediment.

La discussió és especialment pertinent per al sector públic perquè moltes de les àrees on la IA es pot desplegar amb més intensitat —serveis socials, ajudes, inspecció, ocupació, migració, educació, salut administrativa o accés a prestacions— afecten directament persones en situació de vulnerabilitat. En aquests àmbits, la diferència entre una decisió reglada i una de discrecional no és una subtilesa acadèmica: pot determinar si l’administració reconeix o ignora circumstàncies humanes decisives. La “reserva humana” que proposa Ponce Solé busca precisament evitar que la promesa d’eficiència acabi degradant l’estàndard de justícia administrativa.

També convé subratllar que el mateix AI Act reconeix l’especial sensibilitat del sector públic. El reglament classifica com d’alt risc diversos sistemes utilitzats per autoritats públiques i preveu mecanismes específics de vigilància del mercat, a més d’un règim reforçat per a usos que incideixen sobre drets fonamentals. El considerant 171 i l’article 86, amb aquest dret a explicació, són una prova que el legislador europeu sap que no està regulant una tecnologia qualsevol. Però l’assaig de Ponce Solé hi afegeix una advertència incisiva: una IA human-centric no es garanteix només amb transparència, documentació i supervisió general; en certs espais exigeix preservar una decisió final genuïnament humana.

Aquí rau la rellevància estratègica de l’article. En un moment en què les administracions europees comencen a experimentar amb sistemes predictius, assistents de tramitació, classificació automatitzada i eines de suport a la decisió, el debat ja no pot quedar-se en la dicotomia simplista entre usar IA o no usar IA. La qüestió decisiva passa per definir quines funcions pot assumir, en quines condicions, amb quines garanties i amb quins límits materials. Ponce Solé ofereix una resposta exigent: la IA pot assistir, ordenar, suggerir i donar suport; però no hauria d’ocupar el lloc on l’administració exerceix discrecionalitat sobre persones concretes. En aquest nucli, la legalitat no esgota la justícia, i la justícia administrativa continua requerint humanitat.

Llegit amb distància, el text no és una esmena total a la intel·ligència artificial en l’àmbit públic. És més aviat un intent de fixar una frontera constitucional i administrativa abans que la lògica de l’automatització la desdibuixi. La seva advertència de fons és sòbria, però poderosa: si el sector públic renuncia massa de pressa a la intervenció humana en les decisions discrecionals, pot acabar sacrificant precisament allò que justifica la seva legitimitat en un Estat de dret: la possibilitat d’escoltar, ponderar, explicar i decidir amb equitat. Aquesta és la discussió que l’AI Act obre, però no tanca. I és també la raó per la qual aquest assaig mereix ser llegit amb atenció per juristes, reguladors i responsables públics que avui dissenyen l’administració algorítmica de demà.

Leave a Reply