Skip to main content

Un sistema creat per orientar la gestió penitenciària interna ha acabat influint en permisos, tercers graus i llibertat condicional sense un marc clar de garanties judicials. 

RisCanvi va néixer a Catalunya fa una quinzena d’anys com una eina d’avaluació del risc a les presons. El seu nom uneix dues paraules, “risc” i “canvi”, i la seva funció original era ajudar l’administració penitenciària a valorar la probabilitat de reincidència, violència o trencament de condemna de les persones internes. Sobre el paper, era un instrument tècnic de suport, integrat en un protocol i pensat perquè els professionals de presó disposessin de més informació a l’hora de prendre decisions complexes. Amb el pas dels anys, però, el seu paper ha crescut fins a convertir-se en una peça d’enorme influència dins l’ecosistema penitenciari català. I aquí és on comença el problema: una cosa és que un algoritme ajudi a organitzar el treball intern de les presons, i una altra de ben diferent és que els seus resultats acabin condicionant, de facto, decisions judicials que afecten directament la llibertat d’una persona.

Això és precisament el que revela el dossier de Público sobre RisCanvi: que un sistema dissenyat per donar suport a la gestió penitenciària s’ha anat desplaçant progressivament cap al terreny judicial, on fiscals i jutges l’utilitzen com una referència de pes a l’hora de valorar permisos, progressions de grau o llibertat condicional. La investigació documenta que aquest ús es produeix sense criteris homogenis, sense formació suficient i sense garanties clares sobre el context en què s’han d’interpretar aquests resultats. La troballa central no és només tècnica. És política, jurídica i social: quan la predicció algorítmica entra en un àmbit tan sensible com la justícia penitenciària, qualsevol manca de transparència o de control deixa de ser un defecte administratiu per convertir-se en una qüestió de drets fonamentals.

El cas de l’Omar —nom fictici utilitzat per protegir-ne la identitat— resumeix amb cruesa aquesta tensió. Intern des del 2011, amb una evolució positiva a la presó i acompanyat per professionals externs en el seu procés de reinserció, va veure com la seva sol·licitud de tercer grau es complicava per l’aparició d’un “RisCanvi alt” a l’expedient enviat al jutge. Aquesta qualificació, segons explica la investigació, ja havia pesat abans en la denegació d’un permís ordinari. L’escena és reveladora perquè mostra com una etiqueta numèrica o categòrica pot acabar funcionant com un argument d’autoritat difícil de desmuntar. No es tracta que l’algoritme decideixi formalment. Es tracta que el seu resultat es pugui instal·lar a l’expedient com una advertència silenciosa que condiciona tota la lectura posterior del cas.

Aquí rau una de les claus principals del debat. RisCanvi no actua en el buit. Forma part d’un sistema sociotècnic en què intervenen funcionaris, juntes de tractament, juristes, psicòlegs, treballadors socials, fiscals i jutges. Dins la presó, segons el mateix protocol, els seus resultats s’han d’interpretar amb cautela i sempre amb context. L’advertiment que veuen els funcionaris quan validen les avaluacions indica expressament que aquests nivells de risc no han de condicionar per si sols la decisió final i que s’han de llegir tenint en compte el motiu i el context del cas. Però fora de l’entorn penitenciari, quan aquests mateixos resultats arriben a seu judicial, el context es debilita o desapareix. El que per a un tècnic intern és una variable més, per a un jutge o un fiscal es pot convertir en un senyal aparentment objectiu, compacte i difícil de discutir.

La investigació de Público mostra que aquest trasllat de l’algoritme des de l’administració penitenciària a la justícia es produeix, a més, en un escenari de gran disparitat. Algunes fonts jurídiques sostenen que determinats jutjats de vigilància penitenciària atorguen al resultat de RisCanvi una rellevància gairebé determinant. Si l’informe inclou un risc mitjà o alt, la barrera per obtenir un permís o una progressió de grau esdevé molt més difícil de superar. Altres instàncies, com algunes audiències provincials, semblen fer-ne una lectura més matisada. Però el fet que no existeixi un criteri uniforme ja és, per si mateix, una mala notícia. En un àmbit on està en joc la llibertat, la desigualtat en l’ús d’una mateixa eina es pot traduir en desigualtat de tracte.

El debat no es limita a si l’algoritme encerta molt o poc. La qüestió de la precisió importa, és clar, però no exhaureix el problema. Segons els estudis citats al dossier, la capacitat predictiva de RisCanvi se situa en nivells comparables als d’eines similars utilitzades en altres països, com el Canadà, els Estats Units o el Regne Unit. Carlos Castillo, investigador de la Universitat Pompeu Fabra, explica que si es comparen dos interns, un reincident i un altre no reincident, en una mica més del 70% dels casos l’eina haurà assignat una puntuació més alta a qui efectivament va reincidir. Dit d’una altra manera: el sistema té una capacitat rellevant per ordenar riscos, però també s’equivoca en prop d’un 30% dels casos en aquest tipus de comparació. I aquest marge d’error, que en altres àmbits es podria assumir com una limitació estadística més, adquireix una altra dimensió quan es pot traduir en mesos o anys addicionals de restricció efectiva de llibertat.

La potència del sistema prové de la gran quantitat de variables que incorpora. RisCanvi utilitza 43 factors de risc en la seva versió completa i una versió inicial més reduïda per a les persones que ingressen per primera vegada a la presó. Entre aquests factors hi ha elements estàtics, vinculats a la biografia de l’intern, com el tipus de delicte, l’edat del primer fet delictiu, la nacionalitat o determinats antecedents familiars. Però també hi ha factors dinàmics, lligats a la conducta a la presó i, almenys en teoria, susceptibles de canviar: la impulsivitat, l’hostilitat, la resposta al tractament, l’existència de conflictes amb altres interns o l’evolució personal durant la condemna. L’equilibri entre tots dos blocs és decisiu. Si el sistema castiga massa el passat i pesa poc el canvi real produït durant l’estada a la presó, la promesa de reinserció queda erosionada des de la mateixa arquitectura del model.

Aquesta és precisament una de les crítiques més persistents al voltant de RisCanvi. Diverses veus reclamen des de fa anys que els factors dinàmics, especialment aquells que depenen de l’evolució de l’intern, tinguin més pes en el càlcul. No és una objecció secundària. En el fons, qüestiona la filosofia de l’eina. Està RisCanvi pensat per fotografiar una trajectòria de risc gairebé congelada en el temps o per captar autèntics processos de transformació? Si el model respon més al primer enfocament que no pas al segon, el seu ús dins el sistema penitenciari entra en fricció amb la lògica rehabilitadora que hauria d’orientar l’execució penal. La presó, en aquest cas, corre el risc de convertir-se en un espai on s’exigeix canviar mentre el mateix sistema estadístic triga massa a reconèixer aquest canvi.

El cas de l’Omar torna a il·lustrar-ho. La investigació apunta que variables com la naturalesa violenta del delicte pel qual va ser condemnat o el fet d’haver-lo comès sota intoxicació alcohòlica podrien continuar penalitzant-lo molts anys després, malgrat la seva bona evolució penitenciària. A això s’hi afegeix un altre element encara més preocupant: en diversos moments, el seu RisCanvi no s’hauria actualitzat amb la periodicitat prevista pel protocol, que estableix revisions almenys semestrals. És a dir, no només pot existir un problema en la ponderació de les variables, sinó també una mala praxi en l’actualització de les dades. Si el jutge rep una fotografia vella de la situació de l’intern, la promesa d’objectivitat es converteix en una ficció burocràtica.

Aquest punt enllaça amb una realitat material que el dossier subratlla amb claredat: les presons catalanes arrosseguen des de fa temps problemes de personal i recursos. Quan un sistema depèn de l’actualització periòdica i rigorosa d’informació qualitativa i quantitativa, qualsevol dèficit estructural repercuteix directament en la qualitat de la predicció. Els algoritmes no corregeixen per si sols les mancances de l’administració. Més aviat les absorbeixen, les sistematitzen i, de vegades, les projecten amb una aparença de neutralitat. La idea que una puntuació neix d’una màquina pot induir a pensar que està lliure d’errors humans, quan en realitat descansa sobre dades introduïdes, interpretades i validades per persones i institucions amb limitacions molt concretes.

Un altre dels grans eixos del debat és l’impacte desigual sobre els interns més vulnerables. El reportatge de Público insisteix que la combinació entre opacitat, ús judicial intens i manca de recursos de defensa penalitza especialment els qui tenen menys suports. Molts interns no saben com recórrer una decisió, no comprenen el funcionament del sistema o no tenen accés a una defensa lletrada prou especialitzada. La situació s’agreuja en el cas de persones estrangeres amb dificultats idiomàtiques i en perfils socialment més fràgils. A la pràctica, això significa que el biaix no només pot estar en l’algoritme o en el seu ús institucional, sinó també en la capacitat desigual dels afectats per impugnar-lo. La justícia algorítmica, quan no té garanties reals de contradicció, tendeix a castigar més qui menys eines té per defensar-se.

Aquí apareix de ple la dimensió europea del problema. El reglament d’intel·ligència artificial aprovat per la Unió Europea el 2024 posa el focus sobre els usos d’alt risc, especialment en àmbits com la justícia, la gestió pública o les presons. La lògica del nou marc és clara: com més sensible sigui el context d’aplicació, més grans han de ser les exigències de transparència, supervisió, traçabilitat, seguretat i control humà. Judith Membrives, responsable de Tecnologia i Drets Humans a Lafede, adverteix al dossier que estendre l’ús d’un sistema d’IA o d’un algoritme més enllà de la finalitat per a la qual va ser concebut genera un “buit de garanties”. I l’expressió és especialment pertinent en aquest cas. Perquè una de les troballes més rellevants de la investigació no és que RisCanvi existeixi, sinó que el seu ús judicial s’assembla a un desplaçament de finalitat: d’eina administrativa interna a argument d’autoritat en decisions jurisdiccionals.

Aquest desplaçament no és un matís tècnic, sinó un salt qualitatiu. Quan una eina dissenyada per orientar la feina d’una junta de tractament acaba condicionant el criteri d’un jutge, es dilueix la frontera entre suport tècnic i delegació de judici. Ningú sosté formalment que l’algoritme substitueixi el magistrat. Però l’efecte d’autoritat tècnica pot ser suficient per decantar la balança. De fet, la literatura científica i els estudis citats al dossier apunten que els éssers humans tendeixen a sobredimensionar la fiabilitat de les recomanacions algorítmiques, fins i tot quan disposen d’informació que apunta en sentit contrari. La pregunta, per tant, ja no és només si el model és correcte, sinó què fa psicològicament i organitzativament amb els qui l’utilitzen.

Aquest aspecte és fonamental i acostuma a quedar relegat en les discussions públiques sobre IA. Helena Matute, des de la Universitat de Deusto, recorda en la investigació que el veritable desafiament no és únicament avaluar la màquina, sinó estudiar com interactua amb la persona que hi treballa. Si una predicció errònia indueix a error el professional, encara que el sistema sigui formalment “auxiliar”, el resultat final pot ser pitjor que el d’una decisió purament humana. En altres paraules: la qualitat d’un sistema de suport a la decisió no es mesura només per la seva precisió estadística aïllada, sinó per l’efecte conjunt que genera en la pràctica institucional. I aquesta dimensió sociotècnica resulta decisiva en un entorn tan delicat com la justícia penitenciària.

Mentrestant, la Generalitat treballa en una actualització de RisCanvi que hauria d’entrar en funcionament durant el 2026. Segons les informacions recollides per Público, la nova versió preveu introduir millores tècniques, nous punts de tall i, de manera especialment rellevant, tècniques d’aprenentatge automàtic orientades a l’equitat, l’anomenat fairness-aware machine learning. També es planteja reforçar el pes dels factors dinàmics per captar millor l’evolució real de l’intern, a més d’obrir dades anonimitzades a la comunitat científica, crear un repositori de codi i documentació viva, i establir sistemes automàtics de control de precisió i biaixos. Tot això apunta a una modernització significativa del sistema.

Tanmateix, convé no caure en una lectura ingènua. Una millora tècnica no resol per si sola un problema institucional, jurídic i democràtic. Un algoritme més sofisticat pot reduir alguns biaixos i millorar certs indicadors, però també pot augmentar l’opacitat i dificultar l’auditabilitat externa. Com més complex és el model, més difícil resulta entendre per què ha arribat a una determinada conclusió. I com més difícil és entendre’l, més difícil és impugnar-lo, supervisar-lo i exigir responsabilitats. La gran temptació dels poders públics en l’era algorítmica consisteix a presentar l’actualització tecnològica com una solució suficient per a problemes que, en realitat, remeten a desigualtats estructurals, dèficits de recursos i absència de regles clares.

En el fons, RisCanvi planteja una pregunta més àmplia sobre el lloc que han d’ocupar els algoritmes dins l’Estat de dret. Ningú discuteix que l’administració necessita eines per gestionar riscos, ordenar informació i millorar la coherència de les seves decisions. Tampoc no sembla raonable negar per principi qualsevol utilitat als models predictius. El problema sorgeix quan una tecnologia estadística comença a acumular poder sense un marc robust de control democràtic. Si un intern no pot saber amb claredat quines variables el perjudiquen, si no té una via real i accessible per corregir errors, si el jutge utilitza la predicció sense formació específica i si l’administració no transparenta prou la lògica del sistema, aleshores l’algoritme deixa de ser una ajuda prudent i es converteix en una caixa d’influència difícil d’acotar.

La història de RisCanvi no és només la història d’un programari penitenciari català. És també un cas d’estudi sobre com la digitalització del sector públic pot reconfigurar silenciosament relacions de poder molt sensibles. En teoria, parlem d’eficiència, evidència i suport tècnic. A la pràctica, parlem de permisos denegats, tercers graus bloquejats, recursos difícils de presentar i trajectòries de reinserció que poden quedar frenades per una puntuació l’autoritat de la qual ningú no ha delimitat del tot. Aquí és on el debat sobre IA abandona l’abstracció i es fa tangible: no som davant de màquines futuristes, sinó davant de sistemes que poden influir sobre la llibertat, el tracte institucional i les oportunitats de recompondre una vida.

Per això el cas mereix atenció molt més enllà de l’àmbit penitenciari. El que està en joc no és únicament si RisCanvi funciona millor o pitjor que altres eines semblants, sinó si una democràcia accepta que tecnologies d’alt impacte operin en zones grises normatives. La qüestió decisiva no és si l’algoritme “sap” alguna cosa sobre el risc, sinó qui en controla l’ús, qui respon pels seus efectes i qui protegeix els qui queden atrapats en els seus marges d’error. En una societat que delega cada vegada més decisions en sistemes de dades, la prova real no consisteix a celebrar la modernització, sinó a verificar que aquesta modernització no rebaixa garanties allà on més s’haurien de reforçar.

Si alguna cosa mostra el dossier de Público és que el debat sobre RisCanvi ja no es pot limitar a la precisió matemàtica. La discussió de fons té a veure amb la finalitat legítima del sistema, amb la transparència, amb la supervisió judicial, amb la formació dels operadors, amb el dret de defensa i amb la capacitat real de la presó per reconèixer l’evolució de les persones. Perquè una eina que va néixer per mesurar risc no hauria d’acabar consolidant inèrcies que dificultin el canvi. I una justícia que aspira a ser garantista no es pot permetre tractar una predicció estadística com si fos una veritat reforçada.

Leave a Reply