Skip to main content

Els agents d’IA, generatius o no, queden plenament coberts pel Reglament europeu sense necessitat de crear una categoria jurídica específica.

La pregunta feia mesos que planava en el debat regulatori europeu: quin lloc ocupen els agents d’intel·ligència artificial dins de l’AI Act? La resposta ha arribat sense grans anuncis, però amb conseqüències directes per a empreses i desenvolupadors. A data de 13 d’abril de 2026, l’AI Act Service Desk, la plataforma gestionada per la Direcció General de Xarxes de Comunicació, Contingut i Tecnologies (DG CONNECT), ha aclarit en la seva secció de preguntes freqüents que els agents d’IA estan inclosos en l’àmbit del Reglament (UE) 2024/1689. La interpretació es recull en aquesta anàlisi jurídica detallada, signada per José Morato y Pablo Sáez Hurtado (Delvy i president de la comissió jove d’Enatic).

La clarificació arriba en un moment especialment sensible. Falten menys de quatre mesos per al 2 d’agost de 2026, data en què entren en vigor les obligacions més exigents del reglament, i coincideix amb l’expansió accelerada de sistemes agèntics com CrewAI, Devin, OpenAI Agents SDK o Microsoft Copilot Agents, que estan redefinint la manera com les organitzacions integren la intel·ligència artificial en els seus processos.

Subsumpció jurídica: la clau de l’enfocament europeu

El missatge de la Comissió Europea és clar: no hi haurà una nova categoria legal per als agents d’IA. En el seu lloc, aquests sistemes s’integren dins de les definicions ja existents de “sistema d’IA” i “model d’IA de propòsit general” (GPAI). És a dir, el marc normatiu vigent és suficient per abastar aquesta nova generació tecnològica.

El raonament jurídic es basa en el considerant 97 del reglament, que estableix que els models d’IA requereixen components addicionals —com interfícies d’usuari— per convertir-se en sistemes complets. Un agent d’IA, que normalment combina un model amb capacitats d’interacció i execució, encaixa així dins d’aquesta definició.

Tanmateix, la Comissió introdueix una matisació rellevant: utilitza el terme “per regla general”. Aquest matís reconeix implícitament que no existeix una definició legal tancada d’“agent d’IA” i que el concepte engloba arquitectures molt diverses, des d’assistents conversacionals fins a sistemes autònoms que operen sense interacció humana directa.

A més, el mateix Service Desk adverteix que les seves interpretacions són preliminars. Aquest disclaimer no és menor: indica que Brussel·les manté marge per a futures intervencions reguladores i que l’encaix actual podria evolucionar a mesura que avanci la tecnologia i la pràctica supervisora.

Quatre nivells d’obligacions: un mapa operatiu

La clarificació permet estructurar l’impacte normatiu en quatre nivells diferenciats.

En primer lloc, les prohibicions absolutes de l’article 5 ja estan en vigor des del febrer de 2025. Això inclou pràctiques com la manipulació nociva o l’explotació de vulnerabilitats. En el cas dels agents, això implica que el seu disseny ha d’incorporar salvaguardes des de l’inici. No és una obligació futura: és un requisit actual.

En segon lloc, a partir de l’agost de 2026, els agents que siguin classificats com a sistemes d’alt risc hauran de complir amb el règim complet del Capítol III. Això inclou sistemes de gestió de riscos, supervisió humana efectiva, qualitat de dades, documentació tècnica i avaluació de conformitat abans de la seva comercialització.

En tercer lloc, s’apliquen obligacions de transparència quan l’agent interactua amb persones o genera contingut. L’article 50 introdueix requisits específics que encara estan en fase de desenvolupament a través del Codi de Bones Pràctiques, el qual continua sense una versió definitiva.

En quart lloc, els models GPAI subjacents poden ser considerats de risc sistèmic si presenten alts nivells d’autonomia, escalabilitat o accés a eines externes. En aquest cas, s’activen obligacions reforçades ja operatives sota el marc del codi GPAI publicat el juliol de 2025.

Les zones grises: on comença la incertesa

Malgrat l’aparent claredat, l’encaix jurídic dels agents deixa obertes diverses zones grises.

La primera afecta els agents sense interfície humana directa. Sistemes backend, orquestradors o agents màquina a màquina no encaixen de manera evident en l’esquema clàssic d’interacció. Tot i que el reglament permet una interpretació àmplia, la manca de precisió genera incertesa.

La segona qüestió crítica és l’assignació de responsabilitats. Els ecosistemes agèntics solen implicar múltiples actors: proveïdors de models, desenvolupadors de frameworks, integradors i empreses usuàries. L’AI Act defineix rols com proveïdor i responsable del desplegament, però traslladar-los a arquitectures modulars no és trivial.

A això s’hi suma la naturalesa no vinculant de les FAQ del Service Desk. Tot i que ofereixen orientació pràctica, no tenen valor jurídic directe. Només el text publicat al Diari Oficial de la Unió Europea té efecte normatiu. Això obliga les empreses a interpretar amb cautela i anticipació.

El factor responsabilitat: el següent front legal

El debat no es limita a l’AI Act. La Directiva (UE) 2024/2853 sobre responsabilitat per productes defectuosos, la transposició de la qual finalitza el desembre de 2026, introdueix un element addicional: els sistemes d’IA es consideren productes a efectes de responsabilitat objectiva.

Això obre un escenari complex. Si un agent autònom causa un dany, qui respon? El desenvolupador del model, l’integrador o l’empresa que el desplega? La interacció entre responsabilitat civil i regulació tecnològica serà un dels punts més delicats del nou marc europeu.

Espanya: efecte multiplicador regulatori

En el cas espanyol, la clarificació europea amplifica l’abast de l’avantprojecte de llei sobre governança de la IA aprovat el març de 2025. Aquest text preveu sancions de fins a 35 milions d’euros o el 7% del volum de negoci global en cas d’incompliment.

L’Agència Espanyola de Supervisió de la Intel·ligència Artificial (AESIA) es configura com a actor clau en aquest procés, tot i que encara no ha publicat guies específiques sobre agents. El seu paper serà determinant per traduir el marc europeu en criteris operatius.

Què han de fer les empreses

El marge de reacció es redueix. Les organitzacions que desenvolupin o utilitzin agents d’IA a Europa han d’actuar ja en tres fronts.

Primer, auditar els seus sistemes per verificar si incorren en pràctiques prohibides. Segon, identificar si les seves solucions poden classificar-se com d’alt risc. I tercer, preparar la documentació, governança i controls necessaris per complir amb les exigències de l’agost de 2026.

El focus s’ha de posar en els elements jurídicament rellevants: autonomia, capacitat d’inferència, impacte en l’entorn i ús d’eines externes. No n’hi ha prou amb etiquetar el sistema com a “agent”: cal entendre el seu comportament real.

A més, serà imprescindible revisar contractes en la cadena de valor, definir responsabilitats i establir mecanismes de control i traçabilitat, especialment en entorns on els agents operen amb cert grau d’autonomia.

Un marc en construcció, una urgència real

El règim jurídic dels agents d’IA encara no està completament definit. Però el missatge de la Comissió és inequívoc: no hi haurà pausa reguladora. El marc ja existeix i comença a aplicar-se.

L’estratègia europea no passa per legislar cada nova categoria tecnològica, sinó per adaptar principis existents a noves realitats. Això aporta estabilitat jurídica, però exigeix a les empreses una major capacitat d’interpretació i anticipació.

Qui esperi futures reformes arribarà tard. La finestra d’adaptació s’està tancant, i el compliment ja no és una opció estratègica, sinó una condició operativa per competir al mercat europeu.

Leave a Reply