A l’AI Summit Barcelona, la intel·ligència artificial no va ser una demostració de poder, sinó una conversa entre mons. Entre el 14 i el 15 d’octubre, al Yellow Park de Glovo es van reunir més de 1000 persones i desenes de veus que no busquen protagonisme, sinó transformar des de dins les regles del joc. Des de Paréntesis Media parlem amb tres ponents les trajectòries dels quals es creuen en una mateixa inquietud: com fer que la IA sigui comprensible, accessible i justa?
Entre l’ansietat i la curiositat
“Moltes dones volien aprendre sobre intel·ligència artificial, però no sabien per on començar”, explica Stephany Oliveros. Des de la seva experiència professional amb sistemes d’IA, va començar a rebre preguntes constants d’amigues, col·legues, conegudes. Així va néixer la seva plataforma educativa en aliança amb Nacions Unides, She AI. El seu enfocament és directe: píndoles de coneixement per a dones amb poc temps i molta incertesa. “Tot està adaptat perquè fins i tot la meva mare ho entengui”, bromeja, encara que la frase apunta a un problema real: el llenguatge tècnic pot excloure tant com els algoritmes.
L’ansietat que ressalta Oliveros no és només tècnica. “Les dones tenen dubtes sobre si aquests sistemes compleixen el que prometen, sobre què impliquen per a la seva feina, el seu entorn, i la seva salut mental”, explica. Per a ella, crear un espai segur d’aprenentatge no és un afegit, sinó una condició perquè l’alfabetització funcioni. «No és com utilitzar un ChatGPT, és una eina que està causant una nova revolució i necessitem ser part d’això per poder construir un futur més igualitari», insisteix. Cita una dada reveladora: “El 77% de les dones vol aprendre d’IA, però només el 40% de les empreses ofereix formació interna”.
Visibilitzar, no només incloure
Julia Stamm, fundadora de She Shapes AI, una empresa per destacar el treball de les dones emprenedores en el món de la IA, apunta a un altre vèrtex del mateix problema: la visibilitat. “Moltíssim treball liderat per dones ja existeix, però no té plataforma ni accés a finançament”, assenyala. Des de la seva organització impulsa premis, xarxes i assessorament perquè les veus femenines en IA no es quedin al marge.
Stamm denuncia també una doble vara: “Quan un home utilitza IA en la feina, se l’aplaudeix; quan ho fa una dona, se l’acusa de fer trampa”. La frase és dura, però ve acompanyada de dades i exemples. Adverteix que, encara que moltes dones entren al sector tecnològic, poques assoleixen llocs de lideratge. «L’entorn continua sent tòxic en moltes empreses tech. Hi ha talent, però falta suport real perquè creixi i es quedi».
Per a Stamm, la solució no és només tècnica ni legislativa. Insisteix en la necessitat d’incorporar la responsabilitat des de l’inici: «No es tracta d’afegir ètica al final, sinó de pensar la IA amb responsabilitat des del principi». “Volem mostrar el que passa quan la IA s’utilitza bé, amb propòsit i amb ètica des del principi”.
I insisteix que és molt important centrar-nos en l’alfabetització digital, que no és només una qüestió de formació, sinó d’equitat. «Si no entens què hi ha dins d’aquestes eines, les fas servir com si fossin màgia. I el màgic no es qüestiona».
I si la IA ens llegís la ment?
El professor Thorsten O. Zander porta aquesta discussió a un nivell encara més íntim. La seva vocació va començar aviat: «Tenia quatre anys quan vaig veure una sèrie anomenada Captain Future. Un professor salvava el seu cervell posant-lo en una màquina. Va ser llavors quan vaig saber que volia treballar en això», recorda entre rialles.
«Tothom entén que alguna cosa està canviant amb l’arribada de la IA, i només podrem tenir èxit si aconseguim una IA en la qual es pugui confiar i una societat que entengui com utilitzar-la», afirma. Des de la seva empresa Zander Labs and i la seva càtedra a Alemanya, treballa amb sistemes que capten senyals cerebrals per ajustar el comportament de les màquines. “No es tracta de fer servir la tecnologia, sinó de col·laborar amb ella”, diu. Imagina assistents virtuals que detecten el nostre estat emocional en temps real o pilots automàtics entrenats amb les nostres pròpies reaccions mentals.
Però Zander és conscient del vertigen. «Els senyals del cervell són el més íntim que tenim», adverteix. Per això els seus dispositius processen la informació localment i esborren les dades en segons. L’essencial, diu, és que l’usuari sàpiga què es capta, per què, i durant quant de temps. I va més enllà: “Les companyies han de ser molt més transparents del que han estat fins ara. No podem demanar confiança si no expliquem com funcionen les nostres tecnologies. No n’hi ha prou amb regular. La regulació sempre va per darrere. Cal autoregulació i una ciutadania que entengui el que està en joc”. I, a més, ser accessibles: «Hem de parlar sense tecnicismes i acostar-nos a la gent. No podem esperar que una persona que no està ficada en ciència o empresa llegeixi articles acadèmics. Hem de sortir a explicar, tots, des d’on estiguem», conclou Zander.
Una mateixa pregunta en tres idiomes
Oliveros, Stamm i Zander no parlen del mateix, però sí des d’aquest. Des del desig que la IA no sigui només una tecnologia, sinó una oportunitat per fer millor les coses. Els seus àmbits són diferents —educació comunitària, política d’inclusió i visibilització, neurotecnologia— però comparteixen un diagnòstic, sense comprensió no hi ha confiança, i sense confiança no hi ha participació real.
L’AI Summit Barcelona no va tancar debats, però els va obrir. Les veus que es van sentir a Barcelona no van donar respostes definitives, però sí una certesa: entendre la IA no és opcional.