Skip to main content

El despertar d’una visió assistida. 

La manera com interactuem amb el nostre entorn està experimentant una transformació silenciosa però profunda. Per a milions de persones amb discapacitat visual, el repte històric ha estat sempre el mateix: com navegar per un món dissenyat per ser vist, superant les limitacions d’eines tradicionals que, tot i ser útils, no aconsegueixen interpretar la complexitat d’un cartell, el número d’un autobús o la diferència entre dos productes idèntics en un prestatge.

Aquí és on entra en joc una solució combinada: la unió de les Smart Glasses i la Intel·ligència Artificial Multimodal. Mentre que les ulleres intel·ligents proporcionen el “cos” —una càmera en primera persona i un sistema d’àudio—, la IA actua com el “cervell” capaç de donar sentit a allò que aquesta càmera captura. Aquesta sinergia permet transformar imatges en paraules en temps real, marcant l’inici d’una nova era en l’autonomia personal on l’entorn deixa de ser un obstacle per convertir-se en informació accessible.

Ulleres Intel·ligents, el Suport de la Visió Perifèrica

Les ulleres intel·ligents, com les Ray-Ban Meta, representen l’evolució dels dispositius anomenats wearables. A diferència d’altres visors, s’integren en una muntura convencional, cosa que permet un ús socialment discret. El seu funcionament es basa en un node de captura situat estratègicament a l’altura dels ulls: disposen de càmeres d’alta resolució, micròfons direccionals i altaveus d’oïda oberta que no aïllen l’usuari dels sons ambientals.

Per si soles, aquestes ulleres van néixer per a tasques “mans lliures” com capturar fotos, vídeos o fer trucades. Tanmateix, com a eina d’assistència, la tecnologia pròpia d’aquestes ulleres és passiva. Sense un sistema que interpreti la imatge, el dispositiu no pot explicar què hi ha davant de l’usuari. Fins fa poc, l’única manera de salvar aquesta bretxa era mitjançant videotrucades amb voluntaris humans, cosa que limitava la privacitat i la immediatesa.

IA Multimodal, l’Intèrpret del Món

La tecnologia facilitadora és, un cop més, la IA Multimodal, un tipus d’intel·ligència artificial capaç de processar i relacionar diferents tipus d’informació, com text, imatges i àudio, de manera simultània. En integrar-se amb les Smart Glasses, la IA ja no només “veu” una imatge, sinó que la “entén”.

Aquesta combinació afegeix capacitats transformadores: la IA pot llegir etiquetes, descriure la composició d’una habitació o identificar obstacles a la vorera. La gran novetat rau en la seva naturalesa conversacional. L’usuari pot preguntar: “Què diu aquest menú?” o “Veus algun seient lliure en aquesta cafeteria?”. La IA analitza el flux de vídeo de les ulleres i respon amb veu de manera gairebé instantània. Aquesta sinergia converteix un accessori de moda en un assistent cognitiu que dota de significat l’entorn visual.

L’Impacte en l’Autonomia Quotidiana

Un exemple clarificador és l’ús d’aquestes ulleres intel·ligents i eines d’intel·ligència artificial per part de persones cegues. En proves documentades al seu canal de YouTube, molt interessant, la creadora de contingut AliBlueBox ha aconseguit realitzar tasques quotidianes de manera totalment independent.

Imatge d’Alicia Carreño (ALIBLUEBOX) després de la seva excel·lent presentació a la fira Expo-Òptica, Madrid.

En un cas d’estudi, Alicia va poder “veure” i interpretar un aparador al carrer sense ajuda externa. Mitjançant el comandament de veu “Hey Meta”, les ulleres li van indicar els preus exactes dels tractaments d’un centre de bellesa i li van permetre llegir un número de telèfon i una adreça física directament des del cartell del local. A més, recolzant-se en assistents conversacionals com Gemini integrat a Google Maps, ha aconseguit planificar i modificar rutes sobre la marxa amb comandes de veu, podent afegir parades per prendre un cafè mentre es dirigeix al veterinari amb la seva gossa guia, mantenint sempre les mans lliures.

Les ulleres intel·ligents permeten a Alicia (ALIBLUEBOX) “llegir” l’aparador i accedir al contingut visual de l’entorn en temps real. On abans hi havia només un aparador, ara hi ha informació: la IA converteix la visió en autonomia.

Però el testimoni d’Alicia no només subratlla les virtuts d’aquesta tecnologia, sinó que també posa el focus en una limitació tècnica crucial: la latència. Tot i que la sinergia entre les Smart Glasses i la IA permet una interpretació de l’entorn abans impensable, Ali adverteix que encara existeix un “retard” entre la captura de la imatge i l’explicació auditiva. En tasques recreatives, com llegir un menú o descriure un aparador, aquest desfasament és acceptable; però en situacions de seguretat crítica, com verificar si un semàfor ha canviat a verd, aquesta manca d’immediatesa absoluta representa un risc que impedeix confiar plenament en el dispositiu.

Aquesta observació és fonamental per entendre l’estat actual de la tècnica. La dependència de la connectivitat al núvol per processar models d’IA complexos com Gemini genera uns segons d’espera que la indústria ha de reduir dràsticament; aquí la tècnica té un camp de millora per recórrer.

Finalment, cal destacar que aquest cas no és una anècdota aïllada, sinó el símptoma d’un canvi de paradigma en la tecnologia assistida. Una altra disrupció important rau en l’alliberament físic que ofereix a l’usuari. Com ella mateixa destaca, el fet que aquestes eines funcionin “mans lliures” és crític: permet que una persona cega mantingui l’atenció i les mans en el maneig del seu gos guia o bastó, eliminant la vulnerabilitat que suposa caminar consultant una pantalla.

Implicacions Amples i Context Regional

L’èxit d’aquesta sinergia obre portes més enllà de la discapacitat visual. La combinació de visió artificial i ulleres intel·ligents té potencial en la logística, guiant operaris en magatzems, o en el turisme, traduint cartells en temps real.

En el context d’Espanya i la Unió Europea, institucions com l’ONCE estan liderant l’avaluació d’aquestes eines per garantir que el desplegament de la IA compleixi els estàndards d’accessibilitat i privacitat. El futur apunta cap a algoritmes més robustos capaços de reconèixer rostres de coneguts o interpretar semàfors amb més precisió. El repte pendent continua sent la connectivitat constant i la durada de les bateries en dispositius tan petits.

Cap a una Societat més Inclusiva

La sinergia entre les ulleres intel·ligents i la IA generativa demostra que la tecnologia assoleix el seu màxim valor quan es posa al servei de la capacitat humana. No estem davant d’un simple gadget, sinó davant d’una pròtesi cognitiva que retorna independència i dignitat.

L’impacte social és innegable: permetre que una persona sigui autònoma en la seva mobilitat i comunicació és el fi últim de la innovació responsable. La reflexió final és clara: hem de continuar apostant per aquest “matrimoni” tecnològic, assegurant que aquests avenços siguin assequibles i ètics. És el moment de veure la IA no com una amenaça, sinó com l’assistent incansable que ajuda a que ningú es quedi enrere per falta de visió.

Pere Vila Fumas

Doctor Enginyer en Telecomunicacions per la Universitat Politècnica de Catalunya i MBA a ESADE. Actualment, és mentor en l'adopció de tecnologies d'IA en la indústria.

Leave a Reply