Skip to main content

Els AirPods amb càmeres han arribat a una fase avançada de proves, amb disseny i funcions gairebé tancades, i apunten a convertir-se en el primer dispositiu d’Apple pensat des de l’inici perquè la IA vegi l’entorn de l’usuari.

Apple està preparant una nova generació d’AirPods que pot marcar un gir profund en la seva estratègia d’intel·ligència artificial. Segons Bloomberg, els auriculars amb càmeres integrades han assolit una fase avançada de proves en què el disseny i les funcions estan ja pràcticament finalitzats abans de passar a producció. Si el projecte es manté en els terminis previstos, aquests AirPods podrien convertir-se en el primer wearable d’Apple concebut específicament per a l’era de la IA: un dispositiu que no es limita a reproduir música, cancel·lar soroll o atendre trucades, sinó que aspira a captar informació de l’entorn perquè els sistemes intel·ligents de la companyia entenguin millor què envolta l’usuari.

La idea pot semblar estranya d’entrada: uns auriculars amb càmeres. Però l’objectiu no seria fer fotografies ni gravar vídeo convencional, sinó dotar els AirPods d’una mena de percepció ambiental. Les càmeres permetrien detectar elements de l’espai proper, interpretar context visual i alimentar funcions d’intel·ligència artificial vinculades a l’iPhone, Siri, Apple Intelligence i, eventualment, altres dispositius de l’ecosistema. Bloomberg assenyala que els prototips ja tenen un disseny i unes capacitats gairebé definitives, un senyal que Apple ha superat la fase d’exploració conceptual i s’acosta a una etapa de producte.

El moviment encaixa amb una tendència més àmplia: la IA necessita ulls, orelles i context. Durant la primera etapa de la intel·ligència artificial generativa, la interacció es va produir sobretot en pantalles: l’usuari escrivia una pregunta, pujava una imatge o demanava una resposta. Però la següent fase apunta a sistemes més ambientals, capaços de captar senyals del món real i respondre sense que l’usuari hagi de descriure-ho tot. En aquest marc, els AirPods amb càmeres poden convertir-se en una peça clau: són petits, es porten posats durant hores, ja estan associats a veu i àudio, i formen part d’un dels productes més exitosos d’Apple.

El repte per a Apple és doble. D’una banda, ha de demostrar que existeix una utilitat real per col·locar càmeres en uns auriculars. De l’altra, ha de recuperar credibilitat en intel·ligència artificial després d’una etapa en què Apple Intelligence ha avançat amb més cautela que les propostes d’OpenAI, Google, Meta o Anthropic. Davant rivals que han convertit els chatbots, els agents i els models multimodals en el centre de la seva estratègia, Apple sembla buscar una via pròpia: IA integrada en maquinari, en privacitat local i en una experiència d’usuari menys explícitament conversacional.

Els AirPods amb càmeres poden ser el primer gran intent d’aquesta via. No serien unes ulleres intel·ligents, però sí que podrien complir part de la seva funció sense obligar l’usuari a portar una muntura a la cara. Aquest detall importa. Meta ha demostrat amb les Ray-Ban Meta que les ulleres amb càmera, veu i IA tenen un mercat emergent, però també arrosseguen barreres socials: no tothom vol portar ulleres, no tots els entorns accepten càmeres visibles i no tots els usuaris volen un dispositiu que sembli dissenyat per gravar. Els AirPods, en canvi, ja estan normalitzats com a accessori quotidià.

La diferència és que uns auriculars amb càmeres plantegen preguntes tècniques molt complexes. On se situen exactament les càmeres? Quin camp de visió ofereixen des de l’orella? Com eviten captar imatges inútils o mal enquadrades? Quin tipus de sensor s’utilitza? Com es gestiona el consum energètic? Quin processament es fa al dispositiu, a l’iPhone o al núvol? Com s’informa tercers que el dispositiu pot estar captant informació visual? La promesa d’un wearable d’IA no se sosté només en el disseny: exigeix una arquitectura de privacitat, bateria, processament i utilitat molt afinada.

Des del 2024, diversos analistes havien anticipat que Apple estudiava integrar càmeres infraroges en futurs AirPods. Ming-Chi Kuo va assenyalar aleshores que aquests sensors podrien obrir la porta a formes de control gestual a l’aire i a una millor integració amb experiències espacials, especialment relacionades amb Vision Pro. Informacions posteriors apuntaven a una possible producció el 2026 o 2027, tot i que els detalls han variat segons les filtracions. MacRumors recollia recentment que Gurman no esperava suport per a gestos a l’aire en aquesta versió, malgrat que aquesta havia estat una de les hipòtesis inicials.

Aquest matís canvia la interpretació del producte. Si les càmeres no estan pensades principalment per a gestos, el focus es desplaça cap a la intel·ligència visual. Els AirPods podrien ajudar Siri o Apple Intelligence a entendre què està mirant o on es troba l’usuari, encara que d’una manera diferent a unes ulleres. Podrien servir per descriure objectes propers, orientar l’usuari en un espai, detectar senyals visuals, complementar instruccions de navegació o millorar experiències de realitat espacial. També podrien aportar context a funcions d’accessibilitat, un terreny on Apple ha construït històricament una reputació sòlida.

L’accessibilitat pot ser una de les aplicacions més potents. Uns AirPods capaços de captar senyals visuals podrien ajudar persones amb baixa visió a identificar objectes, portes, textos, obstacles o situacions de l’entorn, sempre que el sistema aconsegueixi prou precisió i privacitat. Apple ja ha demostrat interès en funcions com reconeixement de sons, detecció de portes, lectura de text o assistència visual des de l’iPhone. Portar part d’aquesta percepció a uns auriculars permetria una experiència més discreta i contínua.

Però la utilitat no es limita a accessibilitat. Un wearable d’IA amb àudio i visió ambiental podria actuar com a assistent contextual en situacions quotidianes: recordar on s’ha deixat un objecte, ajudar a interpretar un senyal en un aeroport, identificar un producte, traduir un cartell, guiar una reparació domèstica o donar suport a una compra. La clau no estaria en què els AirPods “vegin” per si sols, sinó en què capturin prou context perquè l’iPhone i els models d’IA puguin respondre amb més precisió.

La relació amb Siri serà decisiva. Apple porta anys prometent una Siri més intel·ligent, capaç d’entendre context personal, operar entre aplicacions i respondre de manera més útil. Uns AirPods amb càmeres només tindrien sentit si aquesta capa d’intel·ligència està preparada. Sense un assistent robust, les càmeres serien una curiositat de maquinari. Amb un assistent veritablement contextual, podrien convertir-se en una nova interfície: l’usuari pregunta per veu i el sistema respon tenint en compte el que el dispositiu percep.

Aquesta és la diferència entre un accessori i un wearable d’IA. Un accessori afegeix una funció. Un wearable d’IA canvia la relació entre persona, entorn i sistema operatiu. Apple ja té peces d’aquest trencaclosques: AirPods, Apple Watch, iPhone, Vision Pro, Apple Intelligence, Siri, xips propis i un ecosistema tancat. El que li falta és connectar-ho tot en una experiència que sembli inevitable, no forçada.

El context competitiu pressiona. Meta ha pres avantatge en ulleres intel·ligents amb Ray-Ban Meta i treballa en dispositius més avançats. Google ha renovat la seva aposta per Android XR i assistents multimodals. OpenAI i altres laboratoris empenyen cap a interfícies de veu, càmera i agents. Humane va fracassar amb el seu AI Pin, però el seu fracàs no va eliminar la idea d’un assistent ambiental; més aviat va demostrar que el producte ha de ser útil, ràpid i socialment acceptable. Apple, fidel al seu estil, sembla apostar per una entrada més gradual: no un nou dispositiu estrany, sinó una evolució d’un producte ja massiu.

Bloomberg també ha informat que Apple treballa en altres wearables d’IA, com ulleres intel·ligents i un penjoll o dispositiu tipus pin amb càmeres, encara que el desenvolupament d’aquest accessori aniria per darrere dels AirPods amb càmeres. MacRumors recollia el 7 de maig del 2026 que el suposat “pendant” podria llançar-se com a molt aviat l’any vinent, però que els AirPods amb càmeres estan més avançats.

Aquesta cartera de projectes suggereix que Apple no ha escollit encara una única forma per a la IA ambiental. Ulleres, auriculars, penjolls i rellotges podrien complir funcions diferents. Les ulleres hi veuen millor. Els auriculars escolten i parlen millor. El rellotge mesura el cos i acompanya tot el dia. L’iPhone coordina potència, pantalla i connectivitat. El desafiament consisteix a decidir quin sensor pertany a cada dispositiu i quina experiència mereix cada format.

Els AirPods tenen un avantatge comercial evident: són un producte provat. Apple no necessita convèncer l’usuari de portar alguna cosa nova, sinó d’actualitzar una cosa que ja utilitza. La incorporació de càmeres, si es presenta com una eina d’IA i no com una simple captura visual, podria justificar una nova categoria premium: uns AirPods Ultra o Pro avançats, més cars i orientats a qui vol funcions intel·ligents més enllà de l’àudio.

La privacitat serà el punt més delicat. Apple ha construït la seva marca al voltant de la protecció de dades i haurà d’explicar molt bé què capten aquestes càmeres, quan s’activen, si emmagatzemen imatges, si processen localment, quins indicadors visuals hi haurà i com s’evita la vigilància involuntària. En unes ulleres, la càmera és visible a la cara. En uns auriculars, pot ser menys òbvia per a tercers. Això pot ser un avantatge estètic, però un problema social.

També caldrà veure si la qualitat de l’angle visual és suficient per a casos d’ús convincents. Un auricular no apunta exactament cap a on mira l’ull. Està al lateral del cap i pot captar una perspectiva diferent. Potser per això les càmeres siguin infraroges o estiguin pensades per profunditat, detecció espacial o suport contextual, més que per imatge convencional. Si l’objectiu és entendre l’entorn i no gravar-lo, Apple pot reduir part de la tensió social i tècnica.

La connexió amb Vision Pro és una altra peça rellevant. Els AirPods ja s’integren amb àudio espacial i experiències immersives. Uns sensors addicionals podrien millorar la comprensió de l’espai, l’orientació o la interacció entre dispositius. Encara que Vision Pro continua sent un producte car i d’adopció limitada, Apple podria estar construint una família de sensors distribuïts per a experiències espacials futures.

Els AirPods amb càmeres també poden redefinir el concepte d’“auricular”. Fins ara, la categoria ha evolucionat des de l’àudio cap a salut auditiva, cancel·lació de soroll, traducció i sensors corporals. El següent salt seria convertir-los en sensors ambientals. Deixarien de ser un accessori de so per convertir-se en un node perceptiu de l’ecosistema Apple.

La reacció del mercat dependrà de com Apple comuniqui el producte. Si el presenta com càmeres a les orelles, generarà dubtes. Si el presenta com intel·ligència visual privada, accessible i contextual, pot canviar la conversa. La diferència serà narrativa, però també tècnica: indicadors de privacitat, processament local, baixa latència, integració amb Siri i casos d’ús demostrables.

En definitiva, els AirPods amb càmeres apunten a una de les grans preguntes de la pròxima etapa tecnològica: com portar la IA del xat al món real. La pantalla i el teclat han estat la porta d’entrada inicial. La veu i la visió seran la següent frontera. Apple vol entrar en aquesta frontera no des d’un chatbot, sinó des d’un objecte que milions de persones ja porten a les orelles.

Si el projecte arriba finalment al mercat, no serà només una nova versió dels AirPods. Serà una declaració d’estratègia: Apple vol que la IA no sigui una aplicació, sinó una capa perceptiva distribuïda pels seus dispositius. I el primer pas podria estar més a prop de l’orella que dels ulls.

Leave a Reply