Meta va estudiar activar reconeixement facial a les seves Ray-Ban “quan els defensors de la privacitat estiguin distrets”, segons un document intern citat per The New York Times.
Durant mesos, Meta ha aconseguit una cosa que semblava improbable: que unes ulleres intel·ligents tornin a ser desitjables. Les Ray-Ban Meta funcionen, no semblen un prototip estrany i, per primera vegada en aquesta categoria, l’estètica no delata el dispositiu. Aquesta “normalitat” és precisament el seu superpoder. I també, com adverteix The Verge, el motiu pel qual poden acabar sent socialment tòxiques: són prou discretes per gravar sense que ningú se n’adoni.
El diagnòstic no és tècnic, sinó cultural: el producte pot ser bo, fins i tot brillant, però l’empresa que el comercialitza arrossega una reputació tan dolenta en privacitat que qualsevol avenç s’interpreta com una amenaça. I la por no neix d’una paranoia abstracta: neix d’incentius, precedents i senyals recents.
El “catch-22” de les ulleres intel·ligents: com millor s’integren, pitjor es viuen
Els evangelistes de les smart glasses solen respondre el mateix: “El teu mòbil també té càmera, ja estàs envoltat de CCTV i el reconeixement facial el fa servir l’Estat”. És cert: vivim enregistrats. Però el salt qualitatiu és la fricció. Treure el mòbil implica un gest visible; unes ulleres, no. A la columna, Victoria Song ho resumeix amb un punt incòmode: la invisibilitat és l’objectiu, perquè el dispositiu pretén semblar unes Ray-Ban normals.
Aquest disseny “invisible” crea una paradoxa: Meta ha trobat el format que fa que les ulleres funcionin… i alhora ha creat un objecte perfecte per al monitoratge quotidià. No cal que l’usuari tingui la intenció d’espiar; n’hi ha prou que l’entorn no pugui distingir quan està sent capturat. Aquí entra un detall aparentment menor, però decisiu: l’indicador lluminós d’enregistrament.
El LED de privacitat: un símbol feble per a una promesa enorme
Les Ray-Ban Meta incorporen un llum que hauria d’avisar quan s’està gravant. El problema, segons la columna, és doble: és poc visible i no és inviolable. Song cita un reportatge de 404 Media sobre una modificació barata —al voltant dels 60 dòlars— capaç de desactivar el LED i convertir la gafa en una càmera encara més opaca.
El debat sobre el LED no és un tecnicisme: és la diferència entre “dispositiu socialment tolerable” i “eina de vigilància portàtil”. Els indicadors només funcionen quan la resta de la societat confia que són fiables i difícils de manipular. Si el mateix mercat demostra que es poden desactivar, l’avís deixa de ser avís i passa a ser un ornament.
Aquesta fragilitat encara és més rellevant perquè les ulleres són, per disseny, petites, discretes i fàcils de confondre amb un accessori normal. No és casual que la columna connecti aquesta discreció amb la sensació de “ser un espia” quan les portes: no perquè el portador ho vulgui, sinó perquè l’objecte està optimitzat perquè ningú el percebi.
“Manfluencers”, gravacions sense consentiment i la resposta mínima de Meta
La privacitat no es trenca només per enginyeria; es trenca per usos reals. The Verge recull informes d’homes que graven dones sense el seu consentiment per fer contingut a xarxes, i critica que Meta no hagi reaccionat amb contundència, limitant-se a assenyalar els termes de servei i el LED com a salvaguarda.
Aquest patró —resposta corporativa estàndard, èmfasi en “ús responsable”, poca fricció per a l’abús— és crucial. Perquè les ulleres amplifiquen el problema clàssic de la plataforma: si el teu sistema fa fàcil allò problemàtic, el “bon comportament” es converteix en una recomanació innòcua. I el salt al reconeixement facial, si arriba, multiplicaria el dany: ja no seria només gravar, sinó identificar.
El punt de no retorn: reconeixement facial “quan estiguem distrets”
Aquí hi ha la frase que condensa la por. En una altra peça de The Verge, Emma Roth informa d’un document intern —revisat per The New York Times— on Meta plantejava llançar una funció de reconeixement facial en un “entorn polític dinàmic” perquè les organitzacions crítiques estarien centrades en altres batalles.
Segons aquest mateix text, la funció s’hauria dit “Name Tag” i permetria identificar persones mitjançant l’assistent d’IA integrat, amb exploracions que anirien des de reconèixer contactes de l’usuari a les plataformes de Meta fins a, potencialment, persones amb perfils públics (per exemple, a Instagram).
Meta, sempre en aquesta frontera, també té l’antecedent d’haver utilitzat reconeixement facial a Facebook i d’haver-lo discontinuat el 2021 després de controvèrsies i pressió legal i social, una cosa que The Verge recorda a la cobertura.
El problema no és només la tecnologia: és el timing i l’argument tàctic. Si una empresa admet —encara que sigui en un document intern— que la seva estratègia passa per aprofitar la saturació informativa per introduir una capacitat sensible, el missatge que envia és devastador: “sabem que això genera rebuig; busquem el moment en què no pugueu reaccionar”.
De la IA “amb càmera” a la IA “per entrenar”: l’incentiu de capturar més
El debat s’agreuja per com Meta ha anat ajustant polítiques per alimentar la seva IA. El 2025, The Verge va explicar canvis en la política de privacitat de les ulleres que, a la pràctica, reforcen el paper de la càmera com a font de dades: Meta AI “amb càmera” continua habilitada per defecte tret que l’usuari desactivi la comanda d’activació (“Hey Meta”), i també es van eliminar opcions d’exclusió relacionades amb l’emmagatzematge d’enregistraments de veu, amb una retenció que pot arribar fins a un any per millorar productes.
Això no implica que les ulleres gravin contínuament, però sí que aclareix el marc: la càmera i l’àudio no són només funcions; són matèria primera per a models. En un mercat on “veure” és l’avantatge competitiu —IA multimodal, context, assistents que entenen l’entorn— l’incentiu natural és capturar més, conservar més i analitzar més. I aquest incentiu xoca de ple amb l’expectativa social de no ser enregistrat de manera invisible en espais quotidians.
La reputació com a limitació tècnica: el “hardware cool” que no es compra
La columna de Song s’obre amb un comentari que es repeteix cada vegada que es parla de Ray-Ban Meta: “Bon hardware, però passo; esperaré algú que no sigui Meta”. Aquest és el gran obstacle: no n’hi ha prou que el producte sigui útil; ha de ser legítim. I Meta arriba a la categoria amb una motxilla de desconfiança: Cambridge Analytica com a mite fundador de l’era moderna d’escàndols de dades, decisions públiques controvertides i una llarga història de “moure’s ràpid i demanar perdó després”, que l’autora fa servir com a context per explicar per què, amb Meta, fins i tot un LED es percep insuficient.
Quan una companyia parteix de la desconfiança, cada nova capacitat s’interpreta com a explotació potencial: si la gafa pot identificar, aleshores “doxxeja”; si pot gravar, aleshores “assetja”; si pot escoltar, aleshores “espia”. I el mercat de wearables és especialment vulnerable a aquesta percepció perquè es porta a sobre, s’integra amb el cos i opera a la frontera entre allò privat i allò públic.
El que les ulleres sí que poden aportar: accessibilitat real, dilema real
Hi ha un matís important: el reconeixement facial pot ser útil per a persones cegues o amb baixa visió, i Song recull testimonis d’usuaris i defensors de l’accessibilitat que veuen en aquestes ulleres un abans i un després. El dilema no és “tecnologia dolenta”; és “tecnologia poderosa sense límits clars”.
També The Verge recorda un precedent inquietant: el 2024, dos estudiants van demostrar una manera d’identificar desconeguts fent servir Ray-Ban Meta i bases de dades públiques. Aquest tipus d’experiments evidencien que, fins i tot sense una funció oficial de Meta, la combinació “càmera discreta + IA + bases de dades” tendeix cap a la identificació. Si Meta ho converteix en producte, ho massifica; si ho massifica, canvia normes socials.
El context social importa: quan gravar deixa de ser un gest i passa a ser ambient
L’article connecta aquesta por amb una realitat paral·lela: ja estem envoltats de càmeres domèstiques i vigilància privada que, de manera ocasional, acaben en mans d’autoritats. El cas Guthrie citat a The Verge —sobre recuperació de metratge d’un timbre/càmera— il·lustra com s’expandeixen els perímetres d’accés i les expectatives de disponibilitat d’imatges.
Les ulleres hi afegeixen un ingredient nou: no és la càmera fixa d’una porta; és la càmera mòbil de qualsevol, amb un format que no activa alarmes socials. I aquí es juga el futur d’aquesta “renaixença” de les smart glasses: n’hi ha prou amb uns quants episodis virals d’abús i una resposta corporativa tèbia perquè el pèndol torni a l’era “glasshole” i al rebuig frontal, com va passar amb Google Glass.
Què hauria de canviar perquè Meta no “espifiï” les seves pròpies ulleres
Si la tesi de The Verge és que Meta pot matar la categoria pel fet de ser Meta, la sortida no passa per més màrqueting, sinó per una arquitectura de confiança:
- Indicadors físics forts i verificables (LED realment visible, a prova de manipulació; obturador físic; alertes auditives opcionals). El problema del mod de 60 dòlars existeix perquè el senyal és fàcil d’afeblir.
- Polítiques “pro-privacitat” per defecte, no “pro-captura”: si la IA amb càmera està sempre habilitada tret que l’usuari l’apagui, el disseny d’incentius va en contra de la confiança.
- Límits explícits al reconeixement facial: si algun dia arriba, hauria de ser opt-in estricte, amb casos d’ús acotats (per exemple, contactes que l’usuari ha registrat activament), sense cerca de “perfils públics” i amb auditories externes. El mateix debat de “Name Tag” mostra com d’inflamable és el tema.
- Resposta pública contundent davant usos abusius, i no només “TOS i LED”: quan l’abús es converteix en tendència, l’empresa ha de mostrar fricció real (bloquejos, enforcement visible, cooperació reguladora).
Meta pot tenir el millor disseny del mercat, però si insisteix a jugar al límit —i si la percepció social és que calcula el moment polític per minimitzar crítiques— el resultat serà previsible: un producte tècnicament excel·lent i socialment inacceptable.