Meta vuole trasformare i suoi smart glasses — quelli sviluppati con EssilorLuxottica e venduti con marchi come Ray-Ban e Oakley — in qualcosa di più di una videocamera “da indossare”. Secondo ricostruzioni giornalistiche, nei laboratori interni si lavora (o si è lavorato) a una modalità di riconoscimento delle persone inquadrate, una funzione che in varie indiscrezioni viene descritta come capace di associare un volto a un nome e di restituire informazioni tramite l’assistente AI. In altre parole: non solo riprendere ciò che vedi, ma sapere chi stai guardando.
Finché resta un’ipotesi da prodotto, la tentazione è trattarla come l’ennesima provocazione da Silicon Valley. Ma il nodo politico non è la “comodità” di ricordare un conoscente: è l’uso nello spazio pubblico, dove l’anonimato non è un vezzo ma una condizione pratica della libertà. Un conto è scegliere di mostrarsi; un altro è vivere in un ambiente in cui chiunque, con un accessorio consumer, può rendere identificabile chi gli sta davanti.
È in quel salto — da osservare a identificare — che si forma l’effetto più corrosivo: la partecipazione si restringe, il dissenso si raffredda, i comportamenti diventano prudenti per paura delle conseguenze. Se una persona sa che in una piazza può essere “riconosciuta” e collegata a un’identità, la sua decisione di esserci cambia. E non serve un apparato repressivo formalizzato: basta la plausibilità dell’abuso.
Non è nemmeno un rischio teorico. Nel 2024 è circolata una dimostrazione che ha mostrato come si possa collegare la ripresa di smart glasses a servizi esterni di ricerca facciale e ad altri strumenti per arrivare rapidamente all’identificazione di sconosciuti in luoghi pubblici. Anche se quella catena non era un prodotto ufficiale, ha rivelato quanto sia corto il ponte tra una camera indossabile e il riconoscimento biometrico “di fatto”.
Qui entra il punto che ti interessa: la piazza. Un dispositivo che rende possibile riconoscere i dimostranti non deve necessariamente essere in mano alle forze dell’ordine per produrre danni democratici. Può essere usato da gruppi organizzati, da controparti politiche, da soggetti che vogliono intimidire, schedare, pubblicare nomi e volti, o semplicemente “tenere memoria” di chi partecipa. L’anonimato pratico, che fino a ieri era garantito dal costo e dalla complessità tecnica della sorveglianza, si ritira quando la tecnologia diventa tascabile — o, in questo caso, indossabile.
Il quadro diventa ancora più sensibile se si guarda al contesto industriale e istituzionale in cui Meta sta muovendo i suoi pezzi. Negli ultimi mesi l’azienda ha esplicitato un ingresso più deciso nel perimetro difesa/sicurezza: la partnership con Anduril Industries punta a sviluppare dispositivi XR per uso militare e soluzioni integrate per “warfighters”, cioè per impieghi operativi dove visione aumentata, sensori e identificazione sono funzioni centrali.
Non è una prova di “repressione” programmata, ma è un dato che conta: quando la stessa filiera tecnologica lavora su hardware indossabile per il campo militare e, in parallelo, su occhiali consumer sempre più “sensibili”, diventa più difficile separare nettamente l’innovazione commerciale dal potenziale di controllo.

C’è poi un secondo fatto, meno spettacolare ma altrettanto rilevante: Meta ha comunicato iniziative per rendere i suoi modelli Llama più accessibili alla pubblica amministrazione federale statunitense tramite un programma coordinato con la U.S. General Services Administration. Anche qui, non si tratta di “polizia politica”, ma di un segnale chiaro di integrazione: piattaforme e modelli Meta entrano in ecosistemi istituzionali, diventano infrastruttura, e quindi aumentano la loro rilevanza in processi pubblici.
Infine c’è la dimensione informativa. Meta stessa, nei suoi report sulle minacce avversarie, ha descritto e rimosso reti di account riconducibili a operazioni coordinate, e in quel contesto sono emerse anche attribuzioni a soggetti legati al militare statunitense.
Non è “repressione del dissenso” in senso stretto, ma è un precedente utile per capire una cosa: le piattaforme non sono solo spazi neutri; sono ambienti operativi in cui attori statali e para-statali hanno già cercato di influenzare e orientare il dibattito. Se a questo si aggiunge un livello “fisico” di identificazione dei corpi nello spazio pubblico, il rischio non è più soltanto la manipolazione delle narrazioni, ma la deterrenza della presenza.
Qui non si tratta di capire se il riconoscimento facciale “funziona bene” o se sarà limitato a cerchie ristrette di profili. Il punto è stabilire un principio: l’identificazione biometrica in strada non può diventare una funzione consumer ordinaria.
In Europa l’AI Act prova a mettere paletti severi sull’identificazione biometrica remota “in tempo reale” nello spazio pubblico per finalità di law enforcement, ma qui si apre un varco: ciò che è vietato o fortemente limitato allo Stato rischia di rientrare dalla porta privata, sotto forma di gadget. E un diritto che dipende dall’autodifesa individuale — cappelli, mascherine, paura, rinuncia — non è un diritto: è una concessione precaria.
Se questa tecnologia verrà davvero portata sul mercato, la questione democratica non sarà un dettaglio di privacy o una “lucina” sulla montatura. Sarà una domanda molto semplice: vogliamo città in cui partecipare a una protesta significhi accettare la possibilità concreta di essere riconosciuti, archiviati e potenzialmente esposti? Perché è questo, oggi, il confine politico del riconoscimento facciale indossabile.
Fonti: ricostruzioni su “super-sensing” e riconoscimento facciale negli smart glasses Meta ; dimostrazioni pubbliche di identificazione/doxxing con smart glasses e servizi esterni ; partnership Meta-Anduril per XR militare ; iniziativa GSA-Meta per accesso a Llama nel governo federale ; report e ricostruzioni su reti inautentiche/attribuzioni e operazioni informative.



