Meta, il processo è un test sul potere. I danni ai minori

La scena, in un’aula di tribunale di Los Angeles, è quasi didascalica: mentre Meta è chiamata a rispondere dell’impatto dei social sui bambini, alcuni membri dell’entourage di Mark Zuckerberg entrano indossando gli occhiali Ray-Ban Meta con telecamera.

La giudice Carolyn Kuhl li rimprovera e li mette in guardia: se avete registrato, cancellate tutto o sarà oltraggio alla corte; e ordina che eventuali occhiali “AI” vengano tolti, ricordando che è vietato qualunque uso di riconoscimento facciale per identificare i giurati.

È un dettaglio piccolo solo in apparenza. Perché quel gesto — anche se fosse stato “solo” un’entrata maldestra, anche se nessuno avesse davvero registrato — racconta una cosa più grande della singola udienza: la postura di potere di un’industria abituata a stare sopra le regole.

Poi, quando finisce davanti a una giudice in carne e ossa, scopre che no, in un tribunale non si può “innovare” a piacere. Se l’aula ti dice “qui non si registra”, e tu arrivi con un dispositivo nato per registrare, non è solo una gaffe. È il promemoria involontario di come funzionano questi colossi: prima fanno, poi chiedono scusa, poi spiegano che in realtà non era quello che sembrava.

Il processo in corso non è un episodio di costume tecnologico: è un test di potere. Nella causa “pilota” di Los Angeles, una giovane identificata come KGM sostiene che l’uso dei social fin da bambina l’abbia resa dipendente e abbia danneggiato la sua salute mentale; e accusa Meta e YouTube di aver progettato i prodotti per incoraggiare l’uso compulsivo nei più giovani.

Se questa partita la vincono le piattaforme, la morale implicita è quella che ci propinano da anni: non è il sistema, sei tu; non è il prodotto, è il tuo carattere; non è il design, è la tua fragilità. Se la perdono, il nodo diventa finalmente pubblico: il danno non è un effetto collaterale, è un costo di progetto.

Zuckerberg, in aula, ha portato la difesa standard dell’industria: Instagram non “punta” deliberatamente ai minori, sotto i 13 anni non sono ammessi, ed è difficile verificare l’età; anzi, a sentir lui, la responsabilità finirebbe per stare anche altrove — perfino nei produttori di dispositivi.

Ma l’accusa gli mette davanti presentazioni interne e scambi che parlano di strategie per agganciare adolescenti “presto”, quando ancora non hanno anticorpi, perché chi entra giovane resta più a lungo. Zuckerberg nega l’intento di “creare dipendenza”, e prova a riscrivere l’equazione: un prodotto sostenibile non può rendere le persone infelici.

“Meta CEO Mark Zuckerberg Facebook” by Anthony Quintano is licensed under CC BY 2.0.

Qui sta la truffa lessicale, quella che merita di essere chiamata col suo nome: nessuno deve “rendere infelice” un ragazzo per guadagnarci. Basta costruire un ambiente che premia la permanenza sopra qualsiasi altra cosa, e poi scaricare tutto il resto sul mondo esterno. La scuola gestisce l’ansia.

La famiglia gestisce la dipendenza. La sanità gestisce gli esiti. La politica gestisce l’emergenza e si prende gli insulti. Meta incassa. Questo è il cuore del potere digitale: profitti privatizzati, danni socializzati.

E l’episodio degli occhiali — la giudice che deve ricordare l’ABC del rispetto dell’aula — si incastra qui: perché queste aziende non sono semplicemente “servizi”. Sono apparati che colonizzano la vita quotidiana e poi recitano la parte dell’ospite gentile.

Quando si parla di minori, la recita diventa ancora più sporca: ufficialmente “li proteggiamo”, nella pratica “non possiamo sapere chi sono”. È una contraddizione che in tribunale suona come quello che è: una scelta di governance, non un limite tecnico.

Il processo serve anche a questo: a far emergere che la neutralità delle piattaforme è una favola utile finché nessuno chiede conto dei risultati. In aula, invece, la neutralità si sbriciola e resta il design: infinito scorrimento, ricompense intermittenti, algoritmi che imparano cosa ti tiene lì e te lo ripropongono, perché il tempo è denaro e l’attenzione è la valuta. Non è “il contenuto degli utenti”, è l’architettura che decide che cosa ti arriva addosso e con quale intensità.

Non a caso, la paura vera per le Big Tech non è la figuraccia degli occhiali in tribunale. È il precedente. Perché in questo momento, mentre Zuckerberg testimonia a Los Angeles, l’onda di cause contro l’industria si allarga: famiglie, distretti scolastici, enti pubblici. E il punto è sempre lo stesso: provare a bucare lo scudo con cui per anni si sono protetti — “non siamo responsabili, siamo solo piattaforme”.

Per questo la scena iniziale pesa più di quanto sembri. In un’aula dove perfino una fotografia può essere vietata, l’idea che qualcuno entri con una camera addosso non è folklore: è metafora. È l’industria che porta dentro al tribunale la sua religione quotidiana — registrare, profilare, riconoscere, archiviare — e si sente dire, per una volta: qui no.

Meta entra in tribunale con una telecamera in faccia e si sente dire di toglierla. È un dettaglio, certo. Ma è anche la fotografia di un’epoca: aziende abituate a guardare tutti, finalmente guardate loro. E quando qualcuno prova a imporre un confine, scopriamo quanto quel confine sia diventato rivoluzionario.

“Meta Headquarters Sign” by Nokia621 is licensed under CC BY-SA 4.0.