La notizia, in sé, sembra tecnica: la Commissione europea ha aperto un’indagine antitrust su Google per capire se abbia usato il proprio potere nei motori di ricerca e su YouTube per alimentare l’intelligenza artificiale con i contenuti di editori e creator, senza compensi adeguati e senza un vero diritto di rifiuto. Nel mirino ci sono, in particolare, le funzioni come i riassunti generati dall’algoritmo che appaiono in alto nella pagina dei risultati di ricerca, prima dei link dei siti che quelle informazioni le hanno prodotte.
Tradotto: mentre un quotidiano, una rivista o un videomaker costruiscono articoli, inchieste, reportage e video, Google li assorbe, li sminuzza, li trasforma in risposta automatica e li espone all’utente in modo tale che spesso il clic alla fonte diventa superfluo. La Commissione vuole capire se questo meccanismo violi le regole della concorrenza, favorendo i modelli di Google rispetto ai rivali e imponendo condizioni “sleali” a chi pubblica contenuti online. Se le accuse fossero confermate, la sanzione potrebbe arrivare a una quota significativa del fatturato globale del gruppo.
A prima vista è la solita storia: Bruxelles contro la grande piattaforma americana, l’ennesimo capitolo della battaglia europea per regolare i “gatekeeper” digitali. Ma se ci si ferma qui, sfugge il punto forse più importante: ancora una volta il conflitto viene raccontato come uno scontro tra colossi, Google da una parte, “gli editori” dall’altra, mentre chi riempie di parole, immagini e video lo spazio digitale – giornalisti, collaboratori pagati a pezzo, creator precari, freelance senza tutele – resta sullo sfondo, invisibile.
Noi crediamo che il fuoco vada spostato: non solo “Google ruba i contenuti agli editori”, ma come l’intera catena del valore digitale si regge sul lavoro di chi produce informazione e creatività senza che nessuno lo nomini quando si parla di compensazioni. Nel linguaggio della Commissione il problema è la distorsione del mercato, la concorrenza tra modelli di AI, il rischio che un gigante metta fuori gioco gli altri giocatori. Quasi mai si sente nominare ciò che sta a monte: il tempo, l’energia, la fatica, a volte il rischio fisico, che servono per generare quei dati che oggi chiamiamo “training set”.
Pensiamo, per restare in casa nostra, a un’inchiesta sulla povertà, a un reportage sugli sfratti, a una cronaca di un suicidio legato alla perdita di casa. Il giornalista che va sul posto, raccoglie voci, si assume la responsabilità di raccontare una storia fragile, non produce solo “contenuti”: produce una rappresentazione del mondo che ha un costo umano e professionale. Quel testo, però, per Google è semplicemente carburante per i propri modelli linguistici, indistinguibile da una recensione di smartphone o da un comunicato aziendale. La macchina non distingue: tutto è dato, tutto è materiale da macinare per restituire “risposte utili” all’utente.
L’azione dell’Europa arriva in un momento preciso: mentre l’intelligenza artificiale viene presentata come la prossima grande rivoluzione industriale, i modelli che promettono di “scrivere al posto nostro” sono stati allenati proprio su ciò che noi – come società – abbiamo già scritto, filmato, registrato. La Commissione teme che Google abbia imposto agli editori condizioni squilibrate, sfruttando il proprio dominio nella ricerca per ottenere accesso privilegiato ai loro archivi e perfino ai video caricati su YouTube, senza che ci fosse una reale possibilità di dire no.
È un passo importante sul terreno della concorrenza, ma resta un enorme vuoto sul terreno del lavoro. A chi dovrebbero andare, esattamente, le eventuali compensazioni per l’uso dei contenuti nell’addestramento dell’AI? Ai grandi gruppi editoriali, che a loro volta spesso comprimono salari, diritti e paghe a pezzo? Ai “creator” come categoria generica, dentro la quale convivono influencer milionari e videomaker che arrotondano con lavori saltuari? O anche a chi sta ancora più in basso nella catena, i moderatori che passano le giornate a filtrare il peggio della rete perché le piattaforme restino presentabili?

La verità è che, per come sono costruite oggi le regole, il soggetto tutelato non è il lavoratore dei contenuti, ma l’“operatore economico”. L’idea di un diritto individuale sulla propria opera – la reporter che rivendica qualcosa quando il suo pezzo viene trasformato in risposta automatica – resta evanescente. Il rischio è di assistere a una rinegoziazione tra piattaforme: Google da una parte, grandi editori dall’altra, mentre chi scrive materiale originale continuerà a percepire compensi spesso indegni, e chi racconta il proprio dolore, la propria povertà, la propria precarietà nei video o nei post continuerà a essere fonte di dati gratuita per l’industria dell’AI.
C’è un altro punto che vale la pena mettere sul tavolo. La Commissione indaga se Google abbia distorto la concorrenza perché si sarebbe garantito un accesso esclusivo ai contenuti per allenare i propri modelli, precludendo simili possibilità alle aziende concorrenti. Ma la domanda che dovremmo porci è un’altra: esiste un limite etico a ciò che si può trasformare in dato? Se un quotidiano pubblica per anni storie di sfratti, di lavoratori poveri, di migranti annegati; se un piccolo canale documenta la vita in una baraccopoli, in un dormitorio, in un ghetto agricolo; è accettabile che questa materia venga ingoiata da un algoritmo, rimescolata e restituita come “consiglio generico” sulle politiche sociali, senza che nessuno riconosca l’origine di quel sapere, e senza che chi lo ha reso possibile ne tragga alcun beneficio?
In questi mesi l’Unione europea ha colpito anche altre grandi piattaforme, a colpi di multe e richiami, per violazioni legate alla trasparenza pubblicitaria, all’uso dei bollini di verifica, all’accesso ai dati da parte dei ricercatori. Anche lì il discorso pubblico si è polarizzato tra chi vede in queste decisioni un attacco alla libertà di espressione e chi le considera una difesa della democrazia contro i miliardari della Silicon Valley. Ma ancora una volta la dimensione del lavoro – di chi modera, di chi subisce campagne d’odio, di chi produce informazioni verificate in mezzo al rumore – resta sullo sfondo.
La sequenza è sempre la stessa: l’Europa interviene a regolamentare il campo da gioco tra grandi soggetti, spesso americani, e lo fa con strumenti importanti che cercano di limitare il potere dei “gatekeeper”. Ma quasi mai discute seriamente di un reddito, di diritti sociali, di tutele specifiche per chi quel campo da gioco lo alimenta con la propria vita, la propria competenza, la propria esposizione alle conseguenze delle parole. Si parla di “editori” e di “creator” come categorie astratte, raramente di giornalisti freelance a pochi euro a pezzo, di videoreporter che si autofinanziano i viaggi, di attivisti che filmano violenze e sgomberi assumendosi tutti i rischi.
È qui che si colloca il margine di originalità possibile. Non limitarsi a dire: bene, finalmente Bruxelles si accorge che i contenuti non nascono dal nulla, ma chiedere: chi è che paga il prezzo, oggi, affinché l’intelligenza artificiale possa “sapere tutto”? E chi verrà pagato, domani, se qualche miliardo di euro dovesse cambiare di mano tra Google e gli editori?
Finché le politiche pubbliche continueranno a vedere solo la superficie – la concorrenza tra colossi, i rapporti di forza commerciali, le tensioni geopolitiche tra Stati Uniti ed Europa – il rischio è che i veri invisibili del sistema, quelli che trasformano la loro esperienza, la loro competenza e spesso il loro trauma in informazione, restino tali anche nell’era dell’AI.
Ogni volta che sentiamo parlare di “contenuti”, dovremmo ricordarci che dietro c’è qualcuno che scrive, filma, monta, modera, rischia. E che la giustizia in questo campo non si misura solo in percentuali di mercato, ma in vite che non possono essere trattate come un dataset gratuito a disposizione di chi è abbastanza grande da raccoglierlo.



