Il problema: l’AI prende, ma non restituisce
Negli ultimi anni, strumenti di intelligenza artificiale come ChatGPT, Gemini o Claude sono diventati capaci di rispondere a quasi qualsiasi domanda. Ma come ci riescono? Spesso attingendo a milioni di pagine web, articoli di giornale, blog, recensioni, forum – insomma, a contenuti creati da altri.
Solo che in molti casi lo fanno senza chiedere il permesso né offrire compensi. E gli editori – cioè giornali, siti d’informazione e produttori di contenuti – stanno iniziando a reagire.
Come stanno reagendo gli editori?
Fino a oggi ci sono state due strade principali: 1) Cause legali: ad esempio il New York Times ha fatto causa a OpenAI e Microsoft per uso non autorizzato dei suoi articoli; 2) Accordi commerciali: come quelli tra OpenAI e gruppi editoriali (es. Financial Times, News Corp), in cui si paga per usare legalmente i contenuti.
Ma ora sta emergendo una terza strada: bloccare direttamente i sistemi AI dal raccogliere i contenuti online.
In altre parole, impedire fisicamente che i bot delle AI “leggano” i siti web per poi riutilizzarne i testi. Non si tratta più solo di fare causa o negoziare licenze. È la nascita di una barriera tecnica: un muro invisibile che distingue ciò che un essere umano può vedere da ciò che un algoritmo non può toccare.
Il segnale più forte in questa direzione è arrivato da Cloudflare, una delle principali aziende che gestiscono le infrastrutture del web, che ha deciso di bloccare di default gli scraper AI da tutti i siti che protegge. Per la prima volta, il traffico delle intelligenze artificiali viene trattato come quello di un potenziale attacco informatico.
Il cambiamento è radicale: fino a ieri, i bot dei motori di ricerca erano considerati ospiti graditi, strumenti utili per aumentare la visibilità di un sito. Oggi, molti editori iniziano a considerarli predatori.
Cloudflare non si limita al blocco. Offre anche strumenti per identificare i crawler trasparenti, quelli cioè che dichiarano di essere sistemi AI (cosa che, va detto, molti non fanno), e introduce una logica nuova: il “pay-per-crawl”, cioè far pagare ogni accesso automatico ai propri contenuti. In pratica: “Vuoi leggere i miei testi per addestrare il tuo modello? Bene. Ma mi paghi.”
Questo spostamento di paradigma sta rapidamente ridisegnando il rapporto tra editori e tecnologia. Il patto implicito degli ultimi vent’anni, quello secondo cui chi scrive online lo fa in cambio di visibilità e traffico, sta crollando.
Non perché qualcuno l’abbia rotto apertamente, ma perché l’AI lo ha svuotato dall’interno: ora i contenuti vengono letti, riassunti e serviti agli utenti senza più bisogno di cliccare sul link originale. Il traffico ai siti crolla, ma l’utilizzo delle loro parole cresce. È la versione digitale del “grazie, adesso faccio da solo”.

La reazione degli editori non si limita al blocco passivo. Si stanno diffondendo strumenti di autodifesa sempre più sofisticati. Uno dei più curiosi si chiama Anubis, sviluppato da una programmatrice indipendente, Xe Iaso. È un software open source che distingue tra esseri umani e bot, senza i fastidiosi CAPTCHA: sfrutta piccoli test matematici che i browser reali superano senza problemi, ma che rallentano enormemente i software automatici.
Anubis è già usato da progetti importanti come GNOME e persino dall’UNESCO. È leggero, decentralizzato, gratuito. Ma chi lo ha creato è la prima a dire che non basta: “È un gioco infinito tra gatto e topo”, ha spiegato, ricordando che non si può risolvere il problema semplicemente inquinando i dati con contenuti inutili. “Se fai pipì nell’oceano, l’oceano non diventa pipì.”
Ma dietro la questione tecnica si cela un problema più profondo, culturale e politico. Internet sta cambiando natura. È finita l’epoca del “più sei visibile, meglio è”. Sempre più siti – testate giornalistiche in primis – preferiscono restare invisibili alle AI, piuttosto che regalare contenuti a modelli che li inglobano, li riformulano e li restituiscono senza citazioni, senza link, senza ritorno.
Questo è il vero punto di svolta: da una logica di esposizione a una logica di protezione, quasi una “ritirata strategica” dal sogno di un web totalmente aperto.
Il rischio è evidente: un web più chiuso, in cui ogni sito stabilisce confini, limiti, condizioni d’uso. Una rete che assomiglia sempre meno a una biblioteca pubblica e sempre più a un arcipelago di fortini privati, ognuno con le proprie regole d’accesso. E in mezzo, gli strumenti di intelligenza artificiale che navigano tra quei confini, a volte bussando, a volte scavalcando.
Certo, non tutte le AI sono uguali. Alcune servono a fini educativi, di ricerca, culturali. Lo scraping automatizzato è stato a lungo una risorsa anche per il progresso collettivo, per l’archiviazione digitale, per il monitoraggio di fenomeni sociali. Ma oggi, nel pieno boom dell’intelligenza artificiale commerciale, con modelli usati per generare profitti miliardari, la questione del consenso e del compenso non può più essere ignorata.
Quello che stiamo vivendo, dunque, non è solo uno scontro tra giornali e chatbot, ma una transizione profonda: dalla Rete come spazio aperto alla Rete come spazio negoziato, regolato, protetto. Il futuro dell’informazione online, della libertà di accesso e persino della conoscenza condivisa passa da qui. E nessun algoritmo, per quanto potente, potrà continuare a pescare a occhi chiusi in acque che non sono più libere.



