AI in sanità: cure migliori o disuguaglianze maggiori?

Nel dibattito sull’Ai, intelligenza artificiale, applicata alla sanità, la domanda pubblica sembra sempre la stessa: funzionerà davvero. La domanda decisiva, invece, è un’altra: per chi funzionerà. L’ultima scossa geopolitica, l’aggressione al Venezuela, si aggiunge a una sequenza di conflitti e tensioni che sta già allargando povertà e disuguaglianze; ma anche quando non ci sono bombe, la stessa dinamica di polarizzazione passa attraverso infrastrutture meno visibili e molto più quotidiane.

La sanità è una di queste. È il luogo dove l’innovazione può ridurre sofferenza e costi, ma anche il luogo dove la tecnologia, se entra in un sistema già diseguale, rischia di amplificare la distanza tra chi ha accesso e chi resta fuori.

Negli Stati Uniti d’America, dove la spesa sanitaria è la più alta del mondo, il peso economico del sistema è già un tema politico permanente. Secondo i dati dei Centers for Medicare & Medicaid Services, nel 2023 la spesa sanitaria ha raggiunto 4,9 trilioni di dollari, pari a 14.570 dollari per persona e al 17,6 per cento del prodotto interno lordo.

In un sistema così costoso, ogni promessa di efficienza ha un potere seduttivo enorme, e l’Ai viene spesso venduta precisamente così: riduzione di tempi, riduzione di sprechi, riduzione di carichi burocratici. Il problema è che gran parte dei “tempi” e degli “sprechi” non nasce dall’assistenza, ma dalla macchina amministrativa che decide chi può curarsi, quando e a quali condizioni. Ed è qui che l’Ai sta entrando con maggiore rapidità, spesso prima ancora che nella clinica.

Un indicatore utile per capire dove si concentra la frizione è la procedura di autorizzazione preventiva per esami, farmaci e interventi, uno dei principali colli di bottiglia per l’accesso alle cure. Secondo l’American Medical Association, i medici gestiscono in media decine di autorizzazioni a settimana e una quantità di ore di lavoro clinico e amministrativo viene assorbita da questo processo, con effetti diretti sul burnout. Non è solo burocrazia “fastidiosa”. La stessa indagine registra che una quota significativa di medici collega ritardi e dinieghi ad aggravamenti clinici e, nei casi più seri, a eventi avversi per i pazienti.

Quando un sistema già così stressato adotta Ai per automatizzare triage amministrativi e valutazioni di copertura, l’effetto può andare in due direzioni opposte. Da un lato, strumenti ben progettati potrebbero accelerare pratiche ripetitive, ridurre errori e diminuire tempi morti. Dall’altro lato, se l’incentivo economico dominante resta quello di ridurre pagamenti e limitare prestazioni, l’Ai rischia di diventare un moltiplicatore di dinieghi “scalabili”, più rapidi, più opachi e più difficili da contestare.

È proprio questa asimmetria di potere a rendere l’adozione sanitaria dell’Ai un tema di disuguaglianza prima ancora che di tecnologia. La discussione non riguarda solo se l’algoritmo sbaglia, ma anche chi ha la forza, il tempo e la competenza per accorgersene e ribaltare una decisione. Quando le compagnie assicurative usano modelli predittivi per decidere cosa approvare, e gli ospedali usano modelli per contestare i dinieghi, si crea una corsa agli armamenti algoritmica in cui l’efficienza non coincide necessariamente con l’equità.

Il rischio, già evidenziato da analisi e centri di ricerca statunitensi, è che l’automazione riduca la revisione umana e irrigidisca decisioni che incidono direttamente su vita e salute, specialmente per chi ha meno capacità di navigare il sistema. In questo schema, la promessa di “snellire” rischia di tradursi in un trasferimento di costi e responsabilità sui pazienti: più ricorsi, più attese, più spese vive, più rinunce.

C’è però un paradosso: lo stesso ecosistema dell’Ai che può rendere più duro l’accesso alle cure, in alcuni casi può anche aiutare i clinici a sottrarre tempo alla burocrazia e restituirlo al paziente. È la promessa degli strumenti di trascrizione e sintesi automatica della visita, spesso chiamati “scribi ambientali”. In grandi gruppi medici statunitensi sono stati adottati su vasta scala proprio con l’obiettivo di ridurre il tempo dedicato alla documentazione, e studi sperimentali hanno iniziato a misurare riduzioni del tempo speso a scrivere note cliniche e miglioramenti di indicatori legati al benessere professionale.

Anche qui, il nodo è chi beneficia per primo. Queste tecnologie costano, richiedono integrazione con cartelle cliniche elettroniche, assistenza tecnica, governance interna e formazione. I grandi sistemi ospedalieri, con budget e personale dedicato, possono sperimentare e assorbire errori. Le piccole strutture, gli ambulatori territoriali, i servizi sottofinanziati e molte realtà fuori dai grandi centri rischiano di arrivare dopo o di non arrivare affatto.

C’è poi l’Ai che entra nei processi diagnostici e decisionali. Negli Stati Uniti, le autorizzazioni della Food and Drug Administration per dispositivi abilitati da Ai o apprendimento automatico sono cresciute fino a contare centinaia di strumenti, con una forte concentrazione in radiologia. Questo dato racconta due cose insieme.

La prima è che l’Ai in sanità non è più un futuro ipotetico: è già un mercato regolato e in espansione. La seconda è che tende a concentrarsi dove esiste una base infrastrutturale forte, soprattutto imaging, cioè ospedali con macchinari, flussi digitali, archivi strutturati e personale formato. Là dove queste condizioni mancano, l’Ai clinica rischia di restare un annuncio e quindi di allargare il divario tra territori e tra paesi.

Il tema dell’equità entra con forza anche nella qualità stessa dei modelli. Se gli algoritmi vengono addestrati su dati non rappresentativi, possono performare bene sui gruppi più presenti nei dati e peggio sui gruppi marginalizzati. Questo significa che l’“accuratezza media” può nascondere errori concentrati proprio dove l’assistenza è già più fragile. Non è un problema teorico.

CC0 Public Domain

Se un algoritmo ha più falsi negativi su una popolazione, quella popolazione scoprirà più tardi una malattia. Se ha più falsi positivi, quella popolazione subirà più esami invasivi e più spese. In entrambi i casi, le conseguenze economiche e sociali non si distribuiscono in modo uniforme. La sanità, quando sbaglia, produce anche povertà: giorni di lavoro persi, spese non previste, indebitamento, rinuncia a cure successive, e spesso un peggioramento della condizione di partenza.

Un ulteriore livello, meno discusso ma decisivo, riguarda la struttura dei costi. La promessa dell’Ai come “riduzione della spesa” si scontra con il fatto che una parte importante della spesa sanitaria statunitense è gravata da costi amministrativi elevati. Analisi basate su bilanci ospedalieri indicano che l’amministrazione assorbe una quota rilevante delle spese, e che in molti casi la complessità del sistema genera lavoro amministrativo che non migliora direttamente la cura.

Se l’Ai viene impiegata soprattutto per ottimizzare questo strato senza ridurre le barriere che produce, può aumentare la produttività dei processi e lasciare intatto il meccanismo che crea esclusione. È il rischio di un progresso che migliora le procedure senza migliorare l’accesso.

Al contrario, quando l’Ai entra per velocizzare ricorsi, appelli e gestione dei dinieghi, la tecnologia diventa un rimedio a un problema che il sistema stesso produce. Alcuni ospedali statunitensi stanno sperimentando strumenti che riducono il tempo necessario a predisporre contestazioni di dinieghi e che velocizzano le pratiche.

Sono risultati interessanti, ma pongono una domanda cruciale: se serve l’Ai per difendersi dai dinieghi, quanto costa la difesa, e chi può permettersela. Anche qui, le grandi strutture guadagnano capacità di risposta. Il paziente isolato, o il medico senza una squadra amministrativa, resta più esposto.

È in questo quadro che la questione di chi paga per l’addestramento dei modelli rimane sullo sfondo, ma non può essere rimossa. La sanità è uno dei settori con più dati sensibili e, insieme, uno dei settori in cui l’Ai ha bisogno di grandi quantità di informazioni per diventare utile.

Ma l’addestramento e l’aggiornamento dei modelli non avviene nel vuoto: usa testi, articoli scientifici, linee guida, materiali educativi e, spesso, contenuti protetti. Negli Stati Uniti il 2026 si annuncia come un anno importante per le cause sul copyright e sul fair use legate all’addestramento dei sistemi generativi, con tribunali chiamati a chiarire se e come debbano essere compensati gli autori e gli editori.

Per la sanità questo ha due implicazioni immediate. La prima riguarda l’accesso alla conoscenza: se la base informativa su cui i modelli imparano diventa un terreno di licenze costose, il rischio è che la “migliore Ai” sia quella accessibile solo a chi può pagare, mentre gli altri usano sistemi più poveri, più vecchi o più opachi.

La seconda riguarda i diritti: se una parte crescente della medicina passa attraverso strumenti che sintetizzano, suggeriscono e classificano, diventa cruciale sapere da quali fonti provengono le informazioni e a quali condizioni. Non è solo una questione tra industrie culturali e piattaforme tecnologiche; è un pezzo dell’infrastruttura futura della cura.

Alla fine, l’Ai sanitaria può diventare un fattore di riduzione delle disuguaglianze solo se viene governata con regole che impediscano che l’efficienza si trasformi in esclusione. Se invece viene adottata principalmente per rendere più “efficienti” i meccanismi di selezione e di diniego, o se i benefici restano concentrati nei grandi sistemi ricchi mentre le periferie si accontentano di versioni degradate, il risultato più probabile è un allargamento della distanza.

La sanità è uno specchio implacabile: quando una società decide che l’accesso alla cura dipende da capacità di pagamento, tempo disponibile, alfabetizzazione digitale e potere contrattuale, la tecnologia tende a seguire quella scelta e a renderla più rapida, più automatica, più difficile da contestare.

In un mondo dove guerre e instabilità stanno già erodendo sicurezza materiale e fiducia collettiva, la sanità non può permettersi un’altra traiettoria di polarizzazione. L’Ai può ridurre fatica e errori, accelerare diagnosi, liberare tempo clinico e migliorare processi.

Ma senza trasparenza, senza controlli su bias, senza garanzie di revisione umana e senza una strategia che porti i benefici fuori dai poli più ricchi, l’Ai rischia di trasformare una promessa di cura in un nuovo confine sociale: non più solo tra chi ha accesso alle cure e chi no, ma tra chi ha accesso alla cura aumentata e chi resta con la cura impoverita.