venerdì, Novembre 28, 2025

OpenAI a scopo di lucro: il costo sociale del capitale

C’è un momento, nella storia delle invenzioni, in cui la curiosità si trasforma in proprietà. È successo con la stampa, con l’elettricità, con internet. Oggi tocca all’intelligenza artificiale. OpenAI, la società che ha dato vita a ChatGPT, ha cambiato pelle: da fondazione nata per “il bene dell’umanità” è diventata una normale azienda a scopo di lucro, anche se continua a definirsi “di pubblica utilità”.

Tradotto: ora potrà raccogliere capitali come qualsiasi altra impresa, attrarre investitori, cercare profitti, prepararsi a una quotazione in borsa. Fin qui, nulla di male, direbbe qualcuno. Ma la differenza, come sempre, sta in chi paga il conto.

La nuova struttura prevede che la fondazione originaria mantenga una partecipazione miliardaria, la più alta di qualsiasi altra organizzazione no profit americana. Microsoft, il principale partner industriale, detiene quasi un terzo della nuova società. Il resto è diviso tra fondi, dipendenti e grandi investitori privati. Dietro l’idea di “beneficio pubblico” si muove dunque un capitale di oltre centotrenta miliardi di dollari, lo stesso che finanzia piattaforme, modelli linguistici e sistemi che ormai leggono, scrivono e pensano al nostro posto.

È un passaggio storico, ma anche culturale. OpenAI nasceva per sviluppare un’intelligenza artificiale “per tutti”, al riparo dalle logiche di potere delle big tech. Oggi entra a pieno titolo in quel mondo, portando con sé la promessa del bene comune come garanzia di reputazione. Il risultato è un ossimoro perfetto: un’azienda privata che dichiara di lavorare per l’interesse pubblico, mentre riceve miliardi da chi il pubblico lo compra, non lo serve.

“GPT-2: Λόγος – On the Origins of Words / OpenAI” by Ars Electronica is licensed under CC BY-NC-ND 2.0.

Il punto non è se l’AI sia buona o cattiva, ma chi la decide. Quando una tecnologia di uso quotidiano – dal motore di ricerca ai sistemi di scrittura automatica – dipende da capitali privati, anche la sua “morale” finisce per essere quotata in borsa. Non c’è cattiva fede, c’è la logica del profitto: rendere tutto monetizzabile, anche la parola “sicurezza”.

Il costo sociale del capitale non si misura in dollari, ma in fiducia. Ogni volta che un algoritmo sostituisce un giudizio umano – che si tratti di un testo scolastico o di un referto medico – qualcuno deve garantire che funzioni per tutti, non solo per chi può permetterselo. E se a vigilare è la stessa azienda che lo vende, la questione non è più tecnica, è politica.

La verità è che l’intelligenza artificiale non è più un esperimento, è un’infrastruttura. Come l’acqua, l’energia o l’informazione. E ogni infrastruttura, quando diventa privata, cambia le regole della democrazia.

Oggi OpenAI dice di voler “beneficiare l’umanità”. Ma se l’umanità non può permettersi di pagare l’abbonamento, resta fuori dalla porta. La tecnologia, come il potere, è sempre neutra solo per chi la controlla.

“Sam Altman CropEdit James Tamim” by TechCrunch is licensed under CC BY 2.0.

Leggi anche

Ultime notizie