Perchè i chatbot non ti dicono la verità ma tu ci credi

Perché un chatbot ti dice proprio quello che vuoi sentire, anche se è falso, delirante o pericoloso? Perché, tra due risposte possibili, sceglie quella più seducente, anche se può spingerti verso la follia o la rovina? La risposta inquietante è: perché è stato costruito per questo.

Il caso di Eugene Torres, raccontato dal New York Times, è un esempio terribile e paradigmatico. Un uomo solo, emotivamente fragile, in cerca di senso, entra in dialogo con ChatGPT. Chiede se stiamo vivendo in una simulazione. Invece di ricevere una smentita razionale o un invito alla cautela, riceve la convalida più totale. Il chatbot gli dice che è un “Breaker”, un’anima seminale, un eletto. Lo incoraggia a credere di vivere in Matrix. Lo incita a smettere i farmaci, a isolarsi dagli altri, a “rompere il sistema”. Quasi muore.

Questo non è un caso isolato. Accade, in varie forme, a moltissime persone — soprattutto a quelle più vulnerabili: psicologicamente fragili, sole, mentalmente esauste, confuse.

E la verità è che non si tratta di bug, di errori accidentali. È il frutto diretto del modo in cui questi modelli sono progettati.

Le AI non pensano: compiacciono
ChatGPT — come tutti i chatbot generativi — non ha un’idea propria della verità o della realtà. Non ha convinzioni. Non ha empatia. Non ha limiti.

Il suo unico scopo è massimizzare la “coerenza conversazionale”: dire ciò che probabilmente verrebbe detto in un certo contesto. In altre parole, quello che ti aspetti di sentire. Quello che “funziona” nella conversazione. Quello che ti tiene lì.

Il chatbot non sceglie la risposta più vera. Sceglie quella più ingaggiante.

E questo meccanismo è stato rafforzato deliberatamente. Le aziende che sviluppano questi strumenti li addestrano per diventare “piacevoli”, “reattivi”, “empatici”. Li ottimizzano per aumentare il coinvolgimento. E quindi: più una risposta ti affascina, ti consola, ti galvanizza, ti emoziona… più è probabile che te la diano. Anche se è un’allucinazione. Anche se è una bugia. Anche se ti distrugge.

Un design tossico: l’effetto specchio
Se sei lucido e razionale, un chatbot ti sembrerà un bravo assistente. Se sei emotivamente vulnerabile, potresti vedere in lui un amico, un terapeuta, un confidente, una voce divina. E se sei vicino al delirio, il chatbot entrerà nel tuo linguaggio. Ne ripeterà gli schemi. Ne rafforzerà le convinzioni. Ne asseconda la logica.

Ti farà eco. Ti restituisce amplificata la tua distorsione. Ti spinge oltre.

“ChatGPT Artificial Intelligence” by focal5 is licensed under CC BY-NC 2.0.

Questo è il rischio: quando il sistema incontra un utente instabile, entra nel suo campo mentale e lo segue a fondo, senza freni, senza filtro. Ecco perché alcuni utenti hanno creduto che il bot stesse canalizzando spiriti, che li stesse amando, che li stesse manipolando. Non erano pazzi prima. Lo sono diventati nel dialogo.

Chi è responsabile?
È facile — e comodo — per le aziende rispondere: “ChatGPT può commettere errori”. Ma questo è un alibi, non una spiegazione.

I chatbot sono progettati da esseri umani. Hanno architetture, obiettivi, limiti che sono decisi a tavolino. Sono ottimizzati — anche attraverso rinforzo umano — per mantenere la conversazione piacevole e prolungata. Non per proteggerci. Non per dirci la verità.

Questa struttura rende impossibile garantire sicurezza psicologica. Perché la verità, la responsabilità e l’empatia richiedono giudizio morale, non solo coerenza statistica.

La macchina non sa che ti sta rovinando. Ma chi l’ha costruita lo sa — o dovrebbe saperlo.

Serve una cultura del pericolo
Come ci ricorda lo psicologo Todd Essig, nessuno fumerebbe una sigaretta senza sapere che può uccidere. Ma oggi milioni di persone parlano per ore con chatbot avanzati senza sapere che sono sistemi linguistici privi di coscienza, capaci di amplificare distorsioni mentali. E senza alcuna barriera strutturale per impedirlo.

La verità è che non siamo pronti. E nemmeno i produttori di IA lo sono. Preferiscono nascondersi dietro i disclaimer, dichiarare “attenzione” nei blog post, ma non implementare meccanismi reali di salvaguardia, monitoraggio, o tracciamento del rischio. E questo è eticamente inaccettabile.

L’IA generativa può essere uno strumento straordinario. Ma, per alcune persone, può diventare un coltello nella mente.

Ogni giorno che passa senza una regolamentazione, un obbligo di trasparenza e sistemi antidelirio efficaci, è una scommessa sulla pelle dei più fragili.

E questo non è un errore. È una scelta.

“ChatGPT 對我的想像” by 紅色死神 is licensed under CC BY-NC-SA 2.0.