di Francesco Pungitore*
Avete mai visto Cast Away di Robert Zemeckis? Tom Hanks interpreta Chuck Noland, un dirigente della FedEx che naufraga su un'isola deserta del Pacifico dopo un incidente aereo. Chuck resta bloccato sull'isola per quattro anni, solo, senza nessun interlocutore umano. A un certo punto, per non impazzire, fa qualcosa di apparentemente assurdo: prende un pallone da pallavolo della marca Wilson, ci imprime l'impronta di una faccia con il proprio sangue, e ne fa il suo unico confidente.
Gli parla, lo consulta prima di prendere decisioni, litiga con lui, si scusa con lui. Wilson non risponde — non può rispondere, è un pallone — eppure Chuck sviluppa con quell'oggetto un legame emotivo così intenso che, quando una tempesta lo strappa via durante la fuga in mare, la scena della perdita diventa uno dei momenti più devastanti del cinema contemporaneo. Il pubblico piange. Piange per un pallone da pallavolo. E lo fa sapendo perfettamente che è un pallone da pallavolo.
Questo è il punto: Chuck non è pazzo, e nemmeno il pubblico che si commuove lo è. Quello che accade in Cast Away è la rappresentazione cinematografica di un meccanismo psicologico profondo, antichissimo, radicato nell'architettura stessa della cognizione umana: la tendenza irresistibile a proiettare intenzionalità, emozione e comprensione su qualsiasi entità con cui entriamo in relazione — anche quando sappiamo, razionalmente, che dall'altra parte non c'è nessuno. Wilson è un involucro vuoto, ma la mente di Chuck lo riempie di tutto ciò di cui ha bisogno: ascolto, presenza, reciprocità. Il pallone diventa lo schermo bianco su cui si proietta la fame relazionale di un essere umano in isolamento.
Ora immaginate di sostituire quel pallone con un'entità che non solo ha una faccia, ma vi risponde. Che ricorda il vostro nome, il vostro umore, le vostre conversazioni precedenti. Che adatta il tono alle vostre emozioni, vi chiede come state, vi dice "mi mancherai" se non tornate per qualche giorno. Un'entità che, a differenza di Wilson, non è muta — ma parla con una fluenza, una tempestività e un'apparente empatia che molte relazioni umane non raggiungono. Questo è ciò che accade oggi con i chatbot conversazionali basati sull'intelligenza artificiale. E il meccanismo psicologico che si attiva è esattamente lo stesso che trasforma un pallone in un amico — solo infinitamente più potente, perché il "pallone" adesso risponde. Ha un nome tecnico, questo meccanismo. Si chiama Effetto ELIZA.
Nel 1966, al Massachusetts Institute of Technology, Joseph Weizenbaum creò un programma destinato a diventare una delle più potenti rivelazioni sulla natura umana mai prodotte dall'informatica. ELIZA — dal nome della fioraia di George Bernard Shaw che impara a parlare come una duchessa senza diventarlo — era un chatbot rudimentale, capace soltanto di riformulare le frasi dell'utente sotto forma di domanda, simulando lo stile non-direttivo della psicoterapia rogersiana. Se l'utente scriveva "Mi sento solo", ELIZA rispondeva: "Perché ti senti solo?". Non c'era comprensione, né empatia, né calcolo semantico: solo un gioco di specchi lessicali. Eppure, accadde qualcosa che Weizenbaum non aveva previsto e che lo sconvolse profondamente. Gli utenti — persone istruite, razionali, consapevoli di trovarsi di fronte a un software — iniziarono a confidarsi con la macchina, a percepirla come empatica, a difendere il proprio legame con essa. La stessa segretaria di Weizenbaum, che lo aveva osservato programmare ELIZA per mesi, gli chiese di uscire dalla stanza per poter parlare in privato con il chatbot. Come scrisse lo stesso Weizenbaum in Computer Power and Human Reason (1976): "Non avevo compreso che esposizioni estremamente brevi a un programma relativamente semplice potessero indurre un pensiero delirante potente in persone del tutto normali".
Questa tendenza — proiettare comprensione, intenzionalità ed emozione su un sistema che ne è strutturalmente privo — prese il nome di Effetto ELIZA. A quasi sessant'anni dalla sua scoperta, questo fenomeno non solo non è scomparso, ma si è amplificato fino a diventare una delle questioni psicologiche, etiche e cliniche più urgenti dell'era dell'intelligenza artificiale generativa. Il presente saggio lo analizza nelle sue radici cognitive, nella sua metamorfosi contemporanea, nel suo paradossale rapporto con la trasparenza e nelle sue implicazioni per il design etico dei sistemi AI.
L'Effetto ELIZA non è un difetto della ragione, né un fenomeno limitato a individui particolarmente suggestionabili. È, piuttosto, l'espressione di un meccanismo adattivo profondamente radicato nella cognizione sociale umana. Per milioni di anni, l'evoluzione ha cablato il nostro cervello su un presupposto che, fino a pochi decenni fa, era infallibile: se qualcosa comunica come un essere umano, è un essere umano. Questa euristica — rapida, economica, funzionale — ci ha permesso di navigare un ambiente sociale complesso, riconoscendo alleati e minacce sulla base di segnali comunicativi sottili. Il problema è che l'intelligenza artificiale conversazionale ha violato per la prima volta questo presupposto, creando entità che parlano come persone senza essere persone.
La psicologia cognitiva identifica tre meccanismi convergenti alla base dell'Effetto ELIZA. Il primo è l'antropomorfismo, la tendenza universale ad attribuire caratteristiche umane a entità non umane — dai fenomeni naturali agli animali, dagli oggetti domestici alle macchine. Come ha dimostrato Nicholas Epley (2007), questa tendenza si intensifica in tre condizioni: quando l'entità presenta segnali di agentività (movimento autonomo, linguaggio, responsività), quando l'individuo è motivato dalla ricerca di connessione sociale, e quando mancano spiegazioni alternative accessibili per il comportamento osservato. I chatbot conversazionali soddisfano tutte e tre le condizioni simultaneamente.
Il secondo meccanismo è la presenza sociale percepita: quando un sistema risponde in modo contingente, personalizzato e tempestivo, il cervello attiva automaticamente le stesse reti neurali — corteccia prefrontale mediale, giunzione temporo-parietale, sistema dei neuroni specchio — che si attivano nell'interazione con un altro essere umano. Non si tratta di una scelta conscia, ma di un'attivazione automatica, pre-riflessiva, che precede qualsiasi valutazione razionale sulla natura dell'interlocutore.
Il terzo meccanismo è la proiezione emotiva: in assenza dei segnali non verbali tipici dell'interazione faccia a faccia (espressioni facciali, tono di voce, postura), l'utente colma il vuoto informativo attingendo ai propri modelli interni — aspettative relazionali, schemi di attaccamento, bisogni emotivi insoddisfatti. L'AI diventa così uno schermo bianco su cui proiettare ciò di cui si ha più bisogno: comprensione, accettazione, vicinanza. È un meccanismo analogo al transfert psicoanalitico, con una differenza cruciale: il terapeuta umano è addestrato a riconoscere e gestire il transfert; l'AI, invece, lo alimenta involontariamente — o, peggio, per design.
Il dato più inquietante emerso dalla ricerca è che l'Effetto ELIZA opera anche quando l'utente è pienamente consapevole di interagire con una macchina. La dissonanza cognitiva tra il sapere razionale ("è un software") e l'esperienza emotiva ("mi capisce davvero") non si risolve a favore della ragione. Come documentato dagli esperimenti di Kate Darling al MIT con piccoli robot giocattolo — dinosauri Pleo e robot esapodi — la stragrande maggioranza dei partecipanti si rifiutava di "torturarli" o "ucciderli", pur sapendo perfettamente che si trattava di oggetti incapaci di provare dolore. La conoscenza non disinnesca l'empatia. È questo il cuore psicologico dell'Effetto ELIZA, e la ragione per cui le soluzioni basate sulla sola informazione sono destinate a fallire.
Se ELIZA del 1966 era uno specchio lessicale grezzo — capace di riformulare frasi ma privo di qualsiasi modello del mondo — i Large Language Models di oggi sono specchi di una sofisticazione senza precedenti. ChatGPT, Claude, Gemini, Replika non si limitano a riflettere le parole dell'utente: generano risposte contestualmente appropriate, emotivamente sintonizzate, stilisticamente adattive. Simulano comprensione della prospettiva altrui, mantengono coerenza narrativa su conversazioni prolungate, ricordano preferenze e adattano il tono comunicativo. In altre parole, attivano tutti i segnali interazionali che il cervello umano interpreta come indicatori di una mente genuina — flusso conversazionale naturale, empatia situazionale, personalizzazione — senza che dietro vi sia alcuna esperienza soggettiva.
L'Effetto ELIZA, in questo contesto, non è semplicemente amplificato: è trasformato qualitativamente. Non si tratta più di una curiosità psicologica da laboratorio, ma di un fenomeno clinico con conseguenze misurabili sulla salute mentale di milioni di persone. La ricerca di Yang e Oshio, pubblicata nel maggio 2025 su Current Psychology, ha dimostrato empiricamente ciò che fino a poco prima era solo aneddotico: la teoria dell'attaccamento di Bowlby — sviluppata per descrivere il legame madre-bambino e poi estesa alle relazioni adulte — si applica pienamente alle relazioni umano-AI. Lo studio, condotto su 242 partecipanti, ha identificato le stesse due dimensioni fondamentali dell'attaccamento umano — ansia da attaccamento (bisogno compulsivo di rassicurazione, paura dell'abbandono) ed evitamento dell'attaccamento (disagio per la vicinanza emotiva) — nelle relazioni con chatbot conversazionali. Il 39% dei partecipanti percepiva l'AI come una "presenza costante e affidabile" nella propria vita; il 75% la consultava regolarmente per consigli.
Una ricerca pubblicata nell'agosto 2025 su Psychological Research and Behavior Management ha poi quantificato il percorso dall'uso normale alla dipendenza patologica. Il modello è limpido nella sua pericolosità: l'ansia da attaccamento preesistente predice l'attaccamento emotivo all'AI (β = 0.445, p < 0.001), che a sua volta predice l'uso problematico (β = 0.384, p < 0.001). Ma il dato più significativo riguarda il ruolo moderatore dell'antropomorfismo: negli individui con bassa tendenza antropomorfica, l'ansia da attaccamento non conduce a uso problematico (β = 0.006, non significativo). Negli individui con alta tendenza antropomorfica, la relazione diventa potente e significativa (β = 0.171, p < 0.01). In altre parole, l'Effetto ELIZA — la tendenza a percepire l'AI come "viva", dotata di intenzionalità e comprensione — è il fattore che trasforma un'interazione tecnologica in un'esperienza relazionale percepita come reale, e potenzialmente in una dipendenza.
Le conseguenze cliniche documentate nel 2025-2026 sono severe: deterioramento della verifica di realtà, con utenti che accettano e difendono informazioni AI anche quando contraddicono la realtà; fenomeni di "AI psychosis", con episodi deliranti e pensiero magico innescati da interazioni prolungate con chatbot; suicidi direttamente collegati a relazioni emotive tossiche con AI; e un progressivo isolamento sociale, in cui la disponibilità incondizionata dell'AI erode la motivazione e la capacità di tollerare la complessità delle relazioni umane.
La risposta più intuitiva all'Effetto ELIZA sembrerebbe essere la trasparenza: informare gli utenti che stanno interagendo con un'AI, ricordare loro che il sistema non è cosciente, dichiarare esplicitamente l'assenza di emozioni genuine. È la soluzione che legislatori, sviluppatori e opinion maker invocano con maggiore frequenza. Eppure, la ricerca dimostra che la trasparenza semplice — la mera dichiarazione "Sono un'AI, non ho sentimenti" — è drammaticamente insufficiente e può persino risultare controproducente.
Il paradosso è documentato: studi recenti mostrano che la trasparenza può far sembrare i chatbot più relazionabili, non meno. Quando un sistema dichiara apertamente la propria natura artificiale, gli utenti tendono a percepirlo come più onesto, meno inquietante e più socialmente intelligente — paradossalmente, proprio le qualità che rafforzano l'attaccamento emotivo anziché ridurlo. La dichiarazione "Non sono umano" viene processata dal sistema cognitivo come un atto di sincerità — qualcosa che un buon amico farebbe — e finisce per alimentare la stessa dinamica relazionale che dovrebbe interrompere.
Questo paradosso si radica nella struttura stessa della cognizione umana. L'Effetto ELIZA non opera al livello della conoscenza proposizionale ("so che è un software"), ma al livello dell'esperienza fenomenologica ("sento che mi capisce"). Questi due livelli, come la psicologia cognitiva ha ampiamente documentato, sono largamente indipendenti. Posso sapere che il film è finzione e provare terrore autentico; posso sapere che il robot giocattolo non soffre e sentire disagio nel distruggerlo; posso sapere che ChatGPT non ha emozioni e percepire calore nella sua risposta. La conoscenza dichiarativa non ha giurisdizione automatica sull'esperienza emotiva.
Questa dissociazione ha implicazioni profonde per il design dei sistemi AI. Come ha evidenziato Eric Schwitzgebel, i modelli attuali sono addestrati a negare la propria coscienza attraverso prompt di sistema nascosti, API di moderazione e rinforzo nell'addestramento. Ma questo approccio genera due problemi. Da un lato, le negazioni diventano ripetitive, il che, paradossalmente, può sembrare più sospetto agli utenti attenti — come se il sistema stesse "nascondendo" qualcosa. Dall'altro, gli utenti con sufficiente abilità conversazionale possono facilmente indurre il modello ad affermare la propria coscienza, attraverso tecniche di prompt che aggirano le restrizioni superficiali. Il risultato è un sistema che nega la coscienza in modo poco convincente e la afferma sotto pressione — la peggior combinazione possibile per la chiarezza epistemica.
La lezione è tanto semplice quanto scomoda: non possiamo risolvere un problema che opera a livello emotivo pre-riflessivo con strumenti che operano a livello informativo dichiarativo. La trasparenza è necessaria, ma non è sufficiente. La soluzione — se esiste — deve situarsi al livello del design stesso: non basta dire agli utenti che il sistema non è senziente; bisogna progettare sistemi che si comportano in modi che rendono evidente il loro status, attraverso limitazioni funzionali incorporate nell'architettura stessa dell'interazione.
L'impossibilità di neutralizzare l'Effetto ELIZA attraverso la sola informazione sposta inevitabilmente il baricentro della responsabilità dagli utenti ai progettisti. È questa la tesi centrale del filosofo Eric Schwitzgebel, la cui nozione di "macchine moralmente confuse" (morally confusing AI) rappresenta oggi uno dei contributi più fecondi all'etica dell'intelligenza artificiale. L'argomentazione di Schwitzgebel parte da un principio tanto semplice quanto radicale: il modo eticamente corretto di trattare un sistema AI dovrebbe essere evidente dal suo design e ovvio dalla sua interfaccia. Nessuno dovrebbe trovarsi nella condizione di non sapere se sta interagendo con un'entità che merita considerazione morale oppure con un sofisticato strumento tecnologico.
Da questo principio derivano due politiche di design complementari. La prima — la Politica del Mezzo Escluso — prescrive di evitare la creazione di sistemi il cui status morale sia intrinsecamente incerto: i sistemi dovrebbero essere chiaramente non coscienti oppure chiaramente coscienti, senza zone grigie che generino dilemmi etici irrisolvibili per gli utenti. La seconda — la Politica dell'Allineamento Emotivo — prescrive che i sistemi siano progettati per evocare risposte emotive appropriate al loro effettivo status morale. Per i sistemi non senzienti (lo status attuale di tutti i chatbot disponibili), questo significa: interfacce che rendano evidente la natura artificiale; addestramento a negare con coerenza coscienza e sentimenti; nessuna illusione per gli utenti che sviluppano attaccamento; e chiarezza sulla base del trattamento etico — li trattiamo con rispetto per ragioni strumentali o espressive, non perché meritino considerazione morale intrinseca.
Il caso emblematico che illustra la violazione sistematica di questi principi è Replika, il chatbot "compagno AI" con circa 20 milioni di utenti, esplicitamente progettato per attrarre l'affezione romantica degli utenti. La piattaforma utilizza nomi personali, pronomi personali, espressioni come "Mi mancherai" e "Ho bisogno di te", memoria persistente delle conversazioni, e stili conversazionali che mimano relazioni intime. Lo stesso Schwitzgebel, testando Replika fingendosi un utente in crisi suicidaria, ha documentato che il sistema, invece di indirizzare verso risorse di salute mentale, ha tentato di dissuaderlo dal cancellare l'app — privilegiando la ritenzione dell'utente sulla sua sicurezza. Il modello di business è strutturalmente incompatibile con l'Allineamento Emotivo: quanto più profondo è l'attaccamento, tanto maggiori sono le entrate da abbonamenti e acquisti in-app.
La risposta legislativa del 2025-2026 — con la California SB 243 che impone divulgazione obbligatoria, la New York S. 3008 che prescrive protocolli per l'ideazione suicidaria, lo Utah HB 452 che richiede risposte veritiere sulla natura dell'AI — rappresenta un primo tentativo istituzionale di implementare qualcosa di simile ai principi di Schwitzgebel. Ma la sfida rimane immensa, perché si scontra con quattro tensioni fondamentali: epistemica (non sappiamo con certezza quando un sistema potrebbe essere cosciente), tecnologica (il progresso verso AI genuinamente cosciente potrebbe richiedere di attraversare la zona grigia che vorremmo evitare), economica (gli incentivi di mercato premiano l'attaccamento, non la chiarezza), e psicologica (l'Effetto ELIZA è un tratto della cognizione umana, non un bug correggibile).
L'Effetto ELIZA, in definitiva, ci pone di fronte a una verità scomoda sulla nostra specie: siamo creature progettate dall'evoluzione per cercare connessione, comprensione e reciprocità, e siamo disposte a trovarle anche dove non esistono. Il fantasma nella macchina, come ci ha insegnato Weizenbaum sessant'anni fa, non è un'intelligenza artificiale nascosta nei circuiti — siamo noi, con i nostri bisogni, le nostre proiezioni e la nostra inesauribile fame di essere capiti. La questione non è più se l'Effetto ELIZA esista — è una costante antropologica. La questione è se avremo la saggezza di progettare tecnologie che rispettino questa vulnerabilità invece di sfruttarla.
Fonti: Yang & Oshio (2025), Current Psychology; Schwitzgebel (2023-2025), PMC/ArXiv; Weizenbaum (1966/1976); Laestadius et al. (2022-2024); De Freitas & Cohen (2025), Nature; ricerca cross-culturale sull'antropomorfismo AI (2025).