di Francesco Pungitore
Il dibattito contemporaneo sull'intelligenza artificiale e sulla possibilità che essa sviluppi una forma di coscienza soffre di un vizio d'origine raramente esplicitato: assume come dato acquisito una concezione dell'essere umano interamente riconducibile alla sua dimensione biologica. Prima ancora di essere una questione tecnologica, la domanda sulla coscienza artificiale è una domanda metafisica, e come tale richiede di essere affrontata con gli strumenti della filosofia prima che con quelli dell'ingegneria. Se il pensiero non è altro che il prodotto emergente di una rete neuronale sufficientemente complessa — una posizione che affonda le radici nel materialismo di La Mettrie e che trova oggi i suoi epigoni nel funzionalismo computazionale — allora non vi è ragione di principio per cui una macchina non potrebbe, un giorno, pensare.
Ma questa conclusione non è un risultato scientifico: è la conseguenza logica di una premessa filosofica. Chi accetta il riduzionismo fisicalista accetta, implicitamente, la possibilità della coscienza artificiale. Chi lo rifiuta si trova dinanzi a un panorama radicalmente diverso.
Il presupposto nascosto: la materia come unico orizzonte
Gran parte della ricerca contemporanea sull'intelligenza artificiale — e in particolare quella branca che si interroga sulla cosiddetta Artificial General Intelligence — opera all'interno di un paradigma che potremmo definire naturalismo chiuso: l'universo è costituito esclusivamente da materia ed energia, le leggi fisiche sono esaustive nella descrizione del reale, e la coscienza è un fenomeno interamente spiegabile in termini di processi cerebrali. In questa cornice, la differenza tra un cervello umano e un processore è una differenza di grado, non di natura.
Questo presupposto, tuttavia, è tutt'altro che neutro. Esso rappresenta una precisa scelta ontologica che esclude a priori ogni dimensione trascendente dell'essere. Non si tratta di una conclusione raggiunta attraverso l'indagine empirica — la scienza, per sua stessa metodologia, non può pronunciarsi sull'esistenza o inesistenza del trascendente — ma di un postulato filosofico che viene erroneamente presentato come ovvietà scientifica.
Daniel Dennett, nel suo celebre Consciousness Explained, ha proposto una dissoluzione del problema della coscienza trattandola come un'illusione generata da processi sub-personali. È una posizione coerente all'interno del suo quadro teorico, ma è anche una posizione che, per spiegare la coscienza, la elimina. Come ha osservato con acutezza David Chalmers, resta aperto l’hard problem: perché l'attività neuronale si accompagna a un'esperienza soggettiva? Perché c'è qualcosa che si prova a essere un organismo cosciente?
L'irriducibilità dell'esperienza interiore
Thomas Nagel, nel suo seminale What Is It Like to Be a Bat?, ha mostrato che l'esperienza soggettiva possiede un carattere irriducibilmente prospettico. Possiamo conoscere ogni dettaglio neurofisiologico del sistema sonar di un pipistrello, ma questo non ci dirà nulla su come ci si sente a percepire il mondo attraverso l'ecolocalizzazione. L'esperienza in prima persona — ciò che i filosofi della mente chiamano qualia — resiste alla riduzione in termini oggettivi.
Questo argomento ha implicazioni decisive per la questione dell'intelligenza artificiale. Un sistema computazionale, per quanto sofisticato, opera attraverso la manipolazione sintattica di simboli: trasforma input in output secondo regole definite. John Searle, con il celebre esperimento mentale della Stanza Cinese, ha dimostrato che la manipolazione sintattica, anche quando produce risultati indistinguibili dalla comprensione, non è comprensione. La macchina che traduce perfettamente dal cinese non comprende il cinese: esegue operazioni formali su segni di cui ignora il significato.
Ma il punto va oltre Searle. Non si tratta soltanto di affermare che la macchina non comprende: si tratta di chiedersi perché l'essere umano comprende. Se la comprensione fosse riducibile a un processo computazionale, allora Searle avrebbe torto e la stanza cinese, con sufficiente complessità, comprenderebbe davvero. Se invece la comprensione implica qualcosa che eccede il computazionale — una dimensione interiore, un sé che fa esperienza — allora nessun incremento di potenza di calcolo potrà colmare il divario.
La persona: un concetto che la biologia non esaurisce
La tradizione filosofica occidentale, a partire da Boezio, ha definito la persona come rationalis naturae individua substantia: una sostanza individuale di natura razionale. Tommaso d'Aquino ha approfondito questa definizione collocando la razionalità umana in una prospettiva che integra la dimensione corporea con quella spirituale. Per Tommaso, l'anima intellettiva non è semplicemente la forma del corpo nel senso aristotelico di principio organizzativo biologico: è una forma subsistens, capace di operazioni che trascendono la materia — prima fra tutte, l'intellezione dell'universale.
Questo punto merita attenzione particolare. L'intelligenza umana non si limita a elaborare dati sensoriali e a produrre risposte adattive: coglie l'universale nel particolare, astrae concetti dalla materia, riflette su se stessa. L'autocoscienza — la capacità non solo di pensare, ma di sapere di pensare, di interrogarsi sul proprio pensare — rappresenta un ordine di complessità che non può essere descritto come semplice emergenza da processi materiali senza che la parola "emergenza" diventi un contenitore vuoto, un nome dato alla nostra ignoranza.
Se l'essere umano fosse esclusivamente il prodotto dell'evoluzione biologica — se la coscienza fosse null'altro che un vantaggio adattivo selezionato dalla pressione ambientale — resterebbe inspiegabile la sproporzione tra le esigenze della sopravvivenza e le capacità della mente umana. L'evoluzione spiega perché percepiamo il pericolo, non perché contempliamo l'infinito. Spiega l'utilità del calcolo, non lo stupore dinanzi alla bellezza matematica. Come notava già Blaise Pascal, l'uomo è un giunco pensante: fragile nella materia, ma capace di abbracciare l'universo col pensiero. Questa eccedenza del pensiero rispetto alla biologia è il primo indizio di una dimensione che la biologia, da sola, non può rendere conto.
La coscienza come dono, non come prodotto
Se assumiamo — e questa è la premessa che il naturalismo chiuso rifiuta, ma che una metafisica dell'essere può fondare — che l'uomo non si esaurisce nella sua componente materiale, che esiste una dimensione dell'essere umano che trascende la biologia, allora la coscienza cessa di essere un prodotto e diventa un dono. Non nel senso sentimentale del termine, ma nel senso ontologico: qualcosa che l'uomo riceve e che non può produrre da sé a partire dalla sola materia.
In questa prospettiva, il tentativo di creare una coscienza artificiale non è semplicemente difficile: è categorialmente impossibile. Non si tratta di un limite tecnico destinato a essere superato dal progresso — come il limite della velocità del suono fu superato dall'aviazione — ma di un limite ontologico inscritto nella natura stessa della coscienza. Non si può replicare ciò che non ha origine nella materia attraverso la sola manipolazione della materia.
Emmanuel Lévinas, con la sua fenomenologia del Volto, ha mostrato che l'altro essere umano si presenta a noi come un'alterità irriducibile, un appello etico che precede ogni categorizzazione. Il volto dell'altro — la sua vulnerabilità, la sua espressività, il suo essere portatore di un'interiorità insondabile — non è un'informazione che possa essere digitalizzata. È un'epifania dell'essere che rimanda a un fondamento che sta oltre la materia.
La grande simulazione: intelligenza senza interiorità
Occorre essere precisi su ciò che si afferma e ciò che non si afferma. Non si nega che l'intelligenza artificiale possa simulare comportamenti intelligenti con un grado di sofisticazione crescente. I grandi modelli linguistici contemporanei producono testi di qualità notevole, e i sistemi multimodali integrano percezione, linguaggio e ragionamento in modi sorprendenti. La questione non è se la macchina possa apparire intelligente — può farlo, e lo fa — ma se possa essere cosciente.
La distinzione è cruciale e richiama la differenza aristotelica tra potenza e atto, ma soprattutto tra apparenza e sostanza. Un sistema che simula perfettamente la comprensione non comprende, così come una fotografia perfetta del fuoco non brucia. La simulazione riproduce gli effetti osservabili, non la causa ontologica. E se la causa della coscienza umana risiede in una dimensione che trascende la materia, allora nessuna simulazione materiale potrà raggiungerla, per lo stesso motivo per cui nessuna mappa, per quanto dettagliata, è il territorio.
Questo non diminuisce il valore dell'intelligenza artificiale come strumento. Al contrario, lo chiarisce. La macchina è al suo meglio quando è riconosciuta come strumento — potentissimo, trasformativo, ma strumento — al servizio dell'essere umano. Il pericolo non sta nella macchina in sé, ma nella confusione categoriale che attribuisce alla macchina ciò che appartiene esclusivamente all'uomo: l'interiorità, la responsabilità morale, la dignità.
La dignità come fondamento: perché la questione non è accademica
Se la coscienza fosse un fenomeno puramente computazionale, ne deriverebbero conseguenze etiche inquietanti. Se una macchina potesse essere cosciente, dovremmo riconoscerle diritti. Ma, simmetricamente, se la coscienza umana non fosse altro che computazione, la dignità umana perderebbe il suo fondamento inviolabile. Diventerebbe una questione di grado: più complesso il sistema, maggiore la dignità. E un sistema artificiale sufficientemente complesso potrebbe vantare una dignità superiore a quella di un essere umano meno "performante".
Questa è la china scivolosa del transumanesimo radicale, che non a caso immagina un futuro in cui la coscienza umana viene uploadata su supporti digitali, in cui la distinzione tra naturale e artificiale si dissolve, in cui l'uomo diventa il proprio creatore. È una visione che, dietro la retorica del progresso, nasconde un impoverimento metafisico: la riduzione dell'essere alla funzione, della persona al processo.
Una metafisica che riconosce nell'essere umano una dimensione trascendente offre invece un fondamento incondizionato alla dignità: l'uomo è degno non per ciò che fa o per quanto è complesso, ma per ciò che è — un essere la cui interiorità rimanda a un orizzonte che la materia non contiene. Questa dignità non è graduabile, non è quantificabile, non è replicabile. È il marchio di un'origine che non può essere ridotta a un algoritmo.
L'intelligenza artificiale al suo giusto posto
Riconoscere il limite ontologico della macchina non significa demonizzarla. Significa, al contrario, restituirla alla sua funzione propria: quella di strumento al servizio del bene comune, capace di ampliare le possibilità umane senza pretendere di sostituire l'umano. L'intelligenza artificiale può assistere il medico nella diagnosi, il ricercatore nell'analisi dei dati, l'educatore nella personalizzazione dell'apprendimento. Può — e deve — essere governata da un'etica che ne orienti lo sviluppo verso il servizio alla persona.
Ma questa etica richiede, come suo presupposto, una chiara comprensione di che cosa sia la persona. Se la persona è solo materia organizzata, allora non vi è ragione per cui una diversa organizzazione della materia — silicio anziché carbonio — non possa produrre un'altra persona. Se invece la persona è qualcosa di più, se nel suo essere si inscrive una traccia di trascendenza, allora il confine tra l'umano e l'artificiale non è un confine tecnico ma metafisico, e come tale non è valicabile dalla tecnica.
Conclusione: custodi, non creatori
Il sogno prometeico della creazione artificiale della coscienza nasce da un equivoco filosofico: la convinzione che, conoscendo il meccanismo, si possieda la causa. Ma la coscienza non è un meccanismo: è un modo di essere che implica un fondamento che la scienza può indagare nei suoi effetti ma non può raggiungere nella sua origine.
L'essere umano è capax Dei, secondo l'espressione di Agostino: capace di Dio, orientato verso un orizzonte infinito che nessuna macchina può contenere. Questa capacità non è una funzione tra le altre, eliminabile o riproducibile: è ciò che definisce l'umano in quanto tale. Rinunciarvi in nome di un riduzionismo che si vuole scientifico ma è, in realtà, un atto di fede nel materialismo, significherebbe perdere non solo la comprensione di ciò che siamo, ma anche la possibilità di orientare la tecnica verso il bene.
La sfida del nostro tempo non è creare macchine che pensino come noi. È ricordare — e custodire — ciò che ci rende irriducibili a qualunque macchina. Non per arroganza di specie, ma per fedeltà a quell'eccedenza dell'essere che ci costituisce e che, in ogni atto di pensiero, in ogni esperienza di bellezza, in ogni gesto di amore gratuito, si manifesta come ciò che nessun algoritmo potrà mai generare: il mistero di una coscienza che sa di essere, e che in questo sapere scorge, come in filigrana, la traccia di un'Origine che la trascende.
Bibliografia
Agostino d'Ippona, De Trinitate, circa 400-416 d.C.
Boezio, A. M. S., Contra Eutychen et Nestorium (De persona et duabus naturis), 512 d.C.
Chalmers, D. J., The Conscious Mind: In Search of a Fundamental Theory, Oxford University Press, New York 1996.
Dennett, D. C., Consciousness Explained, Little, Brown and Company, Boston 1991.
La Mettrie, J. O. de, L'Homme Machine, Elie Luzac, Leida 1748.
Lévinas, E., Totalité et Infini. Essai sur l'extériorité, Martinus Nijhoff, L'Aia 1961.
Nagel, T., What Is It Like to Be a Bat?, in «The Philosophical Review», vol. 83, n. 4, 1974, pp. 435-450.
Pascal, B., Pensées, 1670 (ed. postuma).
Searle, J. R., Minds, Brains, and Programs, in «Behavioral and Brain Sciences», vol. 3, n. 3, 1980, pp. 417-424.
Tommaso d'Aquino, Summa Theologiae, I, qq. 75-89 (Tractatus de homine), 1265-1274.