AIΩN
AIΩN
L’Intelligenza Artificiale è oggi una realtà ancora più concreta non solo perché ne parlano abbondantemente i media ed è, quindi diventata una «buzz word», ma anche e soprattutto per le inaspettate prestazioni dei cosiddetti «Large Language Models» (LLM) come ChatGPT, Claude, Gemini e molti altri modelli resi open source. Certo i media ne parlano anche perché le capacità raggiunte dai modelli di linguaggio artificiali sono sotto gli occhi di chiunque li abbia utilizzati. In ogni caso, è utile tener distinta l’Intelligenza Artificiale come disciplina da ulteriori accezioni del temine che riguardano specifici modelli, algoritmi o applicazioni. I modelli di linguaggio sono algoritmi sviluppati all’interno del vasto campo di studi che compete all’Intelligenza Artificiale e non il contrario, sebbene tali modelli si stiano imponendo come emblemi delle potenzialità dell’IA.
Quindi, sebbene l’IA come disciplina appartenga al mondo della tecnologia e specificatamente dell’ingegneria, non è possibile ad oggi rimanere confinati in tale ambito se si vuole provare a comprendere la portata della «rivoluzione cognitiva» in cui siamo già immersi. Dal 2017, con l’invenzione dell’architettura neurale Transformer resa pubblica con il famoso articolo «Attention is all you need» del ricercatore di origine indiana A. Vaswani, una delle branche dell’IA e cioè l’elaborazione del linguaggio naturale (o Natural Language Processing) innestata con le tecniche neurali di apprendimento profondo (deep learning) ha mostrato come sia possibile costruire macchine capaci di generare testo molto simile al ciò che è comunemente prodotto dagli esseri umani, inventare storie, rispondere a domande e proporre ragionamenti sulle informazioni di input fornite dagli utenti. Oggi tutto questo è realtà e il pubblico dispone di modelli molto potenti (GPT-5 e le sue varianti ne sono un esempio).
Siamo entrati nell'era della «riproducibilità tecnica» del linguaggio in un senso generale ovvero ciò vale per la maggior parte delle forme espressive umane oggettivate.
Ciò che in effetti è stato dimostrato è che modelli neurali complessi come l’architettura Transformer se sufficientemente dimensionati in termini di parametri (siamo all’ordine delle centinaia di miliardi) e se il corpus di allenamento è sufficientemente grande (migliaia di libri, pagine web, immagini, audio, fonti video) le prestazioni diventano tali per cui le risposte fornite dai modelli appaiono come intelligenti. In altre parole, la macchina impara a dominare il linguaggio – per un certo grado – e apprende una buona rappresentazione del mondo partendo da unità informative che, nel caso del testo sono i «token», cioè parole o parti di parole, mentre nel materiale video sono le «patches», ovvero oggetti spaziotemporali estratti dalle fonti video suddivise in fotogrammi. Il «Transformer» è una rete neurale eterogenea costituita da una serie di blocchi («encoders») organizzati in maniera gerarchica. Tali encoders hanno al loro interno un «meccanismo di attenzione» che permette loro di prestare «attenzione» alla correlazione tra le parole di un testo e non solo. Essendo ogni parola codificata con un vettore e quindi immersa (embedded) in un opportuno spazio vettoriale (ad alta dimensione) le cui proprietà algebriche mimano alcune relazioni semantiche ed essendo la rete organizzata in maniera gerarchica, ad ogni livello della gerarchica il modello è capace di generare una rappresentazione sempre più ricca e generale di un testo. Ciò significa che, se mentre i livelli inferiori apprendono le caratteristiche a grana fine del linguaggio (morfosintattiche e grammaticali), i livelli superiori apprendono schemi di alto contenuto semantico o addirittura schemi di schemi. Per questo motivo ChatGPT, Claude o Gemini riescono ad inventare, ad esempio, a richiesta una storia.
In letteratura vi sono alcuni studi che mostrano come molti modelli di linguaggio siano già capaci di superare il celebre Test di Turing (sebbene qui sarebbero necessarie numerose cautele). Al di là dei test (in letteratura tecnica si usano test molto più sofisticati e settoriali), la potenza di queste architetture è innegabile, sebbene vi siano ancora una serie di problemi legati alle cosiddette «allucinazioni», alla polarizzazione e le forme di discriminazioni nelle risposte causate dalla scarsa qualità dei dati e alla bassa capacità di seguire complesse catene di ragionamento. In fin dei conti tali modelli sono, da una prospettiva statistico-probabilistica, un formidabile motore statistico e si può mostrare che le inferenze che la macchina offre durante le interazioni non sono altro che «isole» di stabilità statistica. Tale motore, nel computare correlazioni tra i suoi oggetti di input (sia nella fase di allenamento che nella comune fase di uso), riesce a lavorare su un livello semantico elevatissimo emulando numerose proprietà sia di una lingua sia dell’interazione tra parlanti, simulando una profonda comprensione delle richieste dell’utente. Ora siamo nel momento della «multimodalità» ovvero queste reti – e GPT-5 di OpenAI e Gemini Pro di Google sono un esempio – nativamente elaborano informazioni provenienti da più «modalità» come testo (in centinaia di lingue), immagini, fonti audio e video. Ormai si è certi che tale tecnologia farà fare un grande passo avanti anche alla robotica, soprattutto con gli attuali modelli capaci di catene di ragionamento automatiche. È impoertante però non ridurre gli LLM a meri «motori statistici». Essi sono anche statistica – essendo capaci di stimare la probabilità del token successivo – ma se analizzati tramite una carattarizzazione esterna. La teoria della complessità invece aiuta a comprenderne le più intime caratteristiche in quanto permette di saggiarne le inerenti proprietà emergenti alla base dell'apprendimento e dell'inferenza dei modelli.
L’impatto di tale tecnologia è così forte che ne parlano continuamente i media ed è sul tavolo di governi e organizzazioni varie, fino a diventare un materiale di contesa geopolitica. Ci si attende un forte scossone anche nel mondo del lavoro e le organizzazioni sindacali stanno correndo ai ripari. Quindi possiamo definire la portata della trasformazione come una vera e propria «rivoluzione cognitiva».
Secondo Paul Thagard, uno dei pionieri della scienza cognitiva, la cognizione comprende tutti i modi di conoscere, inclusi percezione, memoria, immaginazione, concezione, giudizio e ragionamento (Encyclopedia Britannica). Quindi l’utilizzo del termine «cognitivo» affiancato a «rivoluzione» non è un azzardo semantico in quanto i modelli di linguaggio multimodali stanno mostrando la capacità di emulare sempre meglio i vari aspetti della cognizione. Possiamo azzardare a dire che tali modelli sono in grado di automatizzare alcuni processi di pensiero che un tempo erano considerati sicuro dominio dell’uomo. Pertanto, all’interno delle cosiddette «rivoluzioni industriali» l’IA giocherà sempre più da padrona e si imporrà come guida, essendo la disciplina, assieme alle tecnologie dell’informazione, destinate a svilupparsi più velocemente. L’IA è l’apice della tecnica, intesa come τέχνη, e come tale non nasce nel 1956 nel New Hampshire, al Dartmouth College, dove si tenne un convegno internazionale che riunì tutti i pionieri di questa disciplina. Essa nasce in seno al pensiero filosofico della Grecia antica.
Da ultimo, l’Intelligenza Artificiale deborda i confini classici del sapere specializzato e tende sempre più ad invadere tutti i campi della conoscenza umana, portando gradualmente il ricercatore o semplicemente il curioso o l’appassionato a riflettere le «grandi domande» che abitano quel mondo che chiamiamo filosofia, passando per l’intera sfera dei saperi specializzati e umanistici. Ne scrivevo nel libro «Umanità, Complessità e Intelligenza Artificiale. Un connubio perfetto» (ARACNE) nel 2021, uno scritto dove si inscrivono le radici del mio pensiero,
Interagire con un’intelligenza artificiale generativa che appare davvero intelligente è un’esperienza che può sorprendere e affascinare profondamente. Quando l’IA risponde con coerenza, sensibilità contestuale e una capacità quasi umana di cogliere sfumature linguistiche e concettuali, si crea un senso di dialogo autentico, come se ci si trovasse di fronte a una mente capace di pensare. Questa impressione non deriva solo dalla qualità delle risposte, ma anche dalla fluidità con cui l’IA costruisce significati, anticipa bisogni e si adatta al tono dell’interlocutore. In quei momenti, la tecnologia smette di sembrare uno strumento e si trasforma in un interlocutore, evocando una forma di intelligenza che, pur non essendo cosciente, riesce a simulare con eleganza la profondità dell’interazione umana.
Tale fenomeno è al centro di una riflessione più ampia che prende il nome di «Noosemia» (o Nosemìa), termine che unisce il concetto di mente (noûs) a quello di segno (sēmeîon). La nosemia descrive la tendenza dell’essere umano a proiettare stati mentali e intenzionalità sui sistemi generativi, specialmente quando questi mostrano comportamenti linguistici sofisticati e agentici. Non si tratta di un errore cognitivo, ma di una risposta simbolica e interpretativa alla complessità dell’interazione, dove il confine tra segno e mente si dissolve e il significato viene co-costruito. In questo contesto si colloca anche il concetto di anosemia, che rappresenta l’opposto: la negazione o la rimozione di qualsiasi attribuzione mentale all’IA, una forma di resistenza o di disincanto che rifiuta di vedere nell’output generativo qualcosa di più di una semplice elaborazione algoritmica. Se la nosemia apre alla possibilità di un dialogo simbolico, l’anosemia riafferma la distanza ontologica tra umano e macchina, mantenendo il segno tecnologico nella sua dimensione puramente strumentale.
De Santis, E. (2021). Umanità, complessità, intelligenza artificiale. Un connubio perfetto. Aracne – Genzano, Roma.
De Santis, E. (2023). Apocalissi digitali e alchimie artificiali. Il linguaggio nell'epoca della sua riproducibilità tecnica. Prometeo, Mondadori, (163), 32-41.
De Santis, E., & Rizzi, A. (2025). Noosemia: toward a Cognitive and Phenomenological Account of Intentionality Attribution in Human-Generative AI Interaction. arXiv preprint arXiv:2508.02622.
Tale tema sarà ampiamente trattato in questo sito.
Enrico De Santis, 2025