di Francesco Pungitore
Quando si parla di intelligenza artificiale, il linguaggio suggerisce spesso un’idea di autonomia: sistemi che “decidono”, che “imparano”, che “agiscono”. In realtà, l’IA non fa nulla che non sia stato reso possibile — e desiderabile — da una serie di scelte umane preliminari. Ogni sistema di IA nasce da una decisione molto concreta: quale problema risolvere, quale risultato considerare un successo, quali variabili contano e quali possono essere ignorate. L’azione dell’IA non è spontanea, ma incanalata. Un sistema di intelligenza artificiale non sceglie i propri obiettivi. Qualcuno li ha definiti in fase di progettazione: ridurre tempi, minimizzare un costo.
Anche quando il sistema appare flessibile o “adattivo”, opera sempre entro confini stabiliti in anticipo. L’IA può esplorare soluzioni, ma non il senso del problema. Può ottimizzare, ma non interrogarsi sul perché. La sua efficacia deriva proprio da questa limitazione: agire bene, senza dover comprendere.
Parlare di “decisioni dell’IA” è quindi fuorviante. Ciò che osserviamo è una esecuzione automatizzata di scelte già prese, spesso molto a monte rispetto al momento in cui il sistema entra in funzione. Il rischio non è attribuire troppa intelligenza alle macchine, ma dimenticare quanta progettazione — tecnica, organizzativa, strategica — sia incorporata nei loro comportamenti. Capire chi decide cosa fa l’IA significa allora ricostruire questa filiera di decisioni, che raramente è visibile quando il sistema è già operativo.
Per capire cosa fa davvero l’intelligenza artificiale, non basta guardare l’algoritmo: bisogna osservare l’ambiente in cui viene messo a operare. Un sistema di IA funziona solo se il problema è stato tradotto in una forma trattabile, cioè scomposto, formalizzato, reso misurabile. Questo processo avviene prima dell’addestramento e spesso fuori dal campo visivo di chi utilizza il sistema. Decidere come rappresentare un problema equivale già a decidere che tipo di risposte saranno possibili.
I dati giocano un ruolo centrale in questa costruzione. Non sono semplicemente “raccolti”, ma selezionati, puliti, organizzati secondo criteri che riflettono scelte operative molto precise. Ciò che non viene misurato o registrato non entra nel modello; ciò che entra, diventa rilevante. I modelli di IA apprendono regolarità da ciò che è disponibile, non da ciò che sarebbe auspicabile. In questo senso, l’azione dell’IA è sempre il risultato di una media statistica del passato, filtrata da decisioni su cosa conti come informazione utile.
Accanto ai dati, conta l’ambiente operativo. Molti sistemi di IA funzionano bene perché il contesto è stato progressivamente adattato a loro: processi standardizzati, categorie stabili, obiettivi chiaramente quantificabili. Più un’attività viene resa regolare e prevedibile, più diventa “compatibile” con l’azione automatizzata. L’IA non impone necessariamente questo adattamento, ma lo rende conveniente. Così, ciò che il sistema può fare non dipende solo dalle sue capacità tecniche, ma dal modo in cui il mondo viene organizzato per renderle efficaci.
Per comprendere cosa fa — e cosa non fa — l’IA generativa contemporanea, è necessario chiarire la sua architettura di fondo. I modelli oggi più diffusi non operano secondo una logica simbolica o deduttiva, ma secondo una logica probabilistica. Non manipolano significati, ma distribuzioni statistiche: data una sequenza di input, calcolano quale output è più probabile sulla base di enormi quantità di esempi precedenti. Il loro “sapere” non consiste in regole esplicite, ma in pesi numerici appresi durante l’addestramento.
Un modo classico per chiarire questo punto è richiamare l’esperimento mentale noto come stanza cinese. Un sistema può produrre risposte corrette in una lingua che non comprende, semplicemente applicando regole formali di trasformazione dei simboli. Allo stesso modo, l’IA generativa può produrre testi coerenti, immagini plausibili o codice funzionante senza possedere alcuna comprensione del contenuto che genera. Il modello non “sa” di cosa parla: calcola sequenze statisticamente compatibili con ciò che ha visto in precedenza.
Questa architettura segna una distanza netta rispetto all’idea tradizionale di intelligenza come capacità di ragionamento logico-formale. I sistemi di IA generativa non seguono catene di inferenze nel senso classico, né costruiscono rappresentazioni semantiche stabili del mondo. Funzionano perché riescono a catturare regolarità latenti nei dati, non perché comprendano relazioni causali o significati. La loro efficacia deriva dall’ampiezza del corpus di addestramento e dalla potenza computazionale, non da una forma di intelligenza intenzionale.
Capire questa differenza è cruciale per evitare fraintendimenti. L’IA generativa non è una mente artificiale, ma un motore di previsione linguistica e simbolica estremamente avanzato. Il fatto che i suoi output appaiano sensati, creativi o persino “intelligenti” è il risultato di una sofisticata elaborazione statistica, non di una comprensione del mondo. È proprio questa distanza tra apparenza e funzionamento a rendere l’IA così potente — e, allo stesso tempo, così facilmente fraintendibile.
Il punto più delicato dell’intelligenza artificiale non è ciò che fa, ma come rende possibile un’azione efficace senza comprensione. È su questo nodo che si concentra, in particolare, la riflessione del professore Luciano Floridi, quando descrive l’IA come una nuova forma di agire: potente, funzionale, ma priva di intelligenza nel senso umano del termine. L’azione non nasce più da un soggetto che comprende e valuta, ma da un sistema che esegue con successo ciò per cui è stato progettato. L’intelligenza, in questo schema, non scompare: si sposta altrove.
Le decisioni che contano non avvengono nel momento in cui l’IA produce un output, ma molto prima: nella definizione degli obiettivi, nella traduzione dei problemi, nella progettazione dei contesti operativi. È qui che l’azione viene resa possibile. Quando il sistema entra in funzione, ciò che osserviamo è l’effetto finale di una catena di scelte già incorporate nell’architettura tecnica. In questo senso, l’IA non sostituisce il decisore umano, ma lo distribuisce: l’intenzione si frammenta tra progettisti, organizzazioni, standard, ambienti digitali.
Secondo Floridi, il rischio non è affidare troppo potere alle macchine, ma non accorgerci di dove stiamo già esercitando potere attraverso di esse. L’azione artificiale funziona proprio perché è separata dall’intelligenza e dalla responsabilità diretta: produce risultati senza chiedere conto del loro significato. Governare l’IA, allora, non significa attribuirle intenzioni o temerla come soggetto autonomo, ma recuperare visibilità sulle scelte che ne guidano l’azione. In un mondo in cui sempre più decisioni vengono eseguite senza essere “pensate” nel momento in cui accadono, la vera sfida non è fermare l’intelligenza artificiale, ma riconoscere che stiamo già decidendo attraverso di essa.