di Francesco Pungitore
La neutralità tecnologica è una delle finzioni più resistenti del discorso moderno. Attribuire alla tecnica un carattere oggettivo e impersonale ha sempre svolto una funzione precisa: separare l’efficienza dall’etica, il funzionamento dalla responsabilità. Nel caso dell’intelligenza artificiale, questa separazione viene radicalizzata. L’IA è presentata come un sistema che “calcola” e “ottimizza”, e proprio per questo viene percepita come più affidabile.
Ma è in questa contrapposizione che si annida l’equivoco di fondo. L’idea di neutralità non nasce dall’assenza di valori, bensì dalla loro invisibilità. Quando un sistema di IA produce un risultato, ciò che appare è l’esito finale, non il processo che lo ha reso possibile. Scompaiono così le scelte preliminari: cosa viene considerato un dato rilevante, quali obiettivi vengono privilegiati, quali criteri definiscono il successo o il fallimento. La tecnologia non si presenta come portatrice di una visione del mondo, ma come un dispositivo che la rende operativa senza mai dichiararla. È questa opacità, più che un’intenzione malevola, a generare l’illusione di imparzialità.
La neutralità dell’IA è quindi una costruzione narrativa, non una proprietà intrinseca. Serve a rendere accettabile la delega decisionale, a normalizzare il trasferimento di potere dai soggetti umani ai sistemi automatizzati. Se una decisione è il risultato di un calcolo, allora sembra sottratta al conflitto e alla contestazione. In questo senso, parlare di neutralità non è un errore concettuale innocuo, ma un atto politico implicito: significa accettare che le scelte vengano presentate come necessarie, tecniche, inevitabili, invece che come ciò che sono davvero — opzioni tra molte, prese all’interno di specifici rapporti di forza.
Ogni sistema di intelligenza artificiale prende forma ben prima di produrre un risultato. Le sue decisioni non emergono dal nulla, ma da una stratificazione di scelte che vengono spesso presentate come passaggi tecnici inevitabili. La selezione dei dati, ad esempio, è già una presa di posizione: ciò che viene raccolto, ciò che viene escluso, ciò che viene considerato rappresentativo o marginale. I dati non descrivono il mondo in modo neutro, ma lo ricostruiscono secondo criteri che riflettono priorità istituzionali, disponibilità economiche e convenzioni culturali.
Lo stesso vale per i modelli. Ogni architettura incorpora un’idea implicita di ciò che conta e di ciò che può essere trascurato. Le metriche con cui un sistema viene addestrato e valutato non sono semplici strumenti di misurazione, ma dispositivi normativi: stabiliscono cosa significa “funzionare bene”, quali errori sono tollerabili e quali invece no. In questo passaggio, la complessità del reale viene compressa in una funzione di ottimizzazione, e ciò che non rientra in quel perimetro rischia di diventare irrilevante, se non invisibile.
Infine, ci sono gli obiettivi. Ogni sistema di IA è progettato per rispondere a una finalità specifica, che raramente è neutra o universale. Ottimizzare significa sempre ottimizzare per qualcuno e a spese di qualcos’altro. Eppure, una volta che queste finalità vengono tradotte in codice, tendono a presentarsi come necessità tecniche, sottratte alla discussione. È in questo slittamento — dalla scelta al parametro, dal valore alla funzione — che il potere si sedimenta nei sistemi di IA, trasformando decisioni contingenti in automatismi difficili da mettere in discussione.
Riconoscere che l’intelligenza artificiale non è neutra significa accettare una conseguenza scomoda: ogni processo di automazione è anche una scelta politica. Delegare a un sistema algoritmico non equivale a eliminare il giudizio umano, ma a spostarlo altrove, spesso rendendolo meno visibile e meno contestabile. In questo senso, l’IA non decide al posto nostro; decide come noi decidiamo. È qui che la questione smette di essere tecnica e diventa strutturalmente culturale: riguarda il modo in cui una società distribuisce potere, responsabilità e legittimità.
Hannah Arendt osservava che il pericolo maggiore non nasce dall’assenza di pensiero, ma dalla sua sospensione routinaria, dal momento in cui le azioni vengono compiute senza più interrogarsi sul loro significato. L’automazione algoritmica rischia di produrre proprio questo effetto: non un dominio della macchina sull’uomo, ma una progressiva rinuncia dell’uomo a pensare le proprie scelte, rifugiandosi nell’apparente oggettività del calcolo. Quando una decisione è “presa dal sistema”, la responsabilità sembra dissolversi, frammentata tra sviluppatori, istituzioni e procedure, fino a non appartenere più a nessuno.
Affermare che l’IA non è neutra non significa demonizzarla, ma restituirle un contesto di senso. Significa riconoscere che ogni tecnologia porta con sé una visione del mondo e che accettarla senza discuterla equivale ad accettare quella visione come naturale. In questo spazio si gioca la posta più alta: non il controllo dell’IA, ma la nostra capacità di restare soggetti delle decisioni che la attraversano. Uno sguardo critico, allora, non è un freno al progresso, ma l’unica condizione perché il progresso resti umano.