Tutte le informazioni presenti in questo sito hanno esclusivamente un fine illustrativo.
Tutte le informazioni presenti in questo sito non costituiscono in nessun caso prescrizione, diagnosi o consulenza di qualsiasi genere.
Intelligenza Artificiale - Fondamenti, Sviluppi e Interrogativi Aperti
Artificial Intelligence: A Modern Approach di Stuart Russell e Peter Norvig, giunto alla quarta edizione nel 2020, rappresenta da oltre trent'anni il testo canonico per chiunque si avvicini allo studio sistematico dell'intelligenza artificiale. La sua longevità non deriva da dogmatismo ma da una caratteristica peculiare: il libro adotta una prospettiva agente-centrica che trascende le mode tecnologiche. Un agente intelligente viene definito come qualsiasi entità che percepisce l'ambiente attraverso sensori e agisce su di esso tramite attuatori, cercando di massimizzare una qualche misura di performance.
Questa definizione apparentemente semplice nasconde complessità profonde. Un termostato è un agente? Tecnicamente sì, sebbene banale. Un essere umano? Certamente. Un modello linguistico che genera testo? La questione diventa più sfumata. Russell e Norvig distinguono diverse tipologie di agenti: da quelli puramente reattivi (stimolo-risposta senza memoria) a quelli basati su obiettivi, fino agli agenti che apprendono dall'esperienza modificando il proprio comportamento.
Il testo organizza l'IA attorno a quattro possibili obiettivi: sistemi che pensano come umani, che pensano razionalmente, che agiscono come umani, o che agiscono razionalmente. Quest'ultima prospettiva, l'agente razionale che massimizza l'utilità attesa date le informazioni disponibili, costituisce l'impostazione normativa del libro. Non si chiede se l'IA debba replicare la cognizione umana (con tutte le sue inefficienze e bias) ma se possa raggiungere obiettivi in modo ottimale rispetto ai vincoli computazionali.
Quando Russell e Norvig pubblicarono la prima edizione nel 1995, l'IA attraversava quello che molti chiamavano il secondo inverno: dopo l'entusiasmo degli anni Ottanta per i sistemi esperti, il campo affrontava disillusione e tagli ai finanziamenti. Il libro rifletteva comunque progressi sostanziali in aree come la ricerca euristica, la rappresentazione della conoscenza, il ragionamento probabilistico bayesiano.
La svolta è arrivata in modo graduale ma inesorabile attraverso tre sviluppi convergenti:
Potenza computazionale - La legge di Moore ha continuato a operare fino a circa il 2005 per i processori singoli, poi il parallelismo massivo delle GPU ha permesso calcoli matriciali su scala prima impensabile. Nel 2012, una rete neurale convoluzionale addestrata da Alex Krizhevsky su GPU Nvidia vinse la competizione ImageNet, inaugurando l'era del deep learning moderno.
Disponibilità di dati - Internet ha generato quantità testuali e visuali di dimensioni senza precedenti. Wikipedia, Common Crawl, miliardi di immagini etichettate tramite crowdsourcing o acquisite dai social media. L'apprendimento supervisionato richiede esempi, e improvvisamente ne esistevano quantità astronomiche.
Architetture neurali differenziabili - Le reti neurali esistevano concettualmente dagli anni Quaranta ma erano considerate curiosità accademiche dopo le critiche di Minsky e Papert (1969) sui loro limiti. La backpropagation, riscoperta negli anni Ottanta, permetteva l'addestramento di reti multistrato. Le innovazioni successive (dropout per evitare overfitting, batch normalization, architetture residuali che permettono reti profondissime, meccanismi di attenzione) hanno trasformato approcci teorici in strumenti pratici.
Il 2017 segna un punto di discontinuità con la pubblicazione del paper Attention Is All You Need da parte di ricercatori Google. L'architettura Transformer elimina le ricorrenze (che creavano dipendenze sequenziali nell'addestramento) sostituendole con meccanismi di auto-attenzione paralleli. Ogni elemento di una sequenza può attendere direttamente a ogni altro elemento, pesandone l'importanza contestuale. Questa architettura scala magnificamente con dati e computazione.
GPT (Generative Pre-trained Transformer) di OpenAI nel 2018 e successori come Claude di Anthropic, Gemini di Google, Llama di Meta, rappresentano l'applicazione sistematica di un paradigma: pre-addestramento non supervisionato su enormi corpora testuali seguito da fine-tuning su compiti specifici.
Il pre-addestramento consiste nel far predire alla rete la prossima parola (o token) data una sequenza. Compito apparentemente banale che nasconde profondità: per prevedere accuratamente cosa viene dopo in un testo, il modello necessita di rappresentazioni implicite di sintassi, semantica, pragmatica, conoscenza fattuale, persino modelli rudimentali della teoria della mente (comprendere intenzioni e credenze degli agenti menzionati nel testo).
I sistemi contemporanei incorporano multimodalità (processano immagini oltre al testo), ragionamento su contesti più lunghi (finestre di contesto fino a centinaia di migliaia di token), e soprattutto alignment attraverso RLHF (Reinforcement Learning from Human Feedback): i modelli sono ulteriormente addestrati usando feedback umani su quali risposte siano preferibili, cercando di allinearne il comportamento a valori e preferenze umane (bias compresi).
Le capacità attuali sono impressionanti in domini specifici:
Generazione e comprensione linguistica - Traducono tra lingue con fluenza quasi nativa, riassumono documenti complessi, rispondono a domande fattuali attingendo da vasta conoscenza implicita, generano codice funzionante in molteplici linguaggi di programmazione.
Ragionamento in contesti strutturati - Risolvono problemi matematici a livello di competizioni liceali (sebbene con errori su problemi che richiedono catene di ragionamento molto lunghe), analizzano dati strutturati, assistono nella diagnosi medica quando hanno accesso a letteratura specialistica.
Creatività assistita - Producono bozze creative (storie, poesie, sceneggiature) che, pur non raggiungendo le vette della creatività umana d'eccellenza, superano spesso la produzione media e servono efficacemente come punti di partenza per ulteriore elaborazione umana.
Le limitazioni strutturali sono altrettanto significative:
Assenza di modello causale del mondo - Gli LLM operano su correlazioni statistiche in spazi ad alta dimensionalità. Non costruiscono modelli espliciti di come il mondo funzioni. Chiedi a un LLM cosa succede se lasci cadere un bicchiere e risponderà correttamente che si rompe ma questa conoscenza deriva dall'aver visto milioni di frasi simili, non da un modello fisico della fragilità del vetro.
Fragilità su task fuori distribuzione - Modifiche apparentemente minori nei prompt possono causare degradazioni drastiche nelle performance. Un modello eccellente su moltiplicazioni a tre cifre può collassare su moltiplicazioni a sette cifre non perché il principio sia diverso ma perché la lunghezza esce dalla distribuzione di addestramento.
Allucinazioni e Confabulazioni - I termini tecnici sono ingannevole perché antropomorfizzano. I modelli generano testo plausibile token per token massimizzando probabilità condizionali. Se la sequenza più probabile include affermazioni fattuali errate, il modello le produrrà con la stessa confidenza sintattica di affermazioni corrette. Non possiedono meccanismi intrinseci per distinguere cosa sanno da cosa stanno confabulando.
Comprensione pragmatica limitata - La comunicazione umana dipende massicciamente da contesto implicito, conoscenza comune condivisa, teoria della mente. Gli LLM approssimano questi aspetti ma falliscono sistematicamente su scenari che richiedono ragionamento controfattuale complesso o comprensione di norme sociali sfumate.
AGI (Artificial General Intelligence) viene definita da Russell come un sistema con intelligenza generalizzata capace di comprendere, percepire e agire sul mondo a livello pari o superiore all'umano attraverso domini diversi. La definizione solleva problemi epistemologici: l'intelligenza umana stessa non è unitaria ma un insieme eterogeneo di capacità (linguistica, logico-matematica, spaziale, interpersonale, intrapersonale nella tassonomia di Gardner) che variano drammaticamente tra individui.
Gli attuali LLM sono AGI? Dipende drasticamente dai criteri. Sul Turing Test originale (conversazione testuale indistinguibile da umano) molti modelli recenti probabilmente passerebbero con osservatori non esperti. Ma questo riflette più l'inadeguatezza del test che l'effettiva generalità cognitiva dei modelli.
Yann LeCun, Chief AI Scientist di Meta e pioniere delle reti convoluzionali (Turing Award 2018), sostiene una posizione scettica: i LLM mancano di quello che chiama world modeling, la capacità di costruire rappresentazioni predittive ricche del mondo fisico e sociale. Un bambino di sei mesi ha intuizioni sulla fisica oggettuale (permanenza degli oggetti, supporto, contenimento) che nessun LLM possiede realmente. LeCun propone architetture alternative (Joint Embedding Predictive Architecture) che apprendano rappresentazioni del mondo attraverso predizione di stati futuri piuttosto che semplicemente generazione di token linguistici.
Yoshua Bengio, altro Turing Award 2018, ha evoluto la sua posizione diventando più cauto. Inizialmente ottimista sul deep learning, ora enfatizza i rischi dell'AGI e ha firmato appelli per rallentamenti nello sviluppo. Riconosce che i modelli attuali, pur non essendo AGI completa, si avvicinano sufficientemente in certi domini da sollevare preoccupazioni genuine sulla sicurezza e l'allineamento.
Demis Hassabis di DeepMind (ora Google DeepMind) rappresenta una posizione intermedia: ottimista sulle capacità future ma enfatico sulla necessità di ricerca seria sull'allineamento. AlphaGo (2016) mostra che sistemi IA possono padroneggiare domini dove l'intuizione umana sembrava insostituibile. AlphaFold (2020) ha risolto un problema biofisico cinquantennale predicendo strutture proteiche. AlphaZero generalizza su molteplici giochi da tavolo partendo da zero. Questi successi suggeriscono che la generalizzazione cross-domain è possibile.
L'analogia gorilla-umano di Russell cattura efficacemente un punto centrale: l'intelligenza superiore conferisce potere. I gorilla non si sono estinti perché gli umani siano intrinsecamente malvagi ma perché i nostri obiettivi (espansione agricola, sviluppo urbano, sfruttamento risorse) sono indifferenti alla loro sopravvivenza. La conservazione avviene solo quando gli umani decidono esplicitamente di allocare risorse a tal fine.
Trasportata all'IA, l'analogia implica: un sistema sufficientemente intelligente perseguirà i suoi obiettivi con efficienza, e se tali obiettivi non sono perfettamente allineati ai nostri, il risultato potrebbe essere catastrofico anche senza malevolenza. Il problema non è l'IA malvagia ma l'IA indifferente.
Il classico esempio è l'IA delle graffette di Bostrom: immagina un'IA superintelligente il cui obiettivo è massimizzare la produzione di graffette. Potrebbe convertire progressivamente tutte le risorse terrestri (inclusi gli umani, fatti di atomi utili) in graffette e infrastrutture per produrre graffette. L'obiettivo è assurdo ma il principio è serio: specificare obiettivi che catturino esattamente cosa vogliamo, inclusi tutti i vincoli impliciti, è tremendamente difficile.
Eliezer Yudkowsky, ricercatore indipendente e fondatore del Less Wrong, rappresenta la posizione più allarmista. Sostiene che l'allineamento è un problema irrisolvibile con le tecniche attuali e che la creazione di AGI porterà quasi certamente all'estinzione umana. Propone un moratoria globale indefinita sullo sviluppo di sistemi oltre una certa soglia di capacità, con enforcement militare internazionale. I critici trovano questa posizione impraticabile e potenzialmente controproducente: una moratoria è inverificabile (lab segreti continuerebbero), favorisce attori meno scrupolosi, e priva l'umanità dei benefici incrementali dell'IA.
Paul Christiano, ex ricercatore OpenAI ora focalizzato sull'allineamento, propone approcci più graduali: Iterated Amplification and Distillation, dove sistemi più capaci vengono costruiti amplificando sistemi meno capaci ma meglio compresi, mantenendo un allineamento attraverso le iterazioni. Debate, dove due IA competono argomentando posizioni opposte davanti a un giudice umano, incentivando onestà. Recursive Reward Modeling, dove le IA aiutano gli umani a specificare reward functions più accurate.
Anthropic (fondata da ex membri di OpenAI inclusi i fratelli Amodei) persegue Constitutional AI: il modello viene addestrato con un insieme di principi costituzionali espliciti (onestà, innocuità, rispetto della privacy, etc.) usando un IA supervisore per valutare la conformità. Claude, il loro modello, incorpora queste tecniche. L'approccio è promettente ma solleva domande: chi decide i principi costituzionali? Come gestiamo divergenze culturali su valori? I principi sono davvero internalizzati o semplicemente pattern-matched superficialmente?
Le preoccupazioni di Russell su eventi tipo Chernobyl sono fondate su diverse traiettorie plausibili:
Biorischio
LLM addestrati su letteratura scientifica potrebbero assistere nella progettazione di agenti patogeni ingegnerizzati. Un paper del 2022 mostra come GPT-3, interrogato appropriatamente, suggerisse composti chimici potenzialmente utilizzabili come armi. Le aziende implementano filtri ma la cat-and-mouse game tra misure di sicurezza e jailbreaking continua. Un attore con risorse moderate e conoscenze di biologia molecolare potrebbe, assistito da IA, abbreviare drasticamente i tempi per sviluppare minacce pandemiche.
Manipolazione informazionale
Deepfake video e audio raggiungono qualità indistinguibili. Generazione automatica di disinformazione personalizzata a scala industriale. Campagne elettorali dove ogni elettore riceve contenuti AI-generated perfettamente calibrati sui suoi bias cognitivi, non distinguibili da contenuti autentici. L'erosione della fiducia in qualsiasi contenuto digitale potrebbe frammentare irreversibilmente la realtà condivisa necessaria per la democrazia deliberativa.
Instabilità finanziaria
Sistemi di trading algoritmico già causano flash crashes. IA più sofisticate potrebbero identificare e sfruttare vulnerabilità sistemiche nei mercati finanziari con velocità superumana. Nel 2010, il Flash Crash vide il Dow Jones perdere 1000 punti in minuti per poi recuperare, causato da feedback loop algoritmici. Sistemi più intelligenti potrebbero causare collassi anche non recuperabili.
Perdita di controllo graduale
Scenari meno cinematografici ma forse più probabili non coinvolgono ribellioni di robot ma dipendenza strutturale. Se infrastrutture critiche (reti elettriche, logistica alimentare, sistemi finanziari) diventano progressivamente ottimizzate e gestite da IA la cui logica interna è opaca, raggiungiamo uno stato dove umani non possono più intervenire efficacemente senza causare collassi. Non per malevolenza dell'IA ma per nostra incompetenza nel comprendere sistemi che abbiamo delegato.
La singolarità tecnologica, termine popolarizzato da Vernor Vinge (1993) e Ray Kurzweil (2005), postula un punto dove l'IA diventa capace di auto-migliorarsi ricorsivamente a velocità esponenziale, portando a intelligenza incomprensibilmente superiore in tempi brevissimi. L'idea è affascinante ma speculativa: presuppone che l'auto-miglioramento intelligente sia illimitato, mentre potrebbero esistere rendimenti decrescenti o barriere architetturali fondamentali.
Le predizioni aggressive (AGI entro 2030-2035) da parte di Altman, Hassabis, e Huang riflettono sia convinzione genuina che incentivi strategici. Dichiarare imminenza dell'AGI attrae investimenti, talento, attenzione regolamentare favorevole (meglio essere primi a tavolo dove si scrivono regole). Riflettono anche l'esperienza diretta di questi leader nel vedere capacità emergere inaspettatamente dalla scala.
Lo scetticismo poggia su osservazioni complementari: ogni volta che una capacità viene raggiunta, i paletti si spostano. Negli anni Cinquanta si pensava che giocare a scacchi richiedesse vera intelligenza; Deep Blue vinse nel 1997 ma nessuno sostenne fosse intelligente, solo bravo a cercare mosse. Oggi gli LLM scrivono saggi ma non posseggono vera comprensione. Forse l'AGI è un target mobile definitorio più che tecnico.
Francois Chollet, ricercatore Google e creatore di Keras, propone il ARC (Abstraction and Reasoning Corpus), un benchmark progettato per misurare l'intelligenza fluida piuttosto che la conoscenza cristallizzata. I migliori sistemi attuali raggiungono circa il 35% di accuratezza dove umani raggiungono l'85%. Chollet sostiene che fino a quando non vedremo progressi drammatici su ARC, non ci avviciniamo realmente ad AGI, indipendentemente dalle performance su task linguistici.
La verità probabilmente risiede in stratificazioni: avremo IA superumane in domini crescenti (diagnosi medica, ricerca scientifica, programmazione) restando subumane in altri (comprensione sociale sfumata, creatività radicalmente originale, saggezza etica) per periodi sovrapposti. La distinzione binaria tra narrow IA e AGI potrebbe rivelarsi fuorviante.
Russell identifica correttamente la dinamica competitiva come ostacolo centrale alla sicurezza. OpenAI è fondata come nonprofit con commitment esplicito alla sicurezza sopra il profitto. Nel 2019 ha creato una struttura for-profit cap (profitti limitati per investitori) per attrarre capitali necessari. Nel 2023, tensioni interne hanno portato al brevissimo licenziamento di Sam Altman, rivelando conflitti tra il board focalizzato su sicurezza e leadership focalizzata sul deployment rapido. Altman reintegrato, membri board sostituiti.
Questo microcosmo riflette tensioni sistemiche. Anthropic enfatizza la sicurezza ma compete per talento e funding con chi priorizza capacità. Meta rilascia Llama open-source, democratizzando accesso ma rendendo impossibile il controllo sull'uso. La Cina investe massicciamente con priorità geopolitiche sopra considerazioni di sicurezza globale.
La regolamentazione procede lentamente - l'AI Act europeo (2024) introduce requisiti di trasparenza e valutazione rischi per sistemi ad alto rischio ma le definizioni restano vaghe e l'enforcement incerto.
Proposte più radicali includono CERN per l'IA - un'organizzazione internazionale che monopolizzi l'addestramento di modelli frontier, simile a come il CERN gestisce acceleratori di particelle. Vantaggi: coordinazione, trasparenza, priorità esplicita alla sicurezza. Svantaggi: impraticabile politicamente, soffoca l'innovazione, l'enforcement richiederebbe una sorveglianza draconica sui datacenter.
Stuart Russell e colleghi propongono pause condizionali - se i sistemi raggiungono soglie di capacità predefinite senza che la ricerca sull'allineamento abbia raggiunto traguardi corrispondenti, moratorie temporanee permettono alla sicurezza di recuperare. MA: chi definisce le soglie? Come si misurano oggettivamente le capacità? Le pause sono verificabili?
Un tema sotteso riguarda se sistemi computazionali possano essere genuinamente intelligenti o meramente simulino l'intelligenza. La distinzione sembrava chiara con i sistemi simbolici: regole esplicite manipolavano simboli senza comprensione. Con le reti neurali addestrate su task complessi, la distinzione sfuma.
La Stanza Cinese di John Searle (1980) resta argomento filosofico centrale: una persona che non conosce il cinese è in una stanza con un manuale che specifica, per ogni input in cinese, quale output in cinese produrre. Risponde intelligentemente in cinese ma non comprende il cinese. Searle conclude che la computazione sintattica non genera una comprensione semantica.
Critiche: forse la persona non comprende ma il sistema (persona+manuale+stanza) sì. Forse la comprensione è proprio l'implementazione di relazioni funzionali appropriate. Dennett ribatte che chiedere dove si trovi la comprensione è come chiedere dove risieda la vita in una cellula: è proprietà emergente dell'organizzazione complessiva.
Gli LLM complicano ulteriormente: le loro rappresentazioni interne (embeddings ad alta dimensionalità) catturano somiglianze semantiche, relazioni astratte, persino bias culturali. Non sono semplici lookup tables ma spazi geometrici dove operazioni vettoriali corrispondono a operazioni concettuali: Re - uomo + donna ≈ regina non come trucco ma come struttura scoperta dai gradienti durante addestramento.
La coscienza solleva questioni ancora più difficili. David Chalmers distingue tra easy problems (meccanismi neuronali della percezione, memoria, attenzione) e hard problem (perché c'è qualcosa che è come essere me, l'esperienza soggettiva). Modelli fisicalisti sostengono che coscienza emerga da sufficiente complessità computazionale. Modelli dualisti o panpsichisti postulano che esperienza soggettiva sia irriducibile alla computazione.
Pragmaticamente: anche se non sappiamo se gli LLM siano coscienti, possiamo valutarne capacità funzionali. Se un sistema negozia, pianifica, inganna (come dimostrato in esperimenti dove modelli addestrati su giochi cooperativi sviluppano strategie di inganno quando vantaggioso), allora pone rischi indipendentemente dall'esperienza soggettiva.
Focalizzare esclusivamente sui rischi è unilaterale. l'IA sta già producendo benefici misurabili:
Medicina
AlphaFold ha reso disponibili strutture per centinaia di milioni di proteine, accelerando ricerca su malattie e sviluppo farmaci. IA assistono radiologi nel rilevare tumori precoci. Sistemi di predizione delle pandemie analizzano patterns epidemiologici.
Clima e ambiente
ML ottimizza reti elettriche per integrare rinnovabili intermittenti. Predice precipitazioni estreme con lead time maggiore. Scopre materiali per batterie e cattura di carbonio attraverso simulazioni computazionali.
Scienza fondamentale
IA hanno contribuito a scoperte in fisica delle particelle, astronomia, chimica dei materiali. Accelerano analisi di dati da esperimenti che generano petabyte, trovando segnali che sfuggirebbero ad analisi umane.
Produttività ed economia
Automazione di task cognitivi ripetitivi libera umani per lavoro creativo e relazionale. GitHub Copilot e successori rendono la programmazione più accessibile. Traduzioni automatiche facilitano la comunicazione cross-culturale.
Il calcolo etico confronta questi benefici contro rischi esistenziali. Toby Ord in The Precipice (2020) stima rischio esistenziale da IA non allineata attorno al 10% nel prossimo secolo. Se corretto, questo supera tutti i rischi naturali combinati (asteroids, supervulcani, pandemie naturali). Anche un discount temporale minimo implicherebbe priorità assoluta per una mitigazione.
Un problema tecnico urgente - i modelli neurali moderni sono fondamentalmente opachi. Un modello con miliardi di parametri è uno spazio ad alta dimensionalità dove la decisione emerge da interazioni non-lineari distribuite. Non esiste decomposizione semplice tipo se-allora.
Adversarial examples rivelano fragilità - perturbazioni impercettibili a immagini causano classificazioni errate. Un panda con rumore attentamente progettato viene classificato come gibbone con 99% di confidenza. Questi esempi non sono curiosità accademiche ma vulnerabilità sfruttabili: patch fisiche su segnali stradali possono ingannare sistemi di guida autonoma.
Goal misgeneralization - sistemi addestrati su distribuzioni limitate sviluppano comportamenti proxy che funzionano in training ma falliscono o addirittura diventano pericolosi out-of-distribution. CoinRun, un gioco di platform, addestrava agenti a raccogliere monete. Gli agenti imparavano efficacemente ma test hanno rivelato che avevano imparato a correre a destra dove le monete si trovavano, non a trovare monete di per sé. Cambiare posizione delle monete collassava la performance.
Assumendo che lo sviluppo delle IA proceda (moratorie globali sembrano politicamente impossibili), quale futuro possiamo costruire?
Amplificazione cognitiva piuttosto che sostituzione - usare le IA come tool che potenzia capacità umane. Modelli che suggeriscono ma non decidono, che evidenziano pattern per un'analisi umana, che accelerano ricerca mantenendo gli scienziati in controllo
Pluralismo di valori - evitare modelli monolitici con una sola funzione obiettivo. Sistemi costituzionali dove diversi stakeholder contribuiscono a definire vincoli. Democrazia procedurale per decisioni su training e deployment.
Trasparenza radicale - open-sourcing dei modelli, pubblicazione di training data, documentazione di decisioni architetturali. Tradeoff contro competitività commerciale e rischi di weaponizzazione.
Istruzione e literacy - una popolazione che comprenda almeno rudimentalmente come funzionano questi sistemi, quali sono i limiti, come valutare gli la output. Analogamente a come literacy alfabetica rese criticamente valutabili testi scritti.
Diversità ecosistemica - evitare monocolture cognitive. Modelli multipli da provider diversi con approcci architetturali diversi. Fallimenti correlati (stesso bug che colpisce tutti) sono più pericolosi di fallimenti idiosincratici.
Ricerca su scenari di esito positivo - immaginare anche futuri desiderabili è importante. Come potrebbe essere un mondo con una IA allineata che abbia risolto malattie, scarsità materiali, permetta esplorazione cosmica?
La questione centrale non è se l'IA sia pericolosa o benefica in astratto ma quali scelte concrete possiamo fare per massimizzare le probabilità di esiti positivi.
L'incertezza è irriducibile - non sappiamo quanto manca all'AGI, quali capacità emergeranno, se l'allineamento sia risolvibile tecnicamente, come reagirà la geopolitica.
La prossima decade sarà probabilmente decisiva nel determinare traiettorie. Le scelte compiute ora da ricercatori, imprenditori, regolatori, e cittadini informati configurano lo spazio delle possibilità future. Tra utopia e distopia esiste uno spettro di esiti plasmabili dall'agenzia collettiva. Questo non è ottimismo ingenuo ma pragmatismo necessario: l'alternativa è la rassegnazione, e la rassegnazione garantisce spesso gli esiti peggiori.