di Francesco Pungitore
Da oggi, negli Stati Uniti, un'azienda che sviluppa intelligenza artificiale potrebbe non dover più fare i conti con cinquanta leggi diverse. Il 20 marzo 2026 la Casa Bianca ha pubblicato il National AI Legislative Framework, un piano in sei pilastri con cui l'amministrazione Trump chiede al Congresso di fare una cosa senza precedenti: scavalcare le normative dei singoli stati in materia di AI e sostituirle con un unico standard federale, valido dalla California al Texas, dal Colorado a New York.
Il meccanismo si chiama preemption — letteralmente "prevenzione" — ed è un principio giuridico con cui il governo federale può dichiarare che una materia è di propria esclusiva competenza, rendendo inapplicabili le leggi statali che la regolano in modo diverso. In concreto, significherebbe che normative già in vigore — come quella del Colorado che vieta le discriminazioni algoritmiche nelle assunzioni, o quella del Texas che obbliga a dichiarare quando un'AI interagisce con un utente — potrebbero essere annullate o ridimensionate da una legge federale più permissiva. Non si tratta di un semplice coordinamento: è un'imposizione dall'alto di un modello regolatorio unico, pensato per essere il più leggero possibile.
La logica dichiarata è strategica: un mosaico di normative statali — ciascuna con obblighi, divieti e sanzioni propri — rallenterebbe le aziende, aumenterebbe i costi di conformità e finirebbe per avvantaggiare la Cina nella corsa globale all'AI. Il framework, tuttavia, non arriva in un vuoto: si inserisce in un contesto segnato dal conflitto senza precedenti tra il Dipartimento della Difesa e Anthropic, dal rilascio di modelli AI sempre più potenti e da una corsa geopolitica che non accenna a rallentare.
Cosa prevede il piano, in concreto
Il framework si articola in sei aree di intervento: protezione dei minori online, tutela delle comunità e gestione dell'impatto energetico dei data center, rispetto della proprietà intellettuale, prevenzione della censura governativa tramite AI, rimozione delle barriere all'innovazione e formazione della forza lavoro. Su ciascuna di queste voci, il documento propone raccomandazioni legislative specifiche. Tra le più rilevanti: l'obbligo per le piattaforme AI accessibili ai minori di implementare strumenti di protezione contro lo sfruttamento sessuale e l'autolesionismo; la richiesta che i data center generino energia in loco, senza scaricare i costi sulle bollette dei cittadini; e l'introduzione di regulatory sandbox, ambienti sperimentali in cui gli sviluppatori possano testare nuove applicazioni con regole più flessibili.
Sul fronte della proprietà intellettuale, il framework assume una posizione netta e, per molti versi, controversa: l'addestramento dei modelli AI su materiale protetto da copyright non viola, secondo l'amministrazione, le leggi vigenti. Tuttavia, riconoscendo l'esistenza di argomentazioni contrarie, la Casa Bianca preferisce lasciare ai tribunali la risoluzione definitiva della questione — una scelta che i critici interpretano come un favore sostanziale alle big tech, in attesa che la giurisprudenza consolidi un orientamento favorevole.
L'approccio "light-touch" e le sue ombre
Il documento è stato immediatamente accolto con favore dai leader repubblicani della Camera, che si sono dichiarati pronti a un lavoro bipartisan, e dall'industria tecnologica, attraverso la coalizione AI Progress (di cui fanno parte Amazon, Google, Meta, Microsoft, OpenAI e la stessa Anthropic). David Sacks, il cosiddetto "zar dell'AI" della Casa Bianca, ha definito il framework una risposta necessaria alla frammentazione normativa in atto.
Le voci critiche, però, non mancano. Brad Carson, a capo del gruppo Public First Action (sostenuto da Anthropic), ha definito il piano paragonabile alla saccarina: privo di sostanza nutritiva e destinato a lasciare un retrogusto amaro. L'Alliance for Secure AI ha denunciato l'assenza di meccanismi di responsabilità concreta per i danni causati dalla tecnologia. E diversi giuristi hanno sottolineato come il framework rischi di travolgere anche normative statali ragionevoli, come la legge texana che vieta lo sviluppo di AI che incoraggi il suicidio o quella del Colorado contro le discriminazioni algoritmiche nelle assunzioni.
La trasformazione di questo piano in legge resta, peraltro, tutt'altro che scontata. In un anno elettorale di midterm, con maggioranze risicate e un Congresso profondamente diviso, l'iter legislativo si preannuncia complesso. Il framework, più che un progetto di legge vero e proprio, appare come una dichiarazione d'intenti: la Casa Bianca pianta la bandiera e lascia al Congresso il compito — politicamente oneroso — di tradurla in norme operative.
Il caso Anthropic: quando la sicurezza diventa un rischio nazionale
Se il framework rappresenta il versante programmatico della politica AI dell'amministrazione Trump, lo scontro con Anthropic ne è la manifestazione più drammatica e concreta. La vicenda, senza precedenti nella storia del rapporto tra governo federale e industria tecnologica americana, si è sviluppata con una rapidità impressionante.
Il punto di partenza è un contratto da 200 milioni di dollari stipulato nell'estate 2025 tra Anthropic e il Pentagono per il dispiegamento di Claude — il modello di punta della startup — nelle reti classificate del Dipartimento della Difesa. Anthropic era stata la prima azienda AI a integrare i propri modelli nei flussi di lavoro militari a livello classificato. Il contratto, tuttavia, conteneva due clausole volute dall'azienda: i modelli non potevano essere utilizzati per la sorveglianza di massa dei cittadini americani né per sistemi d'arma completamente autonomi.
A gennaio 2026, il Segretario alla Difesa Pete Hegseth ha emesso un memorandum che chiedeva a tutti i contratti AI del Dipartimento di includere una clausola di utilizzo "per qualsiasi scopo lecito" entro 180 giorni. L'inserimento di questa formula nel contratto con Anthropic avrebbe neutralizzato le due condizioni originarie. Il CEO di Anthropic, Dario Amodei, ha rifiutato.
La reazione dell'amministrazione è stata fulminea e senza sfumature. Il presidente Trump ha definito i dirigenti di Anthropic dei "pazzi di sinistra" su Truth Social; Hegseth ha annunciato la designazione dell'azienda come "rischio per la catena di approvvigionamento della sicurezza nazionale" — un'etichetta fino a quel momento riservata ad avversari stranieri, mai applicata a un'azienda americana. Il sottosegretario Emil Michael ha pubblicamente definito Amodei un "bugiardo" con un "complesso di Dio".
La designazione comporta conseguenze potenzialmente devastanti: tutti i fornitori e i contractor del Pentagono devono certificare di non utilizzare i modelli di Anthropic nel loro lavoro con il Dipartimento. Nella sua formulazione più estrema, il provvedimento rischierebbe di impedire anche ai fornitori di servizi cloud — come Amazon Web Services, che ospita Claude — di continuare a fare affari con l'azienda.
Anthropic ha risposto portando il caso in tribunale, invocando la violazione del Primo Emendamento e la natura ritorsiva del provvedimento. Nelle memorie depositate, i legali dell'azienda hanno sottolineato un'ironia fondamentale: il Pentagono ha simultaneamente minacciato di invocare il Defense Production Act per costringere Anthropic a vendere i propri prodotti (riconoscendoli dunque come essenziali per la sicurezza nazionale) e di etichettarla come un rischio per la stessa sicurezza nazionale. Un documento reso pubblico il 20 marzo rivela inoltre che, appena una settimana dopo la rottura pubblica, il sottosegretario Michael aveva comunicato ad Amodei che le due parti erano "molto vicine" a un accordo — una circostanza che getta ulteriori ombre sulla proporzionalità delle azioni intraprese.
L'udienza per l'ingiunzione preliminare è fissata per il 24 marzo davanti alla giudice Rita Lin di San Francisco. Nel frattempo, OpenAI ha rapidamente firmato un proprio contratto con il Dipartimento della Difesa, dichiarando di aver negoziato protezioni analoghe a quelle richieste da Anthropic — un dettaglio che rende ancora più difficile comprendere la logica della durissima azione governativa contro quest'ultima.
NVIDIA Nemotron-Cascade 2 e MiniMax M2.7: la corsa ai modelli non si ferma
Mentre Washington combatte la sua battaglia regolatoria, il fronte tecnologico continua a produrre sviluppi significativi. Il 19 marzo NVIDIA ha rilasciato Nemotron-Cascade 2, un modello open-weight basato su architettura Mixture-of-Experts (MoE) con 30 miliardi di parametri totali e soli 3 miliardi attivati per token. Si tratta del secondo modello open-weight a raggiungere prestazioni da medaglia d'oro nelle principali competizioni internazionali di matematica e informatica (IMO, IOI, ICPC), dopo DeepSeek-V3.2 — con un ventesimo dei parametri. Un risultato che dimostra come l'efficienza computazionale stia diventando il vero campo di battaglia dell'AI open-source, con implicazioni dirette per la democratizzazione dell'accesso ai modelli di frontiera.
Il 18 marzo, la cinese MiniMax ha invece lanciato M2.7, un modello proprietario che introduce un paradigma inedito: l'auto-evoluzione. Il modello è in grado di gestire autonomamente tra il 30 e il 50 per cento del proprio workflow di apprendimento per rinforzo, analizzando fallimenti, riscrivendo codice e selezionando miglioramenti senza intervento umano. MiniMax lo definisce il primo caso commerciale di "early echoes of self-evolution", un concetto che sposta il confine tra strumento e agente in modo sostanziale. Le prestazioni dichiarate sono ragguardevoli: 56,22% su SWE-Pro (ingegneria del software), prossimo ai migliori modelli di frontiera, a un costo API di appena 0,30 dollari per milione di token in input — una frazione rispetto ai concorrenti occidentali.
Il quadro d'insieme: regolazione, potere e responsabilità
La convergenza di questi eventi in una sola settimana non è casuale. Il framework legislativo, il conflitto Anthropic-Pentagono e l'avanzata dei modelli open-weight e auto-evolutivi sono tre facce dello stesso prisma: chi stabilisce le regole, chi controlla la tecnologia e chi ne risponde.
L'amministrazione Trump propone un modello in cui il governo federale centralizza la governance, l'industria viene liberata dai vincoli statali e le questioni etiche più spinose — dal copyright alle armi autonome — vengono risolte caso per caso, dai tribunali o dalla prassi. È un approccio coerente con la visione di "dominanza americana nell'AI", ma che lascia aperti interrogativi profondi sulla tutela dei diritti individuali, sulla responsabilità per i danni e sulla concentrazione di potere nelle mani di poche aziende.
Il caso Anthropic, in particolare, pone una domanda che trascende il contesto americano: può un'azienda tecnologica legittimamente porre limiti all'uso militare dei propri prodotti? E se sì, quale prezzo è disposto a far pagare un governo a chi esercita questo diritto? La risposta che emergerà dal tribunale di San Francisco il 24 marzo potrebbe avere ripercussioni ben oltre i confini statunitensi — compresa l'Europa, dove l'AI Act sta ancora cercando il proprio equilibrio tra innovazione e tutela.
Nel frattempo, modelli come Nemotron-Cascade 2 e M2.7 ricordano che la tecnologia non aspetta i legislatori. Con architetture sempre più efficienti e capacità di auto-miglioramento, l'intelligenza artificiale sta rapidamente superando la capacità delle istituzioni di comprenderla, regolarla e governarla. È una corsa in cui il ritardo non è solo politico, ma cognitivo. E in cui le decisioni prese oggi — a Washington come a Bruxelles — definiranno il terreno su cui si giocherà la partita per i prossimi decenni.