di Francesco Pungitore
La metamorfosi del rischio: dall'errore grammaticale al clone digitale
Fino a pochi anni fa, difendersi da un attacco informatico era, per certi versi, una questione di buon senso linguistico. Le email di phishing arrivavano scritte in un italiano approssimativo, piene di errori ortografici e grammaticali, con formule generiche del tipo "Gentile cliente, il tuo conto è stato bloccato". Bastava un minimo di attenzione — e una ragionevole dose di diffidenza — per cestinarle senza conseguenze.
Quella stagione è finita. L'avvento dell'intelligenza artificiale generativa ha riscritto le regole del gioco in modo radicale, eliminando quasi tutti i difetti che rendevano riconoscibili gli attacchi tradizionali. I criminali informatici oggi dispongono di modelli linguistici avanzati (Large Language Models) capaci di generare comunicazioni perfette dal punto di vista sintattico e stilistico, personalizzate in funzione del destinatario e prodotte a velocità e volumi prima impensabili. Come osserva il Cybersecurity Forecast 2026 di Google, l'AI non è più uno strumento sperimentale per gli attaccanti: è stata integrata nell'intero ciclo operativo dell'attacco, dalla ricognizione iniziale all'esecuzione finale.
Il dato quantitativo è eloquente. Secondo il report Experian 2026, nella sola prima metà del 2025 si sono verificate oltre 8.000 violazioni di dati a livello globale, con circa 345 milioni di record esposti. Un'indagine Veeam su 250 decisori aziendali ha collocato le minacce cyber al primo posto tra i fattori di disruption attesi per il 2026, con quasi la metà degli intervistati che le indica come preoccupazione principale — e circa il 66% che identifica specificamente gli attacchi generati dall'AI come la minaccia più significativa per i propri dati.
Non si tratta di allarmismo teorico. Si tratta di una trasformazione strutturale del panorama delle minacce, che richiede una comprensione profonda dei meccanismi in gioco per poter costruire difese adeguate.
L'anatomia del phishing AI-powered: precisione, scala, velocità
Per comprendere la portata del cambiamento, è utile analizzare le tre capacità fondamentali che l'intelligenza artificiale conferisce ai criminali informatici, capacità che fino a ieri erano impossibili o economicamente proibitive.
La scrittura impeccabile. Un LLM può generare email, messaggi e documenti privi di qualsiasi errore, replicando con fedeltà il tono, il registro e lo stile comunicativo del mittente che intende impersonare — che si tratti del direttore finanziario, di un fornitore abituale o di un collega di reparto. La differenza rispetto al passato non è incrementale: è categoriale. L'email fraudolenta di oggi non "assomiglia" a quella autentica; ne è una replica funzionalmente indistinguibile.
La personalizzazione su larga scala. L'AI è in grado di analizzare in pochi secondi i profili LinkedIn di un'organizzazione-bersaglio, i post sui social media dei dipendenti, i comunicati stampa aziendali, l'organigramma interno, i progetti in corso. Queste informazioni vengono poi utilizzate per costruire messaggi su misura per ogni singola vittima, che fanno riferimento a nomi reali, eventi reali, scadenze reali. Non si tratta più di lanci nella rete a strascico, ma di attacchi chirurgici.
La velocità e il volume. Quello che prima richiedeva ore di lavoro manuale a un criminale esperto — la raccolta di informazioni, la redazione del messaggio, la costruzione del pretesto — viene oggi eseguito in minuti da agenti AI automatizzati. Barracuda Networks stima che nel 2026 agenti AI autonomi siano in grado di orchestrare intere campagne di attacco senza intervento umano diretto, adattando le tattiche in tempo reale in risposta al comportamento delle vittime.
Per un'azienda, questo significa che il volume delle minacce cresce esponenzialmente mentre il costo marginale di ciascun attacco si avvicina allo zero. È un'asimmetria strategica di proporzioni inedite.
Oltre l'email: deepfake vocali e video come armi di ingegneria sociale
La frontiera più inquietante dell'uso offensivo dell'AI riguarda i deepfake — contenuti audio e video sintetici generati da reti neurali (tipicamente GAN, Generative Adversarial Networks) capaci di riprodurre in modo realistico il volto, la voce e la gestualità di una persona reale.
Il caso più noto resta quello della multinazionale britannica Arup: nel febbraio 2024, un dipendente della sede di Hong Kong ha partecipato a una videochiamata in cui erano presenti il CFO e due colleghi che gli chiedevano di approvare un trasferimento urgente di fondi. I volti erano familiari, le voci corrispondevano, il contesto era plausibile. Il dipendente ha eseguito. Nessuna di quelle persone, tuttavia, era realmente in chiamata: erano tutti deepfake generati dall'intelligenza artificiale. L'azienda ha perso 25 milioni di dollari in un singolo trasferimento.
Non è un episodio isolato. Tentativi analoghi hanno preso di mira figure come il CEO di Ferrari, Benedetto Vigna — il cui accento meridionale è stato replicato con precisione da un clone vocale — e il CEO di WPP, Mark Read. Secondo i dati del Q1 2025 Deepfake Incident Report di Resemble AI, le frodi abilitate da deepfake hanno causato oltre 200 milioni di dollari di perdite nei soli primi quattro mesi del 2025. Negli Stati Uniti, le perdite per frodi deepfake hanno raggiunto 1,1 miliardi di dollari nel 2025, triplicando rispetto ai 360 milioni del 2024. Le proiezioni del Deloitte Center for Financial Services indicano che le frodi abilitate dall'AI generativa raggiungeranno i 40 miliardi di dollari entro il 2027, con un tasso di crescita annuo composto del 32%.
Particolarmente allarmante è il dato sulla percezione umana: secondo uno studio iProov del 2025, solo lo 0,1% dei partecipanti è stato in grado di identificare correttamente tutti i contenuti falsi e autentici sottoposti al test. Gli esseri umani riescono a riconoscere un deepfake video di alta qualità solo nel 24,5% dei casi — una percentuale appena superiore al caso puro. Questo dato dovrebbe far riflettere chiunque ritenga ancora che la vigilanza individuale sia una difesa sufficiente.
L'attacco coordinato: come si svolge un'operazione completa nel 2026
Gli attacchi più sofisticati non si limitano a un singolo canale, ma orchestrano una sequenza coordinata di azioni che sfrutta simultaneamente email, voce e video per costruire una catena di fiducia artificiale. Ecco come si articola un attacco tipo nel 2026.
Nella prima fase (ricognizione), l'AI analizza sistematicamente i dati pubblici dell'azienda-bersaglio: organigramma, ruoli, progetti in corso, stile comunicativo interno, recenti comunicati stampa. Nella seconda fase (creazione dell'esca), viene generata un'email perfetta, scritta nello stile esatto del direttore finanziario, che richiede l'approvazione urgente di un pagamento legato a un progetto reale. Nella terza fase (conferma vocale), pochi minuti dopo l'email, arriva una telefonata: la voce è quella — clonata — del CFO che conferma la richiesta. Nella quarta fase (rinforzo video), per eliminare ogni residuo dubbio, segue una breve videochiamata con i deepfake del CFO e di altri colleghi. Nella quinta fase (esecuzione), il dipendente, convinto dalla coerenza tra email, voce e video, approva il trasferimento.
Questa catena multimodale è ciò che rende gli attacchi moderni così efficaci: ogni singolo elemento rafforza la credibilità degli altri, creando un sistema di conferme incrociate interamente artificiale ma percepito come autentico.
Le nuove superfici d'attacco: agenti AI e identità non umane
Il panorama delle minacce nel 2026 non si esaurisce nel social engineering avanzato. Una dimensione di rischio emergente — e per certi versi ancora più insidiosa — riguarda la sicurezza degli agenti AI autonomi che le stesse aziende stanno adottando a ritmo accelerato.
Palo Alto Networks, nel suo report pubblicato su Harvard Business Review nel dicembre 2025, definisce il 2026 come l'anno in cui l'identità digitale diventerà il principale campo di battaglia della sicurezza informatica. Le identità non umane (NHI — Non-Human Identities), ovvero account di servizio, chiavi API, certificati e token associati ad agenti AI, superano ormai le identità umane in molte organizzazioni con rapporti che vanno da 40:1 a oltre 100:1. Un agente AI autonomo è, per definizione, un dipendente digitale instancabile: opera 24 ore su 24, accede a dati sensibili, esegue operazioni critiche. Ma se non è adeguatamente protetto, diventa anche una minaccia interna di prima grandezza: un singolo attacco di prompt injection o una vulnerabilità nell'uso degli strumenti può trasformare l'agente più affidabile dell'organizzazione nel suo avversario più pericoloso.
IBM, nelle previsioni di cybersecurity per il 2026, sottolinea che il 13% delle aziende ha già sperimentato un incidente di sicurezza legato all'AI, e il 97% di queste ha ammesso la mancanza di adeguati controlli di accesso specifici per l'intelligenza artificiale. Il report Moody's 2026 avverte inoltre che minacce come il model poisoning — la corruzione dei dati usati per addestrare i modelli AI — diventeranno sempre più diffuse man mano che le aziende adotteranno la tecnologia senza le opportune salvaguardie.
Perché le difese tradizionali non bastano più
I vecchi consigli — "controlla se ci sono errori grammaticali", "verifica l'indirizzo email del mittente", "diffida dei messaggi urgenti" — sono ormai strumenti spuntati di fronte alla sofisticazione degli attacchi correnti. L'AI genera testi grammaticalmente perfetti. I deepfake replicano fedelmente voci e volti. Gli agenti automatizzati adattano le loro tattiche in tempo reale.
Anche i sistemi di filtraggio tradizionali — antispam, antivirus, firewall basati su firme note — faticano a intercettare queste comunicazioni, perché sono progettati per riconoscere pattern noti e comportamenti già catalogati, non contenuti originali generati su misura per ogni specifico bersaglio. Secondo il report Entrust 2026, i deepfake sono già coinvolti in una frode biometrica su cinque, e i selfie deepfake utilizzati per aggirare i sistemi di verifica dell'identità sono cresciuti del 58% nel solo 2025.
La conseguenza per le organizzazioni è chiara: non è più possibile affidarsi esclusivamente a barriere tecnologiche passive o alla vigilanza individuale dei dipendenti. Serve un cambio di paradigma.
L'AI come strumento di difesa: il paradigma Zero Trust e l'automazione della sicurezza
Se l'intelligenza artificiale ha armato gli attaccanti, è anche vero che rappresenta — forse paradossalmente — la risorsa difensiva più potente a disposizione delle organizzazioni. Il 2026 è stato definito da Palo Alto Networks "The Year of the Defender": l'anno in cui le difese guidate dall'AI possono finalmente ribaltare l'asimmetria a favore di chi si protegge.
Il paradigma architetturale di riferimento è lo Zero Trust — letteralmente, "fiducia zero". Il principio è semplice nella formulazione ma rivoluzionario nelle implicazioni: nessuna entità, umana o non umana, interna o esterna alla rete, deve essere considerata attendibile per default. Ogni accesso, ogni operazione, ogni richiesta deve essere autenticata, autorizzata e continuamente verificata. Come sintetizza Keith McCammon, co-fondatore di Red Canary, nel 2026 lo Zero Trust passa da aspirazione a lungo termine a primo passo operativo della difesa.
Microsoft, nelle sue priorità di sicurezza per il 2026, articola questa strategia in quattro direttrici: l'automazione AI della protezione a velocità e scala; la messa in sicurezza degli stessi agenti AI utilizzati dalle organizzazioni; l'estensione dei principi Zero Trust a un'architettura unificata di accesso (il cosiddetto Access Fabric); il rafforzamento delle fondamenta dell'identità digitale. In concreto, questo significa che l'AI difensiva non si limita a rilevare anomalie: investiga, correla, triage gli alert, e in molti casi risponde autonomamente alle minacce in pochi secondi — un salto qualitativo rispetto ai tempi di risposta manuali che potevano richiedere ore o giorni.
Per le aziende che operano nel settore finanziario, l'adozione di sistemi di rilevamento deepfake con liveness detection — verifiche biometriche che accertano la presenza fisica reale dell'interlocutore — sta diventando non più un'opzione, ma un requisito operativo.
Cosa devono fare le aziende: un vademecum operativo
Al di là delle architetture tecnologiche, la difesa efficace passa attraverso principi organizzativi che ogni azienda, indipendentemente dalle dimensioni, può e deve implementare.
Il primo principio è la verifica multicanale: se si riceve una richiesta urgente via email, la si verifica con una telefonata a un numero già noto — mai a quello indicato nell'email stessa. Il secondo è l'introduzione di un codice di sicurezza interno: una parola d'ordine o una procedura di conferma prestabilita per le richieste finanziarie superiori a una certa soglia. Il tentativo di impersonare il CEO di Ferrari è fallito esattamente per questo motivo: un dirigente ha posto una domanda personale alla quale solo il vero Vigna avrebbe potuto rispondere.
Il terzo principio riguarda la gestione dell'urgenza. L'urgenza è l'arma principale dell'ingegneria sociale: ogni volta che qualcuno chiede di "fare subito, senza aspettare", è il momento esatto in cui bisogna fermarsi e verificare. Il quarto principio è la creazione di una cultura della segnalazione: chi segnala un'email sospetta — anche se poi risulta legittima — deve essere ringraziato, non rimproverato. Nelle organizzazioni in cui la segnalazione è stigmatizzata, i dipendenti tendono a ignorare i segnali di allarme per evitare il giudizio dei colleghi.
Il quinto e forse più importante principio è la formazione continua e aggiornata. Non basta un corso annuale sulla cybersecurity: servono simulazioni mensili con scenari realistici e aggiornati, perché le tecniche d'attacco evolvono di settimana in settimana. L'indagine Experian 2026 rivela che quasi un quarto dei millennial intervistati è caduto vittima di un attacco di phishing nel corso dell'ultimo anno, a conferma che la vulnerabilità non è una questione generazionale ma formativa.
Il fattore umano nell'era delle macchine: consapevolezza come prima linea di difesa
In ultima analisi, la sfida posta dall'intersezione tra intelligenza artificiale e cybersecurity non è esclusivamente tecnologica. È, in senso profondo, una sfida culturale e formativa.
L'intelligenza artificiale ha reso gli attacchi informatici indistinguibili dalle comunicazioni reali per l'occhio — e l'orecchio — umano non addestrato. Le macchine sanno imitare la nostra voce, il nostro volto, il nostro stile di scrittura. Sanno costruire contesti plausibili e catene di conferme credibili. In questo scenario, la consapevolezza non è un complemento della sicurezza: ne è la precondizione.
Tuttavia, la consapevolezza da sola non basta se non si traduce in protocolli operativi, architetture tecnologiche adeguate e una governance chiara dell'uso dell'AI all'interno dell'organizzazione. La Shadow AI — l'utilizzo non autorizzato di strumenti di intelligenza artificiale da parte dei dipendenti, spesso inconsapevole delle implicazioni di sicurezza — è identificata da analisti e ricercatori come una delle vulnerabilità più critiche per il 2026.
Il punto di equilibrio sta nel riconoscere che la sicurezza informatica nell'era dell'AI è un problema sistemico che richiede una risposta sistemica: tecnologia, processi, persone e cultura devono evolvere insieme, al passo con la velocità delle minacce. Come ha sintetizzato Jim Steven di Experian, "stiamo entrando in un'era in cui gli attacchi informatici non mirano più soltanto a rubare dati, ma a manipolare la realtà stessa". Difendersi da questa manipolazione richiede molto più che buoni software: richiede buone menti, ben formate e continuamente aggiornate.
________________________________________
Fonti principali: Zscaler (2025), Cerbeyra (2025), Onorato Informatica (2025), Axcrypt (2026), Portnox (2025), Reality Defender (2025), Cyberpress (2025), Insurzine/Barracuda Networks (2025), Entrust Identity Fraud Report (2026), SentinelOne (2025), CyberReady (2025), Palo Alto Networks/HBR (2025), Experian Data Breach Forecast (2026), IBM Cybersecurity Trends (2026), Moody's Cyber Outlook (2026), Veeam Global Survey (2025), Resemble AI Q1 2025 Deepfake Incident Report, Deloitte Center for Financial Services, iProov (2025), Microsoft Security Blog (2026), World Economic Forum (2025), Keepnet Labs (2026), Dark Reading (2026), SecurityWeek (2026).