Foreign Affairs 07-08-2025 The End of Mutual Assured Destruction? What AI will mean for nuclear deterrence
AI, hoewel een revolutionaire technologie, zal waarschijnlijk niet de basis van nucleaire afschrikking vernietigen, althans niet op de korte termijn. De fundamentele principes van Mutual Assured Destruction (MAD), waarbij elke nucleaire aanval leidt tot wederzijdse vernietiging, blijven overeind.
Het artikel beschrijft drie manieren waarop AI nucleaire afschrikking zou kunnen verzwakken:
Eerste-aanvalscapaciteit: AI kan een land helpen om de nucleaire arsenalen van een tegenstander op te sporen en te vernietigen in een zogenaamde ‘splendid first strike’. Dit zou de mogelijkheid van een vergeldingsaanval uitschakelen.
Uitschakelen van commandocentrales: AI-technologieën kunnen cyberaanvallen versterken om de nucleaire commandostructuren van een land te verstoren, waardoor een tegenaanval onmogelijk wordt.
Verbeterde raketverdediging: AI kan de effectiviteit van raketverdedigingssystemen drastisch verhogen, waardoor het geloof in een succesvolle vergeldingsaanval afneemt.
Ondanks de genoemde risico’s, betoogt het artikel dat AI-gestuurde nucleaire dominantie onwaarschijnlijk is:
Fysieke beperkingen: Zelfs geavanceerde AI-systemen hebben moeite met het detecteren van mobiele nucleaire lanceerinstallaties of het herkennen van onderzeeërs in de enorme, 'rumoerige' oceanen. Het is vrijwel onmogelijk om honderdduizenden doelen gelijktijdig en zonder fouten uit te schakelen.
Tegenmaatregelen: Landen zullen niet passief toekijken. Zij zullen AI gebruiken voor hun eigen defensie en tevens fysieke tegenmaatregelen ontwikkelen. Voorbeelden hiervan zijn antisatellietwapens, het verbergen van lanceerinstallaties met camouflage en het inzetten van misleidende signalen om AI-systemen te verwarren.
Redundantie en veiligheid: Landen hebben hun commandocentrales al robuust en overtollig gemaakt om aanvallen te weerstaan. Sommige bunkers zijn bijvoorbeeld zo diep begraven dat ze zelfs een directe nucleaire inslag kunnen overleven.
Hoewel de nucleaire afschrikking overeind blijft, creëert AI wel nieuwe risico’s:
Wantrouwen en escalatie: De perceptie dat een tegenstander een 'splendid first strike' overweegt, kan leiden tot een gevaarlijke wapenwedloop. Landen kunnen de besluitvorming over nucleaire lanceringen versnellen of de autoriteit delegeren, wat de kans op ongelukken en onbedoelde escalatie vergroot.
Onvoorziene gevaren: De snelle en autonome ontwikkeling van AI (een 'takeoff' in capaciteiten) kan op onverwachte manieren de nucleaire stabiliteit bedreigen, wat constante monitoring door experts vereist.
Het artikel sluit af met aanbevelingen om de nucleaire stabiliteit in het AI-tijdperk te handhaven. Dit omvat onder meer:
Regelmatige communicatie tussen AI- en nucleaire experts.
Het screenen van nucleaire systemen op kwetsbaarheden die door AI geëxploiteerd kunnen worden.
Het verminderen van risico's op escalatie door duidelijke communicatiekanalen tussen nucleaire grootmachten te onderhouden.
Het stellen van ethische en juridische grenzen aan het gebruik van AI in de nucleaire sfeer.