Fonte Sipri
Vladislav Chernavskikh e Jules Palayer Giugno 2025 Stoccolma SIPRI
https://doi.org/10.55163/FZIW8544

La crescente integrazione dell’intelligenza artificiale (IA) nei sistemi militari ha il potenziale di influenzare l’escalation nucleare anche quando tale integrazione avviene al di fuori dei sistemi d’arma nucleari. Le applicazioni non nucleari dell’IA militare possono comprimere i tempi decisionali, aumentando potenzialmente i rischi di errori di calcolo durante una crisi. Le raccomandazioni opache di un sistema di supporto decisionale basato sull’IA possono indurre un decisore ad agire, mentre l’autonomia in un sistema con potenziale di controforza può minare la stabilità strategica minacciando l’integrità delle capacità di secondo attacco. Tali usi dell’IA sollevano la questione fondamentale se introducano nuovi rischi, aggravino quelli esistenti o alterino radicalmente la natura dell’escalation nucleare. I fattori contestuali e socio-tecnici che potrebbero influenzare i percorsi di escalation nucleare possono aiutare a rispondere a questa domanda. Comprendere queste dinamiche è essenziale per utilizzare le attuali misure di riduzione del rischio o per sviluppare nuove strategie per affrontare i rischi di escalation nucleare posti dall’IA militare.Sommario
I. Il rischio di escalation nucleare nell’era dell’intelligenza artificiale militare
II. L’impatto dell’intelligenza artificiale militare sul rischio di escalation nucleare
III. Conclusioni
INFORMAZIONI SUGLI AUTORI/REDATTORI

Vladislav Chernavskikh è assistente di ricerca presso il programma SIPRI sulle armi di distruzione di massa.

Jules Palayer è ricercatore presso il programma SIPRI sulla governance dell’intelligenza artificiale.
Per visitare la fonte sul sito SIPRI