Qualche giorno fa in un editoriale apparso su un autorevole quotidiano di lingua inglese si osservava come l’intelligenza artificiale stia rapidamente trasformando la natura stessa dei conflitti armati. Non si tratta soltanto di nuove armi o di sistemi tecnologici più sofisticati. Il cambiamento è più profondo: riguarda il modo in cui vengono raccolte le informazioni, analizzati i dati e prese le decisioni che precedono l’uso della forza. L’osservazione coglie un punto decisivo. La guerra contemporanea non è più soltanto una questione di potenza militare, ma sempre più di capacità di elaborare enormi quantità di dati e trasformarle rapidamente in decisioni operative. In questo senso l’intelligenza artificiale sta progressivamente entrando nel cuore della strategia militare. Il conflitto tra Stati Uniti, Israele e Iran esploso alla fine di febbraio 2026 sembra rappresentare uno dei primi casi in cui questa trasformazione emerge con particolare evidenza. Quando nella notte i missili attraversano il cielo del Medio Oriente lasciando scie di luce, la scena appare ancora simile a quella delle guerre del Novecento. Ma dietro quella traiettoria luminosa sempre più spesso non c’è soltanto la mano dell’uomo. C’è anche la presenza invisibile di un algoritmo. La guerra è sempre stata una questione di velocità. Chi riesce a vedere prima il campo di battaglia, interpretare prima le informazioni e decidere prima dell’avversario possiede un vantaggio decisivo. L’intelligenza artificiale amplifica questa logica fino a portarla a una dimensione completamente nuova. I moderni sistemi militari integrano immagini satellitari, video provenienti da droni, intercettazioni elettroniche e informazioni raccolte nel cyberspazio. Gli algoritmi analizzano questi flussi di dati, individuano schemi ricorrenti e suggeriscono possibili obiettivi. In pochi minuti possono elaborare ciò che in passato avrebbe richiesto giorni di lavoro umano. Questa compressione dei tempi riguarda quella che gli strateghi chiamano kill chain, la sequenza operativa che collega l’individuazione di un bersaglio alla decisione di colpirlo. Se questa catena si accorcia, la guerra diventa inevitabilmente più rapida, più intensa e potenzialmente più distruttiva. Uno dei programmi più discussi nel dibattito strategico è Project Maven, sviluppato dal Dipartimento della Difesa statunitense per applicare tecniche di machine learning all’analisi delle immagini militari. Il sistema utilizza algoritmi per riconoscere veicoli, infrastrutture o movimenti sospetti all’interno dei flussi video raccolti da droni e satelliti. In teoria la decisione finale rimane sempre umana. Gli operatori ricevono suggerimenti, liste di possibili obiettivi e valutazioni di priorità, ma l’autorizzazione all’attacco spetta ancora al comando militare. Nella pratica, tuttavia, la situazione è più complessa. Quando un algoritmo elabora centinaia di possibili bersagli e suggerisce quali colpire per primi, la macchina non si limita a fornire informazioni: orienta il processo decisionale. La guerra diventa così un sistema ibrido, in cui l’intelligenza artificiale non sostituisce il decisore umano, ma ne condiziona sempre più profondamente le scelte. Questa trasformazione non nasce improvvisamente nel conflitto con l’Iran. Negli ultimi anni diversi teatri di guerra hanno funzionato come veri e propri laboratori tecnologici. Nella guerra in Ucraina l’intelligenza artificiale è stata utilizzata per analizzare immagini satellitari, coordinare droni da ricognizione e interpretare enormi quantità di dati militari. Nella guerra di Gaza Israele ha sperimentato sistemi algoritmici capaci di generare liste di obiettivi militari sulla base di grandi database di intelligence. Il conflitto attuale sembra rappresentare un passo ulteriore. L’intelligenza artificiale non viene impiegata soltanto per analizzare informazioni, ma viene integrata in un sistema più ampio che combina operazioni militari convenzionali, cyberwarfare e guerra informativa. Attacchi informatici contro infrastrutture digitali, operazioni di propaganda online e bombardamenti tradizionali diventano parti di una stessa architettura strategica. Questo cambiamento modifica anche la geografia del potere militare. Nel Novecento la superiorità strategica era legata soprattutto alla potenza industriale o alla capacità nucleare. Nel XXI secolo dipende sempre più da tre fattori: dati, capacità di calcolo e algoritmi. Di conseguenza accanto agli apparati militari degli Stati assumono un ruolo crescente le grandi aziende tecnologiche che sviluppano sistemi di intelligenza artificiale. I loro modelli vengono integrati nelle piattaforme militari per analizzare informazioni, simulare scenari e supportare le decisioni operative. Questa nuova interdipendenza tra industria tecnologica e apparato militare sta aprendo anche un dibattito politico ed etico. Alcune aziende hanno posto limiti espliciti all’uso militare dei loro sistemi, soprattutto per evitare applicazioni legate a sorveglianza di massa o a sistemi d’arma completamente autonomi. Il tema più controverso riguarda infatti le cosiddette armi autonome letali, sistemi capaci di individuare e colpire un bersaglio senza intervento umano diretto. Il diritto internazionale umanitario richiede che ogni operazione militare sia in grado di distinguere tra obiettivi militari e civili. Tuttavia gli attuali sistemi di intelligenza artificiale non sono ancora in grado di garantire questa distinzione con sufficiente affidabilità. Per questo motivo da anni la comunità internazionale discute la possibilità di regolamentare o limitare l’uso di queste tecnologie. Ma il progresso tecnologico procede molto più rapidamente delle trattative diplomatiche. L’intelligenza artificiale viene spesso presentata come uno strumento che potrebbe rendere la guerra più precisa e quindi meno distruttiva. Alcuni sostengono che sistemi più sofisticati potrebbero ridurre gli errori e limitare le vittime civili. Molti analisti, però, avanzano una preoccupazione opposta. Se gli algoritmi permettono di individuare e colpire obiettivi sempre più rapidamente, il rischio è che la guerra diventi più veloce e quindi più difficile da controllare politicamente. La velocità algoritmica comprime infatti il tempo della decisione. Quando le operazioni militari si sviluppano in pochi minuti, lo spazio per la riflessione politica tende inevitabilmente a ridursi. Il conflitto tra Stati Uniti, Israele e Iran potrebbe quindi essere ricordato come uno dei primi momenti in cui la guerra algoritmica emerge con chiarezza sulla scena internazionale. Non siamo ancora di fronte a un conflitto combattuto interamente dalle macchine. Ma siamo entrati in un’epoca in cui la decisione militare è sempre più mediata dagli algoritmi. Ed è proprio qui che si apre la questione più profonda. Non riguarda soltanto la potenza delle nuove tecnologie, ma il rapporto tra tecnologia, politica e responsabilità. Perché se la guerra diventa una competizione tra sistemi di intelligenza artificiale sempre più rapidi e sofisticati, il problema non sarà soltanto chi possiede l’arma più potente. La vera domanda sarà un’altra: chi sarà veramente responsabile della decisione di uccidere, l’uomo o la macchina? Roberto Rapaccini


