Il diritto internazionale nasce con una transizione dalla coercizione veicolata con la forza alla coercizione diplomatica, mediata da istituzioni sovranazionali e codici normativi condivisi. Componente cruciale di questa transizione è stata l’elaborazione di una disciplina minuziosa del diritto internazionale umanitario (IHL), che governa con precisione ogni aspetto dei processi decisionali e operativi delle attività belliche. L’obiettivo è definire i criteri per valutare la legittimità dei conflitti e l’ammissibilità delle prassi che ne seguono. In questo senso, il diritto internazionale e l’IHL in particolare non sono solo un insieme di regole e burocrazia, ma denotano l’impegno a evitare la guerra e a preservare un residuo di moralità e liceità quando questa diventa ineluttabile.
Il ritorno della gunboat diplomacy è un tentativo di invertire la transizione verso un ordine internazionale stabile e basato su regole condivise e a ignorare l’impegno a evitare la guerra o comunque a rispettare valori fondamentali quando la guerra è in corso. Ne sono un esempio l’invasione dell’Ucraina per annetterne una parte alla Russia, il conflitto a Gaza e le dichiarazioni sull’annessione della Groenlandia agli Stati Uniti. Le conseguenti posture muscolari e unilaterali degli Stati che ricorrono a questa forma di diplomazia sfidano apertamente gli istituti del diritto internazionale.
In questo scenario, l’uso dell’IA nella difesa può rivelarsi uno strumento tanto efficace quanto discreto per erodere il diritto internazionale dall’interno e ridurlo a un mero fantoccio. L’impiego di sistemi IA nelle operazioni di difesa – in assenza di una regolamentazione ade guata – introduce una zona grigia in cui gli Stati possono eluderne sistematicamente i principi senza incorrere in sanzioni formali. Considerato l’ingente impegno profuso nell’adozione dell’IA nella difesa, questa zona grigia risulta vantaggiosa tanto per gli Stati liberali quanto per quelli autoritari. Entrambi possono beneficiare dell’assenza di vincoli normativi chiari per sviluppa- re e usare sistemi IA nella difesa perseguendo i propri obiettivi strategici senza dover rendere conto alle istituzioni internazionali. Tale convergenza di interessi favorisce, paradossalmente, il disinteresse degli Stati liberali per i processi di governance dell’IA nella difesa, compromettendo la loro credibilità nel promuovere un ordine internazionale basato sullo Stato di diritto. Questa dinamica rischia di trasformare l’innovazione tecnologica da strumento di progresso in catalizzatore di regressione normativa, minando le fondamenta stesse del sistema internazionale costruito nel secondo dopoguerra. La convergenza tra il revival della gunboat diplomacy e il vuoto regolamentativo che circonda la trasformazione della difesa innescata dall’IA configura uno scenario preoccupante: è un’opportunità strategica per quegli attori che percepiscono il diritto internazionale co- me un ostacolo e non come una garanzia di stabilità sistemica. È una convergenza preoccupante anche per il futuro delle democrazie liberali, perché esiste una relazione di reciproca influenza tra il modo in cui i conflitti vengono condotti e le società che li combattono.
Come osservava Clausewitz, più che un’arte o una scienza, la guerra è un’attività sociale; come gran parte delle altre attività sociali, i conflitti rispecchiano i valori delle società e sfruttano i loro sviluppi tecnologici e scientifici. A loro volta, i principi che utilizziamo per regolare la condotta in guerra hanno un ruolo fondamentale nel plasmare le nostre società. Basti pensare alla progettazione, all’uso e alla regolamentazione delle armi di distruzione di massa: nel corso della Seconda guerra mondiale, queste armi sono state rese possibili da svolte nel campo della fisica nucleare. La violenza catastrofica che è stata scatenata sulle città di Hiroshima e Nagasaki però ha portato a un consenso globale, mai visto fino ad allora, che ha determinato nel dopoguerra l’avversione del mondo per l’uso di quelle armi.
La Guerra fredda e i trattati nucleari che vi hanno posto fine hanno definito le modalità in cui le tecnologie nucleari e le armi di distruzione di massa possono essere utilizzate, tracciando un confine tra conflitti e atrocità. In questo modo, i trattati e le regolamentazioni per l’uso delle armi di distruzione di massa hanno contribuito a orientare le società contemporanee verso il rifiuto della retorica bellicosa degli inizi del xx secolo, per tendere invece alla pace e alla stabilità.
Le cose non sono diverse oggi con le società digitali. Da un lato, l’uso dell’IA nella difesa ha un grande potenziale di migliorare il funzionamento delle organizzazioni della difesa, di rafforzarne le capacità e di rendere le operazioni militari più sicure, efficaci ed efficienti. Dall’altro, sappiamo che, se rimane non regolato, l’uso dell’IA nella difesa può avere implicazioni negative gravi in termini di stabilità, di diritti degli individui e dei gruppi, di violazioni dei principi della Teoria della cosiddetta “guerra giusta”. Si pensi, per esempio, al caso dell’intelligence open source nel conflitto russo-ucraino. L’uso diffuso degli smartphone fra i cittadini ha consentito al personale militare di sfruttare intelligence raccolta dalla popolazione civile e con- divisa sui social media per ottenere stime approssimate della posizione dei combattenti nemici. Questo ha sollevato preoccupazioni crescenti per l’estensione della sorveglianza militare della società civile e per il rischio di coinvolgere la popolazione civile nelle operazioni militari. Qui la domanda è se siamo disposti ad accettare che il trade-off tra efficienza della difesa e protezione dei civili sia a favore della prima.
Un quadro etico sull’uso dell’IA nella difesa deve essere fermo riguardo ai rischi etici e ai casi limite, ma allo stesso tempo deve essere capace di identificare il potenziale positivo dell’IA per la difesa e offrire linee guida per sfruttarlo in conformità con i valori che fondano le nostre società. Questo equilibrio è delicato e particolarmente complesso. Esige un sostanziale in- vestimento di tempo e risorse, e richiede uno sforzo congiunto da parte di studiosi, tech providers, decisori politici e operatori del settore della difesa. Gli studiosi, in particolare gli eticisti, svolgono un ruolo cruciale nell’individuare valori, principi, teorie del valore e persino linee guida per implementare i loro quadri di riferimento.
Considerato lo scenario geopolitico attuale e il ritmo di adozione dell’IA nella difesa, questo lavoro è estremamente urgente. Tuttavia, la maggior parte della responsabilità e del carico ricade sugli attori statali e sull’apparato della difesa: devono affrontare le sfide etiche dell’IA e adottare quadri etici adeguati, robusti e sviluppati in modo indipendente per affrontarle in modo autentico. Ciò implica accettare che la governance etica dell’IA nella difesa debba essere tanto completa e profonda quanto i cambiamenti che questa tecnologia comporta. Alla fine, questa è l’unica via per garantire che l’IA funzioni come una tecnologia per la stabilità e, possibilmente, per la pace, per evitare che sia un mero strumento di guerra e che finisca per facilitare il ritorno di posture anacronistiche e antitetiche ai valori che, a caro prezzo, abbiamo eletto a fondamento delle democrazie liberali dopo la fine della Seconda guerra mondiale.
*-*
Doppio appuntamento
Mariarosa Taddeo interviene al Festival della mente di Sarzana il 30 agosto alle ore 9.45 al Teatro degli Impavidi. Il titolo della sua conferenza è “Guerre digitali: la difesa dell’invisibile”: Per millenni la guerra è stata concepita come un binomio di coercizione e forza. Nelle nuove guerre cyber la coercizione opera senza la forza. Niente esplosioni, ma disruption di sistemi, reti, processi. L’obiettivo non sono edifici o territori, ma flussi di dati e servizi online. Elementi invisi bili, eppure cruciali per le nostre società. Quale quadro etico può orientarci quando il campo di battaglia è invisibile? Giovedì 18 settembre Taddeo ne parlerà a Pordenonelegge, alle 11 nell’Arena Europa.
L’autrice:
Mariarosaria Taddeo è Professor of Digital Ethics and Defence Technologies presso l’Oxford Internet Institute, University of Oxford. È anche Defense Science and Technology Fellow presso l’Alan Turing Institute di Londra. È stata insignita dal Presidente della Repubblica Sergio Mattarella del titolo di Grande Ufficiale al Merito della Repubblica Italiana. Il suo lavoro si concentra principalmente sull’analisi etica dell’IA, dell’innovazione digitale. È autrice di Codice di guerra. Etica dell’intelligenza artificiale nella difesa (Raffaello Cortina, in uscita il 26 agosto).
Festival della mente 2025:






