L'azione di Israele nella striscia di Gaza avviata come risposta all’attacco di Hamas del 7 ottobre 2023 costituisce una importante prova sul campo dell’utilizzo dell’Intelligenza artificiale (Ia) quale strumento di guerra. In un momento in cui l’intero mondo tecnologico sta volgendo senza remore il proprio interesse verso una prospettiva militarista, certamente in grado di mettere in moto un nuovo ciclo di accumulazione nella emergente conflittualità geopolitica, l’utilizzo massiccio delle tecnologie di Ia nel territorio palestinese configura una sorta di beta testing di quel che potrà accadere nelle guerre del futuro.
Un test su scala reale, dove verificare lo sviluppo delle tecnologie e valutarne l’efficacia direttamente sul campo. Abilitati dalla IA, sono stati prodotti almeno 70mila morti per lesioni traumatiche, di cui il 60% di donne e bambini. Il territorio palestinese è ora un campo di macerie dove vive una popolazione strangolata dalla fame. L’azione di sorveglianza verso la popolazione palestinese è realtà da tempo presente nello Stato di Israele, a Gaza e nei territori occupati. In un quadro dove la popolazione sorvegliata è considerata tutta potenzialmente nemica, riprese automatizzate e massivi data scraping, rastrellamenti di dati dalla rete e dalla telefonia cellulare, costituiscono una base di dati perfetta per il Machine learning (Ml), tecnologia software di apprendimento automatico alla base delle applicazioni di Ia. Utilizzando le tecniche Ml un modello informatico analizza e filtra i dati, identifica correlazioni e produce “decisioni” senza essere stato programmato esplicitamente per ogni scenario. Questo avviene attraverso ripetuti passaggi dei dati nei nodi di una “rete neurale informatica”, in seguito ai quali vengono valutate le correlazioni statistiche che producono il risultato finale. Come è facilmente intuibile, la qualità dei dati in ingresso svolge un ruolo fondamentale, tale che è stata definita una differenza tra quelli supervisionati e filtrati da un operatore umano, detti etichettati, e i dati grezzi, non etichettati.
Non si sa molto sulle tecniche utilizzate a Gaza. È verosimile che sia stata utilizzata una modalità chiamata “apprendimento positivo non etichettato”, tecnica che utilizza le caratteristiche dei dati etichettati per cercare di identificare modelli nel più ampio insieme, contenenti dati non etichettati. In una sorta di rastrellamento informatico, partendo da dati
Questo articolo è riservato agli abbonati
Per continuare la lettura dell'articolo abbonati alla rivista
Se sei già abbonato effettua il login




