Ad Al-Qassabi, il quartiere di Jabalia, la città situata a quattro chilometri a nord di Gaza City, nel nord della Striscia, sono le 23.30 di sera. Si sente il rumore di un’esplosione, un abitante del luogo sostiene che sia il più forte che abbia mai sentito, attorno a lui l’intera area si ricopre di polvere bianca.

Dopo oltre un anno di bombardamenti a Gaza, le persone hanno imparato a distinguere tra i differenti suoni di un’esplosione e riescono a capire se è stata provocata dall’artiglieria, dagli aerei o da qualcos’altro. In questo caso, il rumore è causato dalla simultanea distruzione di sette case, provocata dallo scoppio di un robot equipaggiato con tonnellate di esplosivo.

Secondo un report pubblicato da Euro-Med Monitor – organizzazione umanitaria con sede a Ginevra, Gaza e Beirut – nelle stesse ore altri tre robot sono saltati in aria nei quartieri di Taiwan e Zahraa, vicino al campo profughi di Jabalia, provocando 50 feriti.

«L’Idf ha impiegato a Gaza sia robot telecomandati che unità “autonome”, guidate dall’intelligenza artificiale, inclusi i robot cane che possono essere equipaggiati con droni», spiega Heidy Khlaaf, chief AI scientist all’istituto di ricerca AI Now di New York.

«Tel Aviv ha dichiarato che lo scopo primario di questi robot è la sorveglianza, tuttavia sono dotati di esplosivo e possono distruggere più edifici contemporaneamente, permettendo una distruzione rapida e automatica dell’area, senza mettere a rischio le vite dei soldati dell’esercito israeliano, ma causando numerose vittime civili palestinesi».

Robot illegali

Secondo Euro-Med Monitor, i robot utilizzati dall’Idf nella Striscia di Gaza sono illegali e il loro utilizzo è di per sé un crimine contro l’umanità, ma stabilire se le armi e i sistemi militari dotati di Ia rispettano la legge è complesso, oltre a essere una sfida per il diritto internazionale che si trova a legiferare su un campo in costante aggiornamento.

«Secondo lo Statuto di Roma, ogni tipo di attacco deve rispettare i requisiti di distinzione, cioè le armi e i sistemi di targeting devono essere in grado di distinguere tra obiettivi militari e obiettivi civili», dice Christopher Elliott, ricercatore di crimini di guerra al King’s College London. «Se un’arma o un sistema militare non è in grado di distinguere tra combattenti e non combattenti è sostanzialmente illegale».

Secondo il diritto internazionale oggi è consentito utilizzare l’intelligenza artificiale in guerra per aggregare dati e facilitare l’individuazione di un obiettivo da colpire, successivamente spetta a un essere umano stabilire se il bersaglio individuato dall’Ia sia legittimo o meno. È necessario, infatti, che sia una persona in carne e ossa a prendersi la responsabilità dell’uccisione di un individuo o della distruzione di un edificio. La decisione di colpire un bersaglio non può essere attribuita a una macchina.

«Il caso israeliano è particolarmente controverso», continua Elliott, «perché, secondo diverse fonti, l’Idf lascia che siano i sistemi di Ia a prendere la decisione di colpire un obiettivo, mentre gli esseri umani fungono essenzialmente da semplice timbro di approvazione. Se i militari approvano automaticamente il bersaglio suggerito dalla macchina, vuol dire che non stanno rispettando i loro obblighi di distinzione e precauzione previsti dal diritto internazionale».

Secondo l’articolo 36 del Primo protocollo aggiuntivo alla Convenzione di Ginevra del 1977, gli Stati devono testare nuove armi, mezzi o metodi di guerra prima dell’impiego in battaglia. Tuttavia, nel caso dei sistemi militari basati sull’Ia, è difficile verificare con esattezza il loro comportamento prima che vengano immessi su un campo reale. Non sappiamo come funziona la rete neurale di cui è fatta l’intelligenza artificiale, di conseguenza oggi non possiamo stabilire con certezza quale sarà l’output.

Laboratorio Gaza

«Gaza è il campo di prova: le start-up israeliane della Difesa stanno rapidamente testando nuove armi Ia a Gaza per marchiarle come “testate sul campo di battaglia” e venderle ai propri alleati», spiega Khlaaf.

«Da decenni l’Idf utilizza la Palestina come laboratorio per nuove armi e tecnologie di sorveglianza. Le conseguenze di tutto questo si avvertiranno anche altrove, perché questi sistemi basati sull’Ia sono sviluppati e testati per massimizzare le vittime civili in modo indiscriminato.

Per esempio, l’Idf è disposta ad accettare fino a 300 civili colpiti per eliminare un singolo potenziale bersaglio non confermato, questo intento viene automatizzato e integrato nell’Ia. Ovunque questi sistemi verranno dispiegati in futuro, osserveremo lo stesso risultato».

© Riproduzione riservata