Israele, inchiesta shock: intelligenza artificiale dietro il massacro di Gaza

www.kulturjam.it è un quotidiano online indipendente completamente autofinanziato. Il nostro lavoro di informazione viene costantemente boicottato dagli algoritmi dei social. Per seguirci senza censure, oltre alla ricerca diretta sul nostro sito, iscrivetevi al nostro canale Telegram o alla newsletter settimanale.

L’inchiesta dei siti di informazione israeliani +972 e Local Call: 37mila palestinesi ‘marcati’ come bersagli dalla IA e colpiti nelle loro case. L’algoritmo del sistema “Lavender” che Israele utilizza per il massacro di Gaza “autorizza” l’uccisione di venti civili per ogni ipotetico bersaglio. Idf esegue.

L’intelligenza artificiale dietro il massacro di Gaza?

Due media israeliani specializzati, +972 Magazine e Local Call hanno pubblicato un dettagliatissimo rapporto sull’utilizzo del sistema di Intelligenza ArtificialeLavender” da parte dell’IDF per individuare bersagli umani a Gaza, un progetto che mette assieme microchip di ultima generazione, bombe a guida laser e missili sofisticati con una missione di killeraggio così sintetizzata: “L’esercito di Tel Aviv ha contrassegnato decine di migliaia di abitanti di Gaza come sospettati di omicidio. Lo ha fatto utilizzando un sistema di targeting basato sull’IA, con scarsa supervisione umana”

Il giornalista Yuval Abraham, che presenta il report, aggiunge considerazioni terrificanti: “Secondo sei ufficiali dell’Intelligence, che hanno tutti prestato servizio a Gaza e sono stati coinvolti in prima persona nell’uso dell’intelligenza artificiale, per generare obiettivi da assassinare”. E ancora: “Lavanda ha avuto un ruolo centrale nel bombardamento senza precedenti dei palestinesi. Soprattutto durante le prime fasi della guerra. Si trattavano i risultati della macchina come se fossero le decisioni di una mente umana»”.

Una strage cinica e cervellotica

Sempre secondo l’inchiesta presentata da Abraham, il programma è stato caricato con criteri statistici molto approssimativi, con esiti catastrofici: “hanno individuato fino a 37 mila palestinesi come sospetti militanti e le loro case come possibili bersagli di attacchi aerei”. Gli esponenti importanti di Hamas erano qualche decina. Il resto era costituito da ‘manovalanza’ o, addirittura, presunti ‘fiancheggiatori‘. Un etichetta così vaga che però è equivalsa a una sentenza di morte. I nomi inseriti nella lista per “sospetto terrorismo”, sono spesso accompagnati da accuse al limite dell’inconsistenza.

Si muore a migliaia, c’è scritto nel rapporto, perché la quasi totalità dei palestinesi segnalati nella lista della AI non costituisce un vero pericolo e, per di più, l’algoritmo del sistema autorizza l’uccisione di venti civili per ogni ipotetico bersaglio, come fosse una quota accettabile. “Inoltre – conclude Abraham – l’esercito israeliano ha attaccato sistematicamente le persone prese di mira, mentre si trovavano nelle loro case. Di solito, di notte, quando erano con le loro famiglie, piuttosto che nel corso di un’attività militare. Ciò era dovuto al fatto che era più facile localizzare le persone nelle loro case. Ulteriori sistemi automatizzati, incluso uno chiamato ‘Dov’è papà?’, venivano usati per rintracciare i bersagli quando rientravano in famiglia”.

Davanti a quest’orrore John Kirby, portavoce del Consiglio per la Sicurezza nazionale Usa,  ha annunciato – con la solita ipocrisia – un’indagine Usa, sul possibile utilizzo di “sistemi di intelligenza artificiale da parte di Israele, durante i suoi bombardamenti”.

Sostieni Kulturjam

Kulturjam.it è un quotidiano indipendente senza finanziamenti, completamente gratuito.

I nostri articoli sono gratuiti e lo saranno sempre. Nessun abbonamento.
Se vuoi sostenerci e aiutarci a crescere, nessuna donazione, ma puoi acquistare i nostri gadget.

Ti potrebbe anche interessare

Seguici sui Social

spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img

Ultimi articoli