In breve
Israele ha raccolto un enorme quantità di telefonate e messaggi provienenti dai territori occupati per addestrare un modello AI che è in grado di rispondere a domande legate alla conoscenza del materiale intercettato. Il modello è addestrato su circa 100 miliardi di parole.
Riassunto completo
- L'agenzia di sorveglianza militare israeliana, Unit 8200, ha sviluppato un modello di intelligenza artificiale simile a ChatGPT, basato su un'enorme raccolta di dati di sorveglianza ottenuti da comunicazioni palestinesi intercettate.
- Il modello è stato addestrato utilizzando telefonate e messaggi di testo, raccolti attraverso la sorveglianza nei territori occupati.
- L'obiettivo dell'IA è di rispondere a domande sugli individui monitorati e fornire analisi dei dati di intelligence.
- Lo sviluppo del modello è stato accelerato dopo l'inizio della guerra a Gaza nell'ottobre 2023 ed era ancora in fase di addestramento nella seconda metà del 2023.
- Secondo fonti interne, la raccolta dei dati ha incluso "tutti i testi in arabo mai intercettati dallo Stato di Israele", con un totale di circa 100 miliardi di parole.
- Il progetto ha sollevato preoccupazioni sui diritti umani, con esperti che avvertono che i modelli di intelligenza artificiale possono amplificare i pregiudizi esistenti e generare errori.
- Organizzazioni come Human Rights Watch hanno criticato l'uso dell'IA nel prendere decisioni che possono avere conseguenze sulla vita dei palestinesi sotto occupazione.
- Il sistema potrebbe aiutare a identificare attivisti per i diritti umani e monitorare l'attività civile palestinese, non solo individuare potenziali minacce.
- In passato, altri sistemi IA dell'esercito israeliano come The Gospel e Lavender sono stati usati per identificare obiettivi nei bombardamenti su Gaza.
- L'uso di questa tecnologia è stato messo a confronto con le pratiche di sorveglianza adottate da agenzie come la CIA e l’MI6, ma secondo esperti occidentali, Israele sta assumendo rischi maggiori rispetto ai suoi alleati.
- Gli esperti avvertono che le "allucinazioni" dell'IA possono portare a errori gravi, come l'identificazione errata di obiettivi per attacchi militari.
- Un'indagine dell'Associated Press ha suggerito che un errore dell'IA potrebbe aver contribuito a un attacco israeliano su Gaza nel novembre 2023, in cui sono state uccise quattro persone, tra cui tre adolescenti.
- Il portavoce dell'IDF non ha fornito dettagli sui sistemi AI utilizzati, ma ha dichiarato che vengono adottate misure di precisione e controllo umano per ridurre gli errori.
Questo testo è un riassunto del seguente articolo (eng):
Revealed: Israeli military creating ChatGPT-like tool using vast collection of Palestinian surveillance data
The powerful new AI model is designed to analyze intercepted communications – but experts say such systems can exacerbate biases and are prone to making mistakes

Alternativa in italiano: non pervenuta