Salta al contenuto

Israele sviluppa un'IA simile a ChatGPT basata sui dati di sorveglianza di massa dei palestinesi

Un database enorme di 100 miliardi di parole, iniziato prima dell'inizio della guerra.

In breve

Israele ha raccolto un enorme quantità di telefonate e messaggi provienenti dai territori occupati per addestrare un modello AI che è in grado di rispondere a domande legate alla conoscenza del materiale intercettato. Il modello è addestrato su circa 100 miliardi di parole.

Riassunto completo

  • L'agenzia di sorveglianza militare israeliana, Unit 8200, ha sviluppato un modello di intelligenza artificiale simile a ChatGPT, basato su un'enorme raccolta di dati di sorveglianza ottenuti da comunicazioni palestinesi intercettate.
  • Il modello è stato addestrato utilizzando telefonate e messaggi di testo, raccolti attraverso la sorveglianza nei territori occupati.
  • L'obiettivo dell'IA è di rispondere a domande sugli individui monitorati e fornire analisi dei dati di intelligence.
  • Lo sviluppo del modello è stato accelerato dopo l'inizio della guerra a Gaza nell'ottobre 2023 ed era ancora in fase di addestramento nella seconda metà del 2023.
  • Secondo fonti interne, la raccolta dei dati ha incluso "tutti i testi in arabo mai intercettati dallo Stato di Israele", con un totale di circa 100 miliardi di parole.
  • Il progetto ha sollevato preoccupazioni sui diritti umani, con esperti che avvertono che i modelli di intelligenza artificiale possono amplificare i pregiudizi esistenti e generare errori.
  • Organizzazioni come Human Rights Watch hanno criticato l'uso dell'IA nel prendere decisioni che possono avere conseguenze sulla vita dei palestinesi sotto occupazione.
  • Il sistema potrebbe aiutare a identificare attivisti per i diritti umani e monitorare l'attività civile palestinese, non solo individuare potenziali minacce.
  • In passato, altri sistemi IA dell'esercito israeliano come The Gospel e Lavender sono stati usati per identificare obiettivi nei bombardamenti su Gaza.
  • L'uso di questa tecnologia è stato messo a confronto con le pratiche di sorveglianza adottate da agenzie come la CIA e l’MI6, ma secondo esperti occidentali, Israele sta assumendo rischi maggiori rispetto ai suoi alleati.
  • Gli esperti avvertono che le "allucinazioni" dell'IA possono portare a errori gravi, come l'identificazione errata di obiettivi per attacchi militari.
  • Un'indagine dell'Associated Press ha suggerito che un errore dell'IA potrebbe aver contribuito a un attacco israeliano su Gaza nel novembre 2023, in cui sono state uccise quattro persone, tra cui tre adolescenti.
  • Il portavoce dell'IDF non ha fornito dettagli sui sistemi AI utilizzati, ma ha dichiarato che vengono adottate misure di precisione e controllo umano per ridurre gli errori.

Questo testo è un riassunto del seguente articolo (eng):

Revealed: Israeli military creating ChatGPT-like tool using vast collection of Palestinian surveillance data
The powerful new AI model is designed to analyze intercepted communications – but experts say such systems can exacerbate biases and are prone to making mistakes

Alternativa in italiano: non pervenuta

Commenti

Più recenti