Salta al contenuto

Alcuni modelli IA stanno segretamente addestrandosi su immagini reali di bambini

Photo by Google DeepMind / Unsplash

Questa pagina contiene un riassunto del seguente articolo: wired.com (eng)

64%
del testo originale
5
minuti risparmiati

Riassunto

Un recente rapporto di Human Rights Watch denuncia che oltre 170 immagini e dettagli personali di bambini brasiliani sono stati raccolti da un dataset open-source senza il loro consenso, per addestrare l'AI.

Le immagini risalgono vanno dagli anni '90 al 2023, ben prima che gli utenti immaginassero un tale utilizzo. Questi dati sono stati trovati nel dataset LAION-5B, utilizzato per addestrare vari modelli AI tra cui lo Stable Diffusion di Stability AI.

Hye Jung Han, ricercatrice di Human Rights Watch, avverte che la privacy dei bambini è violata quando le loro foto vengono raccolte e usate per creare immagini realistiche. LAION ha già rimosso il contenuto illegale e collabora con diverse organizzazioni per risolvere il problema.

Tuttavia, la rimozione dal dataset non elimina le immagini dal web. Sono in corso discussioni legislative in Brasile e negli USA per regolamentare i deepfake. Hye afferma che proteggere i bambini da tali tecnologie dovrebbe essere compito dei governi e non dei genitori.

Attendibilità fonte

Wired è valutato come una fonte con inclinazione verso sinistra moderata (Left-Center Bias). La copertura di Wired si concentra su notizie tecnologiche, scientifiche e culturali, spesso utilizzando un linguaggio emotivo. Wired utilizza fonti credibili come Associated Press e New York Times e pubblica articoli pro-scienza. Non ha avuto fallimenti significativi nel fact-checking negli ultimi cinque anni​.

L'attendibilità della fonte è stata analizzata tramite Media Bias/Fact Check.

I testi presenti all'interno di questa pagina sono stati inizialmente generati tramite intelligenza artificiale e poi revisionati e corretti a mano.

Commenti

Più recenti