Salta al contenuto

Meta sospende i piani di addestramento dell'IA in Europa, cedendo alle pressioni normative

Questa pagina contiene un riassunto del seguente articolo:

Meta pauses plans to train AI using European users’ data, bowing to regulatory pressure | TechCrunch
Meta has confirmed that it will pause plans to start training its AI systems using data from its users in the European Union and U.K. The move follows
65%
del testo originale
5
minuti risparmiati

Riassunto

Meta ha annunciato che sospenderà i piani di addestramento dei suoi sistemi di intelligenza artificiale usando i dati degli utenti nell'UE e nel Regno Unito. La decisione arriva dopo le pressioni della Commissione per la Protezione dei Dati irlandese (DPC) e dell'Information Commissioner’s Office (ICO) del Regno Unito.

La DPC ha apprezzato la decisione, indicando che sarà oggetto di ulteriori confronti con Meta. In altre regioni Meta continua a usare contenuti generati dagli utenti per addestrare la sua IA.

Cosa è successo prima

Meta aveva annunciato modifiche alla sua politica sulla privacy, con l'intento di usare contenuti pubblici su Facebook e Instagram per l'addestramento dell'IA. Queste modifiche sarebbero dovute entrare in vigore il 26 giugno, ma l'organizzazione NOYB ha presentato undici reclami contro Meta, sostenendo che violasse il GDPR, in particolare riguardo al consenso degli utenti per la gestione dei dati personali.

Meta ha tentato di giustificare le sue azioni basandosi su "l'interesse legittimo", ma le notifiche erano facilmente trascurabili dagli utenti. Invece di poter fare "opt-out" con facilità, gli utenti dovevano completare un modulo di obiezione dettagliato e non facilmente raggiungibile.

Meta, delusa dalla richiesta della DPC, ha difeso la sua politica, sostenendo che rispetta le leggi europee ma lamentando un passo indietro per l'innovazione in Europa.

La corsa all'IA vede molte aziende, come Google e OpenAI, cercare di utilizzare dati pubblici nel rispetto della legge, ma spesso con processi difficili di opt-out da parte degli utenti.

Il futuro di queste pratiche dipenderà da ulteriori consultazioni e aggiornamenti delle politiche di consenso.

Attendibilità fonte

TechCrunch è valutato da Media Bias/Fact Check come "Left-Center Biased", indicando una leggera inclinazione liberale nei suoi contenuti. Ha una valutazione alta per quanto riguarda l'accuratezza dei fatti grazie a una corretta citazione delle fonti e un record pulito nei fact-checking, il che ne conferma l'affidabilità.

L'attendibilità della fonte è stata analizzata tramite Media Bias/Fact Check.

I testi presenti all'interno di questa pagina sono stati inizialmente generati tramite intelligenza artificiale e poi revisionati e corretti a mano.

Commenti

Più recenti