- Dal 1° agosto 2024 è entrato in vigore l'AI Act europeo che vieta i sistemi IA ritenuti a "rischio inaccettabile".
- Il Regolamento suddivide i rischi in quattro categorie: minimo, limitato, alto e inaccettabile
- Il rischio inaccettabile include applicazioni come social scoring e manipolazione emotiva.
Cos'è il social scoring?
Il social scoring è un sistema che assegna un punteggio alle persone in base ai loro comportamenti online e offline, utilizzando dati raccolti da fonti come social media, acquisti, pagamenti e interazioni pubbliche. In Cina, ad esempio, il governo ha sviluppato un sistema di credito sociale che premia o penalizza i cittadini a seconda del loro comportamento, influenzando l’accesso a prestiti, trasporti e persino posti di lavoro. In altre parti del mondo, aziende e banche usano forme di social scoring per valutare clienti e dipendenti.
- Le aziende che usano sistemi IA vietati saranno multate fino a 35 milioni di euro o il 7% del fatturato annuo, a seconda di quale importo sia maggiore.
- Entro il 2 febbraio le organizzazioni devono conformarsi, ma l'applicazione delle multe inizierà ad agosto.
- Oltre 100 aziende, tra cui Amazon e Google, hanno sottoscritto l'AI Act dell'UE per applicare anticipatamente i principi del Regolamento, mentre altri grandi nomi come Meta e Apple non l'hanno sottoscritto.
- Ci sono eccezioni ai divieti per la sicurezza pubblica e usi terapeutici, ma richiedono autorizzazioni specifiche e saranno pubblicate linee guida aggiuntive nel 2025.
- Il Regolamento sull'IA si intreccia con altre leggi europee come il GDPR e sarà fondamentale comprendere queste interazioni per la conformità normativa.
Questo testo è un riassunto del seguente articolo (eng):
Alternativa in italiano: