Salta al contenuto

Nuove linee guida EU sull'uso dell'AI per polizia e altri

Non si può monitorare le emozioni dei dipendenti e nemmeno avere il riconoscimento facciale AI sulle telecamere di sicurezza.

  • La Commissione Europea ha annunciato linee guida che vietano l'uso dell'intelligenza artificiale per monitorare le emozioni dei dipendenti e per spingere gli utenti a spendere denaro.
  • Il Regolamento sull'Intelligenza Artificiale dell'UE, vincolante dal 2023, sarà pienamente applicabile dal 2 agosto 2026, con divieti specifici già in vigore da febbraio 2024.
  • Pratiche vietate includono i dark pattern che hanno l'obiettivo di manipolare gli utenti verso impegni finanziari e applicazioni IA che sfruttano utenti in base all'età, disabilità o situazione socio-economica.
  • È vietato il social scoring basato sull'intelligenza artificiale che utilizza dati personali non correlati, come origine e razza, da parte di agenzie di assistenza sociale e altri enti pubblici e privati, mentre alla polizia non è consentito prevedere il comportamento criminale di un individuo basandosi esclusivamente sui suoi dati biometrici, se questi non sono stati verificati.
  • I datori di lavoro non possono usare IA per monitorare le emozioni dei dipendenti, e sono vietate anche telecamere di sicurezza mobili con riconoscimento facciale basato su IA, salvo eccezioni limitate.
  • Gli stati membri dell'UE devono istituire un'autorità di sorveglianza del mercato per far rispettare le regole sull'IA entro il 2 agosto e le violazioni possono portare a multe dal 1,5% al 7% del fatturato globale delle aziende.

Questo testo è un riassunto del seguente articolo (eng): Reuters

Alternativa in italiano:

Intelligenza artificiale: è in vigore il regolamento Ue, ecco le applicazioni vietate - ItaliaOggi.it
Al via l’AI Act dell’Ue. Queste le novità che sono diventate operative il 2 febbraio

Commenti

Più recenti