Salta al contenuto

Apple rimuove 3 app di Intelligenza Artificiale Generativa usate per creare nudi deepfake

È successo in seguito a un'indagine della famosa pubblicazione indipendente 404 Media.

Crediti immagine: James Yarema / Unsplash

Apple ha eliminato tre applicazioni di intelligenza artificiale generativa dal suo App Store, a seguito di un'inchiesta condotta da 404 Media. L'inchiesta ha messo in luce un uso preoccupante di queste app: la creazione di immagini nude non consensuali. Nonostante la loro pericolosità, i sistemi automatici di rivelazione di Apple non sono stati in grado di cogliere autonomamente la minaccia– come detto, è stato necessario l'intervento specifico di 404 Media che ha fornito link diretti alle app.

Le app eliminate erano state attivamente promosse su piattaforme sociali come Instagram, dove le loro pubblicità presentavano slogan allarmanti come "spoglia qualsiasi ragazza gratuitamente" e "elimina qualsiasi vestito." Queste campagne di marketing miravano chiaramente a un pubblico interessato alla creazione e distribuzione di immagini deepfake, un tipo di contenuto che manipola o fabbrica media visivi, spesso per scopi sfruttatori o dannosi.

Le implicazioni della tecnologia deepfake vanno ben oltre le singole app. Casi di profili famosi, come la creazione e distribuzione non autorizzata di immagini deepfake di celebrità come Taylor Swift o figure politiche come la rappresentante Alexandria Ocasio-Cortez, sono stati motivi di recente scandalo. In risposta a queste preoccupazioni, la rappresentante statunitense Ocasio-Cortez ha introdotto il Disrupt Explicit Forged Images and Non-Consensual Edits (DEFIANCE) Act alla Camera. Questa proposta legislativa mira a stabilire un "rimedio civile federale" per le vittime di deepfake, sebbene un disegno di legge complementare al Senato sia fermo senza ulteriori progressi.

La distribuzione di contenuti deepfake su piattaforme "anarchiche" come X (ex Twitter) e problemi con la politica di enforcement incoerente di Meta sui deepfake AI-generated evidenziano problemi sistemici nella governance dei contenuti digitali che richiedono un'immediata regolamentazione. Inoltre, risposte internazionali, come l'iniziativa recente del Ministero della Giustizia del Regno Unito di criminalizzare la creazione di deepfake esplicitamente sessuali, segnalano un crescente consenso globale sulla necessità di regolamentazioni più severe.

Commenti

Più recenti