Meta ha annunciato un aggiornamento delle sue politiche relative ai contenuti, focalizzandosi specificatamente sui media generati dall'IA e quelli manipolati. A partire dal prossimo mese, l'azienda prevede di applicare un badge "Creato con IA" ai deepfake e di fornire ulteriore contesto per altri contenuti manipolati che presentano un rischio significativo di ingannare il pubblico. Questo cambiamento di politica mira a etichettare un'ampia gamma di contenuti potenzialmente fuorvianti, particolarmente rilevante in un anno contrassegnato da numerose elezioni in tutto il mondo.
Meta ora etichetterà i contenuti che hanno già "indicatori standard di immagini IA del settore" memorizzati nei meta dati oppure se chi carica il contenuto dichiara che è stato generato dall'IA. L'azienda sottolinea una strategia di trasparenza e contesto rispetto alla rimozione dei media manipolati, citando preoccupazioni per la libertà di espressione. Questo approccio significa che più contenuti generati dall'IA rimarranno su piattaforme come Facebook e Instagram, ma saranno accompagnati da etichette informative anziché essere rimossi.
Il cambiamento di politica è anche una risposta alle pressioni legali, come il Digital Services Act (DSA) dell'Unione Europea, che richiede un equilibrio tra la rimozione di contenuti illegali e la salvaguardia della libertà di parola. L'aggiornamento è in parte influenzato dalle critiche del Consiglio di Sorveglianza di Meta, che ha definito la precedente politica dell'azienda sui media manipolati "incoerente" e troppo limitata.
Questa politica più ampia coprirà un maggior numero di contenuti, con l'obiettivo di informare il pubblico sulla natura e il contesto dei media manipolati. Meta ha collaborato con quasi 100 verificatori di fatti indipendenti per aiutare a identificare e mitigare i rischi legati ai contenuti manipolati, adeguando gli algoritmi per ridurre la portata dei contenuti valutati come "Falsi o Alterati".