Meta introduce filigrane e sanzioni per i contenuti generati dall'AI su Facebook, Instagram e Threads

feb 6, 2024

Aumenta la trasparenza durante i mesi che vedranno elezioni in USA e altre nazioni importanti: Meta combatte i media sintetici con misure decisive.

Meta introduce filigrane e sanzioni per i contenuti generati dall'AI su Facebook, Instagram e Threads

Meta
, la società dietro le celebri piattaforme social Facebook, Instagram, Threads e WhatsApp, ha annunciato un pacchetto di iniziative volte a migliorare la gestione dei media generati dall'intelligenza artificiale (AI) sulla sua rete. In particolare, l'azienda introdurrà filigrane e sanzioni, affrontando la crescente sfida di distinguere tra contenuti reali e quelli creati artificialmente.

Nick Clegg, presidente degli affari globali di Meta, ha spiegato che queste nuove misure mirano a "galvanizzare" l'industria tecnologica, soprattutto in vista delle imminenti elezioni globali. La difficoltà nel distinguere i media generati dall'AI dalla realtà è un problema sempre più rilevante, e Meta sta affrontando questa sfida con un approccio multiforme.

Attualmente, Meta applica la filigrana "Imagined with AI" alle immagini generate dal suo strumento Imagine AI. Questa filigrana sarà estesa alle foto create con strumenti di terze parti, come quelli di Google, OpenAI, Microsoft o altre software house. L'obiettivo è fornire agli utenti una maggiore chiarezza sull'origine dei contenuti condivisi, promuovendo la trasparenza.

Inoltre, l'azienda introdurrà sanzioni per gli utenti che non divulgheranno se un video o un brano audio realistico sono stati creati con l'AI. Questo passo è cruciale per prevenire la diffusione di contenuti manipolati e fuorvianti, specialmente durante periodi politicamente sensibili come le elezioni.

Meta sta collaborando con gruppi come Partnership on AI per sviluppare strumenti avanzati per rilevare media sintetici, anche quando i metadati sono stati alterati. Questo impegno testimonia la volontà di Meta di lavorare a livello di settore per affrontare la sfida dell'autenticità dei contenuti generati dall'IA.

Nick Clegg ha anche sottolineato l'attenzione di Meta nei confronti di video e contenuti audio progettati per ingannare il pubblico su questioni politiche cruciali. La società prevede sanzioni che spaziano da avvertimenti alla rimozione del contenuto, indicando un approccio rigoroso per contrastare la manipolazione dei media.

Internamente, Meta sta esplorando l'uso di modelli linguistici di grandi dimensioni (LLM) come un "meccanismo di triage" per i moderatori umani. Questa strategia mira a garantire una gestione più efficiente dei contenuti problematici, un ulteriore passo verso un'esperienza online autentica e trasparente.

In sintesi, Meta sta affrontando la sfida dei contenuti generati dall'AI con una serie di nuove iniziative che promuovono la trasparenza e contrastano la manipolazione, mantenendo un occhio attento sulle elezioni globali e, soprattutto, USA, ormai imminenti.

Articolo di HTNovo
Creative Commons License

Modulo di contatto

Archivio