La macchina della disinformazione è più veloce della capacità di Meta di contrastarla. È questa la conclusione del Meta Oversight Board, l'organismo indipendente che sovrintende alle scelte di moderazione del gigante di Menlo Park, dopo aver analizzato come video falsi generati dall'intelligenza artificiale circolino indisturbati sulle piattaforme Facebook, Instagram e Threads, specialmente quando il mondo è scosso da conflitti armati. Un caso emblematico ha riguardato un filmato sintetico che mostrava presunti danni a edifici israeliani: è stato diffuso senza alcuna avvertenza sul suo carattere artificiale, raggiungendo milioni di utenti prima che qualcuno potesse intervenire.
Il nodo centrale della questione risiede nell'architettura stessa dei sistemi di controllo attuali. Meta si affida principalmente alla trasparenza volontaria di chi pubblica il contenuto, che dovrebbe segnalare autonomamente se il materiale è stato creato da un algoritmo. In assenza di questa segnalazione, rimane tutto nelle mani di moderatori umani che devono agire manualmente. Ma è una corsa persa in partenza: mentre i deepfake vengono prodotti in pochi minuti, raggiungendo milioni di persone con la stessa velocità, gli operatori umani arrivano sempre dopo che il danno è stato fatto. Come accadde con il video contraffatto di Giorgia Meloni che si diffuse capillarmente, spesso l'etichetta di contenuto artificiale arriva quando il video è già stato visto e condiviso da decine di migliaia di persone.
Nelle sue conclusioni, il Board è stato esplicito: "L'attuale sistema di Meta per etichettare correttamente i contenuti generati dall'AI non rispecchia le dinamiche reali dell'ecosistema digitale contemporaneo". L'indagine è stata avviata dopo il ritrovamento di un video falso apparso originariamente su TikTok che successivamente ha contaminato l'intero ecosistema Meta, migrando su Facebook, Instagram e altre piattaforme senza barriere significative.
Per invertire la rotta, il comitato di vigilanza ha presentato una lista articolata di raccomandazioni. Meta deve aggiornare le proprie politiche contro la disinformazione per affrontare specificamente i deepfake ingannevoli. Deve creare standard comunitari ad hoc per i contenuti sintetici. Soprattutto, deve investire in tecnologie di rilevamento più sofisticate e trasparenti nel comunicare quale sanzioni vengono applicate a chi viola le regole sull'AI. Un aspetto particolarmente critico riguarda l'implementazione dello standard C2PA, il sistema internazionale di certificazione che dovrebbe etichettare automaticamente i contenuti artificiali: secondo il Board, Meta lo applica in modo incoerente e non sempre segna i propri output generati da algoritmi proprietari.
Le implicazioni sono significative in un momento storico dove i conflitti armati, le tensioni geopolitiche e le campagne elettorali trasformano i video falsi in armi di propaganda. Se Meta, con tutte le sue risorse economiche e tecniche, non riesce a contenere la marea di disinformazione visuale, la domanda che rimane sospesa è: chi può farlo? E nel frattempo, quante persone condivideranno contenuti falsi credendo che siano reali, alimentando polarizzazione e panico?