Alla fine, Musk ha vinto e Zuckerberg si è dovuto rassegnare al nuovo braccio destro di Trump. Non stiamo parlando del duello sul ring tra i due, tanto atteso ma mai concretizzato, bensì delle regole sul fact checking, per anni promosso dal Ceo di Meta in contrasto con Elon Musk.
Per il proprietario di X, qualsiasi meccanismo di fact checking equivale a una censura, nemica della “sacrosanta libertà di espressione”. Una teoria a cui Zuck si è a lungo opposto anche per migliorare la reputazione dei propri social, finiti nel ciclone perché gli algoritmi preferivano dare spazio a contenuti divisivi, prima ancora che veritieri.
Ora il Ceo di Meta annuncia che sarà dismesso qualsiasi sistema di fact checking. Il controllo dei contenuti sarà affidato alle Community Notes utilizzate da Musk su X per affrontare la disinformazione. “Abbiamo visto questo approccio funzionare su X”, ha dichiarato Zuckerberg, sancendo una sorta di vittoria simbolica per il rivale. Intanto, gli esperti sono preoccupati: il rischio che le fake news finiscano fuori controllo è sempre più concreto.
Cosa sono e come funzionano le Community Notes
Le Community Notes, inizialmente lanciate come Birdwatch nel 2021, rappresentano un approccio basato sul contributo degli utenti per contrastare le fake news. L’idea alla base è semplice ma innovativa: consentire agli utenti iscritti a un programma dedicato di segnalare contenuti fuorvianti e aggiungere note che forniscano contesto o correggano errori.
Un algoritmo avanzato seleziona le note da mostrare, basandosi sul livello di consenso raggiunto da utenti con opinioni differenti. Questa dinamica mira a ridurre la polarizzazione e a favorire un’informazione equilibrata. Elon Musk stesso è stato oggetto di una di queste note dopo aver dichiarato che Twitter generava un “grande numero di click verso altri siti”, affermazione smentita da una nota supportata da dati e fonti verificabili.
La diffusione delle bufale su X e i limiti delle Community Notes
Nonostante il potenziale innovativo, le Community Notes non sono prive di limiti. Un esempio lampante è quello della fake news diffusa durante il dibattito elettorale statunitense che accusava gli immigrati haitiani di mangiare cani e gatti. Questo contenuto, condiviso da un profilo famoso per disinformazione, ha accumulato milioni di visualizzazioni senza essere corretto o contestualizzato dalle note prima di ritorcersi contro Donald Trump nel dibattito televisivo con Kamala Harris.
In quella occasione il tycoon perse ai punti il confronto soprattutto grazie al fact checking attuato dai moderatori dell’evento. Emblematico il momento in cui la giornalista Lindsay Davis smentì il candidato repubblicano ricordandogli che “Non esiste alcuno stato in questo Paese dove sia legale uccidere un bambino dopo che è nato”, come invece sostenuto da Donald Trump.
Il tycoon uscì sconfitto da quel dibattito televisivo e rifiutò la proposta di Harris di fare un altro confronto. Ora, però, il fact checking non c’è più nemmeno sui social anche se le Community Notes di Musk nascondono molti aspetti controversi.
Un’analisi del Center for Countering DigitalHate ha rivelato che oltre il 90% dei post fuorvianti analizzati non presentava alcuna correzione o nota esplicativa. Complessivamente, questi contenuti hanno generato più di due miliardi di visualizzazioni, dimostrando che il sistema non riesce ancora a rispondere efficacemente alla mole di disinformazione. Il rischio diventa esponenziale considerando il deep fake che si può generare con gli strumenti di intelligenza artificiale. Impossibile non pensare alle immagini di Kamala Harris vestita da comunista e altre simili, rilanciate dallo stesso Elon Musk su X, piattaforma dove il magnate dà anche spazio al suo chatbot di Ai, Grok.
Una situazione preoccupante che ha spinto la Commissione europea ad approfondire l’indagine aperta a dicembre nei confronti di X per valutare l’attività di moderazione dei contenuti e l’uso dell’intelligenza artificiale generativa da parte della piattaforma social. L’organo esecutivo dell’Unione ha inviato ad X una Richiesta formale di informazioni (Rfi) con la quale chiede maggiori dettagli e documenti interni sulle attività e sulle risorse messe in campo per la moderazione dei contenuti, per la valutazione dei rischi connessi all’uso dell’Ai e su altri ambiti previsti dal procedimento in corso.
Il rischio deepfake aumenta esponenzialmente con la diffusione dell’Intelligenza artificiale, come dimostrano i video finti e sempre più virali che circolano sui social. Per ora, questi strumenti vengono utilizzati soprattutto per realizzare video palesemente falsi (impossibile, per esempio, che Beppe Grillo e Giuseppe Conte si abbraccino o addirittura si bacino come mostrato in alcuni video), ma nulla vieta di utilizzarli per creare qualcosa che risulti credibile e tragga in inganno gli utenti. Tra gli esempi finora più riusciti c’è il noto video del bacio finto tra Elon Musk e Giorgia Meloni, che ha fatto velocemente il giro del mondo e del web.
Come funziona il fact-checking comunitario?
Per partecipare al programma delle Community Notes, gli utenti devono soddisfare una serie di requisiti:
- Essere iscritti a X da almeno sei mesi;
- Non avere violazioni recenti delle regole;
- Verificare il proprio profilo tramite numero di telefono.
Una volta entrati nel programma, gli utenti possono proporre note che, attraverso il voto e l’algoritmo, possono essere associate a post controversi. Il processo è studiato per premiare le note che ottengono un consenso trasversale, evitando che un’unica fazione domini il dibattito.
Community Notes vs fact-checking
Fino ad oggi, Meta ha adottato un approccio più centralizzato al fact-checking, affidandosi a team dedicati e verificatori esterni per valutare i contenuti. Tuttavia, questo metodo è stato spesso criticato per la sua lentezza e, talvolta, per decisioni discutibili o parziali. Walter Quattrociocchi, direttore del Centro di Data Science e Complessità per la società alla Sapienza di Roma, ha sottolineato come questo modello abbia mostrato diversi limiti nell’affrontare la complessità delle fake news.
Le Community Notes, pur rappresentando una svolta concettuale, evidenziano altre fragilità, come l’incapacità di coprire tutti i contenuti problematici o la dipendenza dalla buona fede degli utenti coinvolti.
Quali conseguenze per la lotta alla disinformazione?
L’adozione delle Community Notes da parte di Meta apre un nuovo capitolo nella lotta alla disinformazione online, con un approccio che potrebbe presto influenzare anche le piattaforme europee. Tuttavia, il sistema resta lontano dall’essere perfetto: un utilizzo più ampio richiederà investimenti per migliorare gli algoritmi, ampliare la partecipazione degli utenti e affrontare le insidie della polarizzazione.
Sul finire dello scorso mandato Ursula von der Leyen, aveva promesso battaglia agli attacchi hacker e alla disinformazione veicolata sui social: “lo scopo è dividere le nostre società dall’interno” aveva detto allora la presidente della Commissione promettendo uno “Scudo per la Democrazia” in caso di rielezione.
Sia dal punto di vista normativo che tecnico, la vera sfida sarà coniugare la libertà di espressione con le esigenze di rapidità, imparzialità e capillarità che la lotta alla disinformazione richiede, in un panorama digitale sempre più difficile da decifrare.