Meta espande il programma di fact checking alle discussioni

Con l’incombere delle elezioni presidenziali americane del 2024 e di altri sondaggi in corso in tutto il mondo, Meta sta ampliando il suo programma di fact-checking per coprire anche i contenuti dei thread, dato che continua a vedere un aumento dell’utilizzo della sua app-clone di Twitter.

Secondo Meta:

All’inizio del prossimo anno, i nostri partner di fact-checking di terze parti saranno in grado di esaminare e valutare i contenuti falsi su Threads”. Attualmente, quando un fact-checker giudica falso un contenuto su Facebook o Instagram, estendiamo la valutazione del fact-check a contenuti quasi identici su Threads, ma i fact-checker non possono valutare i contenuti di Threads da soli”

Come già detto, visto il crescente utilizzo di Threads, si tratta di un passo necessario. L’applicazione conta già più di 100 milioni di utenti e sembra che molti altri si stiano avvicinando all’applicazione di settimana in settimana, man mano che vengono introdotte nuove funzionalità e che nuove comunità iniziano a prendere forma all’interno dell’ecosistema di Threads.

Su questo fronte, Meta sta facendo un grande sforzo con le comunità sportive, che l’hanno vista guadagnare slancio tra i fan dell’NBA, in particolare, con il recente Torneo In-Season che ha segnato una pietra miliare per il coinvolgimento dell’NBA tramite Threads.

Ma più aumenta l’uso di Threads, più aumenta il rischio di disinformazione e di danni, per questo Meta deve espandere il suo processo di fact-checking per coprire i contenuti unici di Threads e i post duplicati nelle altre app.

Inoltre, gli utenti di Threads avranno presto un maggiore controllo sulla quantità di contenuti sensibili a cui sono esposti nell’app:

Di recente abbiamo dato agli utenti di Instagram e Facebook maggiori controlli, consentendo loro di decidere la quantità di contenuti sensibili o, se si trovano negli Stati Uniti, la quantità di contenuti verificati su ciascuna app. Coerentemente con questo approccio, stiamo portando questi controlli anche su Threads per dare agli utenti statunitensi la possibilità di scegliere se aumentare, ridurre o mantenere il livello predefinito di retrocessioni sui contenuti verificati nel loro feed. Se scelgono di vedere contenuti meno sensibili su Instagram, questa impostazione verrà applicata anche su Threads”

Ilfact-checking è diventato un argomento sempre più controverso quest’anno, con il proprietario di X Elon Musk che ha etichettato gran parte del fact-checking condotto dalle piattaforme di social media come “censura governativa”, inquadrandolo come parte di una cospirazione più ampia per “controllare la narrazione” e limitare la discussione di determinati argomenti.

Il che non è vero, né corretto, e tutti i vari rapporti commissionati da Musk sulle presunte interferenze governative di Twitter 1.0 non si sono rivelati in realtà riflessivi di una censura su larga scala, come invece viene suggerito.

Allo stesso tempo, però, è necessario un livello di fact-checking per impedire la diffusione di disinformazione dannosa. Perché quando sei a capo di una piattaforma che può amplificare tali informazioni a milioni, o addirittura miliardi di persone, hai la responsabilità di misurare e mitigare i danni, ove possibile.

Questo è l’aspetto più preoccupante di alcuni cambiamenti apportati da Musk all’applicazione, tra cui il reintegro di vari venditori di disinformazione dannosa sulla piattaforma, dove ora possono diffondere nuovamente le loro false informazioni.

Nel 2016, in seguito alle elezioni presidenziali americane, sembrava che ci fosse finalmente una presa di coscienza dell’impatto dei social media e di come i movimenti sui social media possano influenzare i risultati delle votazioni e quindi essere manipolati da gruppi malintenzionati.

Ci sono statele campagne di manipolazione russa, ma anche altri gruppi sono stati in grado di coordinarsi e proliferare attraverso le app sociali, come Q Anon, The Proud Boys, i gruppi “Boogaloo” e altri ancora.

Abbiamo poi assistito all’ascesa di movimenti contro la scienza, come i flat-Earthers e gli anti-vaxxers, questi ultimi hanno persino portato a una recrudescenza di malattie da tempo sopite nei paesi occidentali.

Dopo le elezioni, è stato fatto uno sforzo concertato per affrontare questi gruppi in modo trasversale e per combattere la diffusione della disinformazione attraverso le app sociali. Ma ora, a otto anni di distanza e in vista di un altro periodo elettorale negli Stati Uniti, Elon Musk sta consegnando ancora una volta un microfono a molti di loro, il che è destinato a provocare il caos in vista delle prossime elezioni.

Il risultato finale sarà che la disinformazione giocherà ancora una volta un ruolo significativo nel prossimo ciclo elettorale, in quanto coloro che sono spinti da agende personali e pregiudizi di conferma utilizzeranno le loro nuove piattaforme per mobilitare i propri seguaci e consolidare il sostegno grazie a una portata più ampia.

Si tratta di una situazione pericolosa e non mi sorprenderei se venissero intraprese altre azioni per fermarla. Apple, ad esempio, starebbe valutando la possibilità di rimuovere X dall’App Store dopo il reintegro di Alex Jones, che è stato bandito da tutte le altre piattaforme.

Questo sembra essere un passo logico. Perché conosciamo già i danni che questi gruppi e individui possono causare, basandosi su notizie false e selettive e su manipolazioni deliberate.

Tenendo conto di ciò, è positivo che Meta abbia preso ulteriori provvedimenti per combattere questo fenomeno, che diventerà un problema molto più grande man mano che ci avvicineremo alle elezioni in tutto il mondo.

Perché non esistono “fatti alternativi” e non puoi semplicemente “fare le tue ricerche” su questioni scientifiche più complesse. È per questo che ci affidiamo ai nostri esperti e, sebbene sia più divertente e coinvolgente vedere tutto come un’ampia cospirazione, nella maggior parte dei casi è molto, molto improbabile che sia così.


Leggi di più su Social Media Today

Lascia un commento