Negli ultimi tempi si è discusso molto del tasso di incitamento all’odio su Twitter e della possibilità che sotto la guida di Elon Musk vengano condivisi contenuti più odiosi.
Dato che Elon ha supervisionato la reintegrazione di decine di migliaia di utenti precedentemente banditi e ha fomentato il sentimento anti-governativo e anti-establishment con i suoi stessi tweet, è logico che tali incidenti siano in aumento, mentre Musk ha anche implementato un approccio più aperto al discorso, progettato per consentire a più tipi di commenti e contenuti di rimanere attivi nell’app, invece di eliminarli.
Tenendo conto di questi elementi, si potrebbe pensare che l’incitamento all’odio sia aumentato, eppure, secondo Twitter, è effettivamente diminuito.
Ma analisi di terze parti suggeriscono il contrario, con tassi di incitamento all’odio che sarebbero aumentati su “Twitter 2.0”.
Quindi, qual è la verità e perché questi rapporti variano in modo così significativo e, in quanto inserzionisti, dovreste essere preoccupati che i vostri annunci possano essere visualizzati insieme a discorsi di odio nell’app?
Le differenze nei rapporti sono probabilmente dovute ai diversi metodi di segnalazione.
In un rapporto di analisi di terze parti, condotto dal Center for Countering Digital Hate (CCDH) a dicembre, che ha rilevato che gli insulti contro le persone di colore e transessuali sono aumentati di circa il 60% dopo l’acquisizione di Musk, si osserva che:
“I dati riguardano tutte le menzioni di un determinato insulto o del suo equivalente plurale nei tweet in lingua inglese in tutto il mondo e includono i retweet e le citazioni retweet”
Quindi si basa solo sulle menzioni di termini chiave e sulle percentuali in cui ciascuno di questi termini è apparso nell’app. Si tratta di un’approssimazione corretta per misurare la frequenza relativa di tali termini, ma l’analisi di Twitter, condotta dal partner Sprinklr (pubblicata il mese scorso), adotta un approccio più sfumato.
“Il modello di tossicità di Sprinklr analizza i dati e classifica i contenuti come “tossici” se vengono utilizzati per sminuire un individuo, attaccare una categoria protetta o disumanizzare gruppi emarginati. L’integrazione di fattori come il linguaggio reclamato e il contesto ha permesso al nostro modello di eliminare anche i falsi positivi e negativi. Il modello utilizza l’intelligenza artificiale per determinare l’intento e il contesto delle parole chiave segnalate, per aiutare i marchi a capire cosa è veramente tossico.”
Quindi Sprinklr misura non solo i termini chiave, ma anche il modo in cui vengono effettivamente utilizzati, che secondo Sprinklr è un modo più accurato per tracciare tale attività.
Alcuni termini dispregiativi, ad esempio, possono essere utilizzati in un contesto non offensivo, il che, secondo Sprinklr, rappresenta la maggioranza.
“La percentuale di tweet identificati come tossici nel set di dati che contenevano parole chiave offensive era dell’ordine del 15% nell’arco di tempo analizzato. Nonostante ogni tweet contenga una parola slur identificata, queste vengono utilizzate principalmente in contesti non tossici, come discorsi di recupero o saluti occasionali”
Questo spiega perché Twitter afferma che l’incitamento all’odio è effettivamente diminuito, perché con una reportistica più avanzata, che tiene conto del contesto e non solo delle menzioni, i tassi complessivi di incitamento all’odio, così come li misura, sono in calo, anche se, come suggerito da alcuni rapporti, le menzioni sono in aumento.
Tuttavia, questo non tiene conto di tutte le analisi di terze parti in circolazione. A marzo, l’Istituto per il Dialogo Strategico (ISD) ha pubblicato un proprio rapporto che mostrava un’impennata importante e prolungata dei post antisemiti su Twitter dopo l’acquisizione dell’azienda da parte di Elon Musk.’
A differenza del rapporto della CCDH, i dati dell’ISD riflettono le sfumature, come il processo di Sprinklr.
“Si tratta di una sfida di ricerca che ci costringe ad andare ben oltre il semplice conteggio della frequenza di determinate parole o frasi, per utilizzare invece l’apprendimento automatico e l’elaborazione del linguaggio naturale per addestrare modelli e flussi di lavoro in grado di gestire forme complesse e sfaccettate di linguaggio, significato ed espressione”
Come si può vedere, in base ai risultati dell’ISD, Twitter ospita più discorsi di odio, entro parametri specifici. L’ISD ha anche notato che Twitter sta rimuovendo un maggior numero di contenutiquindi sta agendo. Ma sta anche riscontrando una maggiore attività, che riguarda specificamente i tweet antisemiti, ma anche su scala più limitata all’interno del più ampio elemento di incitamento all’odio, che è ovviamente una grande preoccupazione.
Quindi cosa è effettivamente corretto e come si rapporta alle vostre promozioni?
Molto dipende dal vostro punto di vista e dalla fiducia che riponete nel team di Twitter per combattere questo elemento. Twitter afferma che l’hate speech, nel complesso, è diminuito, ma non c’è trasparenza su come sia arrivato a queste cifre, mentre i report di terze parti che misurano elementi specifici dicono che è aumentato, con metodologie diverse.
Twitter offre ora un maggior numero di controlli sul posizionamento degli annunci e misure di idoneità del marchio per rassicurare gli inserzionisti sul fatto che le loro promozioni non saranno visualizzate insieme a discorsi di odio. Ma questo è un fattore chiave per cui molti inserzionisti di Twitter si sono ritirati dall’applicazione e continuano a farlo.
Dovrebbe essere una preoccupazione per le vostre promozioni? Per contestualizzare questo elemento è fondamentale comprendere le differenze tra i dati riportati e quelli visualizzati.
Leggi di più su Social Media Today
Consulente di comunicazione, social media, SEO ed e-commerce. Grafico, web designer, impaginatore, copertinista e addentrato quanto basta in tutto ciò che riguarda l’Internet. Appassionato di narrativa, arti visive e cinema di menare. Nerd. Gamer.
Vivo e lavoro come freelancer in provincia di Taranto.