Al momento stai visualizzando X avvia un’azione legale per le affermazioni sull’aumento dell’hate speech nell’app
  • Save

X avvia un’azione legale per le affermazioni sull’aumento dell’hate speech nell’app

 

X Corp sta cercando di difendersi dalle affermazioni secondo cui i discorsi d’odio sono aumentati sulla piattaforma da quando Elon Musk ha acquistato l’app, citando in giudizio il Centre for Countering Digital Hate (CCDH) in merito a vari rapporti pubblicati dal gruppo che rilevano l’aumento di contenuti dannosi.

Il CCDH ha pubblicato diversi rapporti in cui sostiene di aver monitorato l’aumento dei discorsi di odio nell’app da quando Musk ha acquistato la piattaforma. Adicembre, il gruppo ha riferito che gliinsulti contro le persone di colore e transgender sono aumentati in modo significativo dopo che Musk ha assunto il controllo dell’applicazione, mentre la ricerca suggerisce anche che Twitter non sta facendo rispettare i tweet che violano le regole pubblicati dagli abbonati a Twitter Blue, consentendo inoltredi mantenere attivi itweet che fanno riferimento alla comunità LGBTQ insieme a insulti di tipo “grooming”.

In parte questo sembra essere in linea con il nuovo approccio dell’app “Freedom of Speech, Not Reach”, che vede il team di X orientato a lasciare attivi i tweet, piuttosto che a rimuoverli. Tuttavia, X sta cercando di contrastare le affermazioni del CCDH in tribunale, mentre Musk cerca di scoprire chi c’è dietro il gruppo.

Secondo il CCDH:

“La scorsa settimana abbiamo ricevuto una lettera dalla X. Corp di Elon Musk che minacciava il CCDH di intraprendere un’azione legale a causa del nostro lavoro, che denuncia la proliferazione di odio e bugie su Twitter da quando ne è diventato proprietario.Leazioni di Elon Musk rappresentano un tentativo sfacciato di mettere a tacere le critiche oneste e le ricerche indipendenti nella disperata speranza di poter arginare la marea di storie negative e ricostruire il suo rapporto con gli inserzionisti”

In effetti questa sembra essere la motivazione principale, per contrastare le affermazioni molto pubblicizzate secondo cui la piattaforma è ora meno sicura per i marchi rispetto al passato, nella speranza di rassicurare i partner pubblicitari.

Ma c’è anche una certa fondatezza nelle contestazioni di X: Meta ha anche criticato in precedenza i risultati del CCDH, ritenendoli limitati e quindi non indicativi delle sue prestazioni complessive nel mitigare i discorsi d’odio.

Si tratta di un limite inevitabile di qualsiasi valutazione da parte di terzi. I gruppi esterni possono accedere solo a una certa quantità di post ed esempi, quindi qualsiasi analisi sarà relativa solo ai contenuti che scelgono di includere nel loro gruppo di studio. Sia nel caso di Meta che in quello di X, le aziende hanno affermato che i rapporti del CCDH sono troppo limitati per essere indicativi e quindi le conclusioni che ne derivano non dovrebbero essere considerate valide come esempi delle loro prestazioni in generale.

Ma questo non ha impedito a tali rapporti di ottenere una vasta copertura mediatica, che probabilmente ha avuto un impatto sull’attività di X. Più sono le segnalazioni di discorsi d’odio e contenuti dannosi, più i brand partner esiteranno a fare pubblicità all’app, ed è proprio questo che Musk e il suo team legale stanno cercando di contrastare portando il gruppo in tribunale.

In risposta, il CCDH ha giurato di sostenere le proprie affermazioni, definendo la lettera degli avvocati di Musk “un inquietante tentativo di intimidire coloro che hanno il coraggio di sostenere l’incitamento, i discorsi di odio e i contenuti dannosi online”. Il CCDH ha inoltre affermato che Musk ha deliberatamente cercato di limitare la ricerca esterna, modificando le regole sull’accesso ai dati da parte di terzi, per cui non c’è modo di condurre un’analisi completa dei contenuti della piattaforma, che sarebbe in linea con le aspettative espresse nella lettera.

Musk e il suo team di X hanno aumentato il costo dell’accesso alle API della piattaforma, anche per i gruppi accademici, il che limita di fatto questo tipo di analisi, escludendola del tutto nella maggior parte dei casi, il che significa che l’unica vera fonte di informazioni in questo senso sono i dati prodotti da X stessa.

A questo proposito, Musk e il team di X hanno ripetutamente affermato che le impressioni di incitamento all’odio sono diminuite da quando Musk ha assunto la direzione dell’applicazione:

Come abbiamo riportato in precedenza, si tratta di un numero incredibilmente alto, ma Musk e il suo team stanno cercando di contrastare qualsiasi affermazione contraria, pur non producendo alcun dato a sostegno di tali affermazioni, nella speranza di mitigare le preoccupazioni degli inserzionisti.

Cosa che, in realtà, X potrebbe fare. Musk e il suo team potrebbero pubblicare un rapporto dettagliato sull’incitamento all’odio che illustri chiaramente le loro reali azioni di contrasto e le modalità con cui è stato stabilito questo 99,99%. Questa sarebbe la risposta più definitiva alle affermazioni del CCDH, ma sembra anche improbabile che ciò accada.

Perché è impossibile che il 99,99% dei tweet provenga da “contenuti sani”.

Parte dell’argomentazione risiede nel modo in cui il team di X interpreta tali commenti e menzioni: il team di X e i suoi partner di valutazione cambiano le definizioni di ciò che si qualifica come discorso d’odio.

Ad esempio, Sprinklr, il partner di X per la valutazione, ha precedentemente illustrato come i suoi sistemi adottino ora un approccio più sfumato alla valutazione del discorso d’odio, analizzando il contesto in cui vengono utilizzati i termini d’odio identificati, invece di limitarsi a contare le menzioni.

Secondo Sprinklr:

Ilmodello di tossicità di Sprinklr analizza i dati e classifica i contenuti come ‘tossici’ se vengono utilizzati per sminuire un individuo, attaccare una categoria protetta o disumanizzare gruppi emarginati. L’integrazione di fattori come il linguaggio reclamato e il contesto ha permesso al nostro modello di eliminare anche i falsi positivi e negativi”

In altre parole, molte volte i termini di incitamento all’odio non sono utilizzati in modo odioso e i processi di valutazione di Sprinklr sono ora più attenti a questo aspetto.

Su questa base, a marzo Sprinklr ha scoperto che l’86% dei post X che includevano termini di incitamento all’odio non erano in realtà considerati dannosi o destinati a causare danni.

Sprinklr toxic tweets
  • Save

Si tratta di un numero incredibilmente alto. Sulla base di un elenco di 300 termini di tipo denigratorio in lingua inglese, questa valutazione suggerisce che l’86% delle volte questi termini non vengono utilizzati in modo negativo o dannoso.

Sembra impossibile che sia così, ma ancora una volta non sono stati forniti i dati reali, quindi non c’è modo di contrastare queste affermazioni.

Questo sembra essere l’obiettivo di X: contrastare le valutazioni esterne senza fornire le proprie controdeduzioni, se non attraverso una panoramica di base e la speranza che le persone credano semplicemente alle parole dell’azienda.

Vale la pena notare che non è solo il CCDH ad aver segnalato un aumento dei discorsi di odio nell’app da quando Musk ha assunto il controllo, ma sembra che Musk stia prendendo di mira proprio il CCDH, in base a chi finanzia il gruppo e ai sospetti sui suoi obiettivi.

Ma anche in questo caso, X potrebbe controbattere producendo i propri dati, che afferma di possedere. Le cifre di cui sopra provengono da qualche parte, perché non produrre il rapporto completo che ha portato a questa panoramica e mostrare, nel dettaglio, le controdeduzioni?

Sembra un modo semplice per confutare tali affermazioni, invece di andare in tribunale. Il che conferisce credibilità alle affermazioni della CCDH, secondo cui si tratta di un tentativo di intimidire, anziché di chiarire.

Leggi di più su Social Media Today

Lascia un commento