0


Dopo tutte le discussioni intorno alle leggi della Sezione 230 nell’ultimo anno, con l’ex presidente degli Stati Uniti Donald Trump che ha chiesto una riforma, e vari altri che hanno sollevato preoccupazioni significative con i poteri che le piattaforme digitali ora detengono per quanto riguarda il flusso di informazioni, i regolatori e i funzionari stanno ora cercando un modo per andare avanti, al fine di garantire che le piattaforme digitali siano ugualmente tenute a rispondere del ruolo che svolgono nel più ampio ecosistema delle informazioni.

Questa settimana, il CEO di Facebook Mark Zuckerberg, il CEO di Google Sundar Pichai e il capo di Twitter Jack Dorsey affronteranno un’udienza della House Energy and Commerce sulle modifiche proposte alla sezione 230, al fine di migliorare i modi in cui le piattaforme online affrontano le preoccupazioni chiave relative alla libertà di parola, alla moderazione e alla diffusione di informazioni dannose sulle loro piattaforme.

Tutti i giganti tecnologici si sono opposti alle riforme della Sezione 230, dicendo che qualsiasi cambiamento significativo alla legge effettivamente paralizzerà il web libero, e li costringerà a limitare significativamente il discorso, al fine di evitare potenziali sfide legali. Ma come evidenziato in varie discussioni, ci sono preoccupazioni in corso che le piattaforme non stiano facendo abbastanza per fermare la diffusione della disinformazione e dei discorsi d’odio, in particolare, che potrebbero scatenare una più ampia divisione sociale – mentre altri hanno sostenuto il contrario, in quanto le piattaforme stanno effettivamente lavorando per sostenere la propria agenda nelle loro mosse per censurare e limitare l’hate speech.

In vista dell’udienza, il Comitato per l’Energia e il Commercio della Camera ha rilasciato oggi dichiarazioni scritte dai tre CEO, in cui delineano la loro prospettiva sulle riforme proposte.

Nella sua risposta, il CEO di Facebook Mark Zuckerberg ha esortato alla cautela e ai cambiamenti, notando che è quasi impossibile per una società come Facebook controllare tutti i discorsi, data la scala della sua operazione.

“Le piattaforme non dovrebbero essere ritenute responsabili se un particolare pezzo di contenuto sfugge al suo rilevamento – che sarebbe impraticabile per le piattaforme con miliardi di post al giorno – ma dovrebbero essere tenuti ad avere sistemi adeguati in atto per affrontare contenuti illegali” Invece, Zuckerberg ha sostenuto che i fornitori devono avere sistemi adeguati in atto per affrontare al meglio tali contenuti, e che dovrebbe essere obbligatorio per legge:

“Invece di essere concessa l’immunità, le piattaforme dovrebbero essere tenute a dimostrare che hanno sistemi in atto per identificare i contenuti illegali e rimuoverli”

Questo sarebbe in gran parte allineato con la difesa di Facebook in vari casi relativi allo stesso, con Facebook che delinea i processi che ha in atto per affrontare tali, stabilendo le migliori pratiche del settore in termini di processi di allarme e tempestività di risposta.

Davvero, questo è probabilmente il miglior risultato che ci si può aspettare – l’unica altra opzione, come notato, è che le piattaforme limitano ciò che le persone possono dire interamente al fine di evitare la responsabilità legale.

Essenzialmente, data la natura in tempo reale del processo, non c’è modo per le piattaforme di garantire che cattureranno tutti i casi di discorso potenzialmente dannoso sulle loro piattaforme, soprattutto una volta che queste piattaforme raggiungono una certa scala. Ma dettagliando i loro processi di rilevamento – che, per i grandi giocatori, sono alimentati dall’AI, e sempre in miglioramento – e stabilendo chiare linee guida intorno alla valutazione umana e alla risposta, questo potrebbe essere un approccio normativo più efficace, in contrasto con le sanzioni per i fallimenti.

Zuckerberg include anche questa nota interessante:

“Facebook ha successo perché le persone in tutto il mondo hanno un profondo desiderio di connettersi e condividere, non di stare separati e combattere. Questo riafferma la nostra convinzione che la connettività e l’unione sono in definitiva ideali più potenti della divisione e della discordia – e che la tecnologia può essere parte della soluzione alle sfide profonde della nostra società. Continueremo a lavorare per garantire che i nostri prodotti e le nostre politiche sostengano questa ambizione”

Interessante nel senso che, in questi giorni, sembra sempre più che gli utenti di Facebook preferirebbero in realtà “stare separati e combattere”. Ma questo è tutto un altro dibattito.

Sundar Pichai di Google, nel frattempo, nella sua testimonianza scritta, ribadisce i pericoli della riforma della Sezione 230:

“La Section 230 è fondamentale per il web aperto: permette alle piattaforme e ai siti web, grandi e piccoli, in tutta Internet, di gestire responsabilmente i contenuti per mantenere gli utenti al sicuro e promuovere l’accesso alle informazioni e la libera espressione. Senza la Section 230, le piattaforme o filtrerebbero troppo i contenuti o non sarebbero in grado di filtrarli affatto” Pichai propone essenzialmente la stessa soluzione di Zuckerberg, stabilendo processi più trasparenti per tali azioni, al fine di garantire che tutte le piattaforme stiano lavorando verso lo stesso risultato.

“Le soluzioni potrebbero includere lo sviluppo di politiche sui contenuti che siano chiare e accessibili, notificando le persone quando i loro contenuti vengono rimossi e dando loro modi per appellarsi alle decisioni sui contenuti, e condividendo come i sistemi progettati per affrontare i contenuti dannosi stanno funzionando nel tempo.”

Pichai non si spinge così lontano come Zuckerberg nel proporre un quadro normativo di terze parti, ma il focus sulla trasparenza è simile nei suoi obiettivi.

Jack Dorsey di Twitter in realtà ha una visione più progressista nella sua dichiarazione, facendo riferimento ai nuovi progetti Birdwatch e Bluesky della società come potenziali modi per affrontare la moderazione e le preoccupazioni sui contenuti.

“Crediamo che le persone dovrebbero avere trasparenza o un controllo significativo sugli algoritmi che le riguardano. Riconosciamo che possiamo fare di più per fornire trasparenza algoritmica, apprendimento automatico equo e controlli che danno potere alle persone”. I team di apprendimento automatico di Twitter stanno studiando le tecniche e sviluppando una tabella di marcia per garantire che i nostri modelli algoritmici presenti e futuri sostengano uno standard elevato quando si tratta di trasparenza ed equità”.

In questo senso, Dorsey sta cercando di concentrarsi sui sistemi di raccomandazione dei contenuti stessi come mezzo per aiutare gli utenti a migliorare la loro esperienza. Il che potrebbe essere una soluzione migliore – ma poi di nuovo, gli utenti vogliono davvero più controllo, o preferirebbero che i sistemi semplicemente imparassero dal loro comportamento e servissero loro contenuti rilevanti in base all’uso?

Ci sono ancora molte domande da fare, e probabilmente otterremo ulteriori informazioni sul pensiero della commissione sulla riforma della sezione 230 nell’udienza di questa settimana.

Ma le risposte non sono facili. Le piattaforme online sono diventate fonti di informazione critiche, specialmente nell’ultimo anno, il che ha aumentato la loro capacità di informare e influenzare grandi settori della società. Assicurarsi che siano usate per il bene è un obiettivo importante, ma stabilire dei parametri per questo può essere rischioso, e anche pericoloso, in molti modi.

Leggi di più su Social Media Today

Annunci

Leave a Reply

×

Benvenuto!

Ciao. Clicca sull'icona dell'operatore per aprire una chat.

×
Share via
Copy link