Elon ha detto seriamente che si impegnerà a re-istruire Grok per fornire risposte più allineate ideologicamente

Sì, non sembra una gran cosa.

Nel fine settimana, Elon Musk, proprietario di X e xAI , ha segnalato un cambiamento in arrivo per il suo chatbot Grok: il team di sviluppo di Grok rimuoverà dalle sue banche dati le informazioni “politicamente scorrette, ma comunque veritiere”, per evitare che l’app fornisca essenzialmente risposte che Musk stesso non condivide.

Il cambiamento era previsto da tempo, poiché il chatbot Grok di X ha ripetutamente fornito risposte che contrastano con le opinioni dello stesso Musk su alcuni argomenti. Ad esempio, Grok ha detto agli utenti che ai bambini dovrebbe essere consentito l’accesso alle cure per l’affermazione del sesso, cosa di cui Musk è stato un forte oppositore, mentre ha anche contrastato le affermazioni sulla violenza politica perpetrata dai sostenitori della sinistra (notando che ci sono più prove di attacchi da parte della destra).

Grok ha anche definito lo stesso Musk come “il più grande divulgatore di disinformazione su X“, tra le varie affermazioni che hanno irritato il suo creatore.

Nel fine settimana, Musk ha dichiarato di averne avuto abbastanza. Dopo che Grok ha fatto riferimento a dati di Media Matters e Rolling Stone, Musk ha risposto dicendo che “la fonte di Grok è terribile” e che “solo un’AI molto stupida crederebbe a MM e RS”

Musk ha poi proseguito con un post in cui invitava gli utenti di X a fornire esempi di “fatti divisivi per l’addestramento di Grok“, che ha visto il pubblico di X fornire oltre 100.000 risposte, che si spera vengano eliminate dalla base di informazioni di Grok.

In questo modo Grok diventerà più allineato con i punti di vista della destra e più ignorante nei confronti dei fatti e delle prove. In altre parole, diventerà un’intelligenza artificiale che fa da camera d’eco e, dato che sempre più persone si affidano all’intelligenza artificiale per trovare risposte a tutti i tipi di domande, questo sembra essere un problema significativo per lo sviluppo dell’intelligenza artificiale in generale.

Anche se, a conti fatti, l’utilizzo di Grok è piuttosto limitato. ChatGPT sembra avere circa 800 milioni di utenti attivi, mentre Meta ha recentemente dichiarato che Meta AI è il chatbot AI più utilizzato al mondo, con un miliardo di utenti mensili.

Grok, invece, è utilizzato solo da una parte dei 600 milioni di utenti attivi mensili di X e può essere utilizzato solo da utenti paganti. Quindi non è allo stesso livello di influenza di queste altre app di intelligenza artificiale, ma anche così, il fatto che Musk dichiari apertamente che sta modificando i suoi sorgenti per allinearsi meglio alla sua ideologia è comunque preoccupante, soprattutto alla luce dei recenti problemi con le risposte di Grok.

Il mese scorso si è scoperto che Grok forniva risposte imprecise sul numero di morti dell’Olocaustoe che forniva risposte casuali che includevano riferimenti al “genocidio bianco” in Sudafrica, entrambi basati su teorie cospirazioniste ormai debellate.

X sostiene che entrambi gli errori sono dovuti a una modifica non autorizzata del codice di Grok da parte di un dipendente disonesto e che il processo è stato aggiornato per garantire maggiori controlli e bilanciamenti. A prescindere dal motivo, però, l’incidente ha sottolineato quanto i programmatori di xAI possano influire sulle risposte del chatbot, se lo desiderano, e con Elon stesso molto propenso a screditare qualsiasi fonte che non sia d’accordo con le sue opinioni, questo sembra un mix pericoloso.

In effetti, l’intero progetto xAI è stato fondato sulla base dell’opposizione di Elon stesso ad altri modelli di IA, che secondo lui vengono addestrati per essere “svegli”

Come riportato dal Washington Post:

“In un’intervista rilasciata a Fox News nell’aprile del 2023, Musk ha dichiarato che OpenAI ha “addestrato l’IA a mentire” incorporando un feedback umano che indirizzava il chatbot “a non dire ciò che i dati richiedono effettivamente di dire” Ha definito il suo nuovo progetto “TruthGPT””

Quindi, per tutto il tempo, il progetto xAI ha riguardato tanto le narrazioni politiche quanto l’evoluzione tecnologica, con Musk che ha cercato di orientare i suoi progetti di IA più verso la sua ideologia, piuttosto che verso la verità oggettiva, basata su fonti web.

E molti dei suoi sostenitori saranno d’accordo con lui. La pandemia COVID ha scatenato un nuovo movimento anti-mainstream dei media e il fatto che gli strumenti di IA vengano addestrati su quelle che sono considerate fonti mainstream è un affronto a questa spinta.

Per questo motivo, la spinta anti-fattuale di Musk sarà vista positivamente da molti. Anche se è fallace, anche se porta a una maggiore diffusione della disinformazione.

Perché la verità, a quanto pare, è ciò che si crea.

È un altro esempio dei potenziali aspetti negativi dei progressi tecnologici, che spesso vengono trascurati in mezzo al clamore generale.

Lo stesso si può dire di ogni innovazione significativa: se da un lato ci sono vantaggi e benefici da trarre, dall’altro spesso si sopravvalutano i vantaggi che la diffusione di questa tecnologia comporta.

Internet, ad esempio, è una rivoluzione nel campo dell’apprendimento, che consente a miliardi di persone di accedere a quasi tutte le informazioni del mondo, il che dovrebbe rendere l’umanità più istruita, più informata e migliorare il livello di intelligenza di base.

Eppure, nell’anno 2025, i dibattiti sull’efficacia dei vaccini, sui cambiamenti climatici e persino sulla forma stessa della Terra come pianeta sono più vivaci che mai.

I social media avrebbero dovuto connettere il mondo, permettendoci di chattare con chiunque e ovunque, facilitando l’unione, l’empatia e la comprensione. Tuttavia, hanno probabilmente fatto il contrario, fornendo un mezzo per far coagulare gruppi intolleranti, divisivi e odiosi, mettendo in contatto i peggiori elementi del mondo. Gli stessi algoritmi che alimentano il coinvolgimento sui social media incentivano questo fenomeno ed è difficile sostenere che i social media, come concetto, siano stati un beneficio netto.

E ora abbiamo l’IA, la prossima grande speranza, che democratizzerà la creatività e faciliterà nuovi livelli di produttività umana, fornendo un’assistenza basata sulle macchine per migliorare i nostri processi quotidiani.

Come pensi che funzionerà nella realtà?

Sicuramente ci saranno dei vantaggi, come è successo per altri progressi, soprattutto dal punto di vista commerciale. Ma l’idea utopica che l’IA stia per inaugurare una nuova età dell’oro di opportunità creative e intelligenti è davvero solo un’idea che si trova nei pitch deck delle aziende e nelle discussioni in sala riunioni.

Dai un’occhiata ai contenuti sull’intelligenza artificiale che vengono condivisi online in questo momento. Video con sfumature razziste che non si potrebbero creare con attori umani. Nudi di IA con le sembianze di persone che non hanno dato il loro permesso. Persone che spacciano per proprio il lavoro generato dall’IA, imbrogliando per ottenere opportunità non meritate.

Non è una cosa buona, non sono cose buone quelle che vengono agevolate da questa nuova tecnologia e la storia ci insegna che gli elementi peggiori della società traggono altrettanto, se non di più, vantaggio da questi progressi.

Questo ci riporta a Elon e alla sua decisione di modificare la storia per “migliorare” il suo chatbot. Si tratta di un pessimo precedente e di un cambiamento molto preoccupante, soprattutto perché sempre più persone si affidano a questi strumenti di intelligenza artificiale per ottenere risposte.

Pensiamo davvero che questo migliorerà la società o ci renderà più intelligenti come specie?

E se la risposta, su entrambi i fronti, è no, allora perché stiamo spingendo l’intelligenza artificiale in ogni singolo elemento di ogni app?

Leggi di più su www.socialmediatoday.com

Articoli correlati

Share via
Copy link