Al momento stai visualizzando Meta collabora con Stanford per un forum sullo sviluppo responsabile dell’intelligenza artificiale
  • Save

Meta collabora con Stanford per un forum sullo sviluppo responsabile dell’intelligenza artificiale

Tra i continui dibattiti sui parametri che dovrebbero essere fissati per l’IA generativa e sul suo utilizzo, Meta ha recentemente collaborato con il Deliberative Democracy Lab di Stanford per condurre un forum della comunità sull’IA generativa, al fine di raccogliere il feedback degli utenti reali sulle loro aspettative e preoccupazioni riguardo allo sviluppo responsabile dell’IA.

Il forum ha raccolto le risposte di oltre 1.500 persone provenienti da Brasile, Germania, Spagna e Stati Uniti e si è concentrato sulle questioni e le sfide principali che le persone vedono nello sviluppo dell’IA.

Sono emerse alcune note interessanti sulla percezione pubblica dell’IA e sui suoi benefici.

I risultati principali, come evidenziato da Meta, mostrano che:

  • La maggioranza dei partecipanti di ogni paese ritiene che l’IA abbia avuto un impatto positivo
  • La maggioranza ritiene che i chatbot AI dovrebbero essere in grado di utilizzare le conversazioni passate per migliorare le risposte, a patto che le persone siano informate
  • La maggioranza dei partecipanti ritiene che i chatbot AI possano essere simili agli esseri umani, a patto che le persone siano informate.

Anche se i dettagli specifici sono interessanti.

Stanford AI report
  • Save

Come puoi vedere in questo esempio, le affermazioni che hanno ottenuto il maggior numero di risposte positive e negative sono diverse a seconda della regione. Molti partecipanti hanno cambiato opinione su questi elementi nel corso del processo, ma è interessante considerare dove le persone vedono attualmente i benefici e i rischi dell’IA.

Il rapporto ha anche analizzato l’atteggiamento dei consumatori nei confronti della divulgazione dell’IA e di dove gli strumenti di IA dovrebbero reperire le informazioni:

Stanford AI report
  • Save

È interessante notare l’approvazione relativamente bassa di queste fonti negli Stati Uniti.

Ci sono anche approfondimenti sul fatto che le persone pensano che gli utenti dovrebbero essere in grado di avere relazioni romantiche con i chatbot dell’IA.

Stanford AI report
  • Save

È un po’ strano, ma si tratta di una progressione logica che dovrà essere presa in considerazione.

Un’altra considerazione interessante sullo sviluppo dell’IA, non evidenziata in modo specifico nello studio, riguarda i controlli e le ponderazioni che ogni fornitore implementa nei propri strumenti di IA.

Google è stata recentemente costretta a scusarsi per i risultati fuorvianti e non rappresentativi prodotti dal suo sistema Gemini, che si orientava troppo verso una rappresentazione diversificata, mentre il modello Llama di Meta è stato criticato per aver prodotto rappresentazioni più asettiche e politicamente corrette in base a determinati suggerimenti.

Meta AI example
  • Save

Esempi come questo evidenziano l’influenza che i modelli stessi possono avere sui risultati, un’altra preoccupazione fondamentale nello sviluppo dell’IA. Le aziende dovrebbero avere un tale controllo su questi strumenti? È necessaria una regolamentazione più ampia per garantire una rappresentazione equa e un equilibrio in ogni strumento?

È impossibile rispondere alla maggior parte di queste domande, poiché non conosciamo ancora a fondo la portata di questi strumenti e il modo in cui potrebbero influenzare una risposta più ampia. Tuttavia, è sempre più evidente la necessità di avere dei paletti universali per proteggere gli utenti dalla disinformazione e dalle risposte fuorvianti.

Si tratta quindi di un dibattito interessante e vale la pena considerare cosa significano i risultati per lo sviluppo dell’IA in generale.

Puoi leggere il rapporto completo del forum qui.

Leggi di più su Social Media Today

Lascia un commento