Secondo OpenAI l’era della superintelligenza è iniziata

 

Sam Altman, capo diOpenAI, ha dichiarato che l’umanità è entrata nell’era della superintelligenza artificiale e non si può più tornare indietro.

“Abbiamo superato l’orizzonte degli eventi; il decollo è iniziato”, ha dichiarato Altman. “L’umanità è vicina alla costruzione di una superintelligenza digitale e, almeno finora, è molto meno strana di quanto sembri”

La mancanza di segni visibili – i robot non si aggirano ancora per le strade, le malattie non sono ancora state sconfitte – nasconde quella che Altman definisce una profonda trasformazione già in corso. Dietro le porte chiuse di aziende tecnologiche come la sua, stanno nascendo sistemi in grado di superare l’intelletto umano in generale.

“In un certo senso, ChatGPT è già più potente di qualsiasi altro essere umano mai esistito”, sostiene Altman, sottolineando che “centinaia di milioni di persone si affidano ad esso ogni giorno e per compiti sempre più importanti”

Questa osservazione casuale allude a una realtà preoccupante: questi sistemi esercitano già un’enorme influenza, con difetti anche minimi che potrebbero causare danni diffusi se moltiplicati per la loro vasta base di utenti.

La strada verso la superintelligenza

Altman delinea un percorso verso la superintelligenza che potrebbe lasciare molti lettori a controllare il calendario.

Entro il prossimo anno, si aspetta “l’arrivo di agenti in grado di svolgere un vero lavoro cognitivo”, trasformando radicalmente lo sviluppo del software. L’anno successivo potrebbero arrivare “sistemi in grado di elaborare nuove intuizioni”, ovvero AI in grado di generare scoperte originali anziché limitarsi a elaborare le conoscenze esistenti. Entro il 2027, potremmo vedere “robot in grado di svolgere compiti nel mondo reale”

Ogni previsione sembra superare la precedente in termini di capacità, tracciando una linea che punta inequivocabilmente verso la superintelligenza – sistemi la cui capacità intellettuale supera di gran lunga il potenziale umano nella maggior parte dei settori.

“Non sappiamo quanto possiamo andare oltre l’intelligenza umana, ma stiamo per scoprirlo”, afferma Altman.

Questa progressione ha suscitato un acceso dibattito tra gli esperti: alcuni sostengono che queste capacità siano ancora lontane decenni. Tuttavia, la cronologia di Altman suggerisce che OpenAI ha prove interne di questo percorso accelerato che non sono ancora di dominio pubblico.

Un ciclo di feedback che cambia tutto

Ciò che rende l’attuale sviluppo dell’IA particolarmente interessante è ciò che Altman definisce una “versione larvata dell’auto-miglioramento ricorsivo”, ossia la capacità dell’IA di oggi di aiutare i ricercatori a costruire i sistemi più capaci di domani.

“L’IA avanzata è interessante per molte ragioni, ma forse nessuna è così significativa come il fatto che possiamo usarla per fare ricerca sull’IA più velocemente”, spiega Altman. “Se riusciamo a fare una ricerca decennale in un anno o in un mese, il ritmo del progresso sarà ovviamente molto diverso”

L’accelerazione si intensifica con l’intersecarsi di più cicli di feedback. Il valore economico spinge lo sviluppo dell’infrastruttura, che rende possibili sistemi più potenti, che generano più valore economico. Nel frattempo, la creazione di robot fisici in grado di produrre altri robot potrebbe creare un altro ciclo esplosivo di crescita.

“Il ritmo delle nuove meraviglie che verranno realizzate sarà immenso”, prevede Altman. “È difficile anche solo immaginare oggi cosa avremo scoperto entro il 2035; forse passeremo dal risolvere la fisica delle alte energie un anno all’iniziare la colonizzazione dello spazio l’anno successivo”

Queste affermazioni sembrerebbero un’iperbole per chiunque altro. Se invece vengono pronunciate dall’uomo che supervisiona alcuni dei sistemi di intelligenza artificiale più avanzati del pianeta, richiedono almeno un po’ di considerazione.

Vivere accanto alla superintelligenza

Nonostante il potenziale impatto, Altman ritiene che molti aspetti della vita umana manterranno i loro contorni familiari. Le persone continueranno a stringere relazioni significative, a creare arte e a godere di piaceri semplici.

Ma al di sotto di queste costanti, la società si trova ad affrontare un profondo sconvolgimento. “Intere classi di lavori” scompariranno, potenzialmente a un ritmo superiore alla nostra capacità di creare nuovi ruoli o di riqualificare i lavoratori. Il lato positivo, secondo Altman, è che “il mondo diventerà così ricco e così velocemente che saremo in grado di prendere seriamente in considerazione nuove idee politiche che non abbiamo mai potuto fare prima”

Per coloro che faticano a immaginare questo futuro, Altman propone un esperimento mentale: “Un contadino di sussistenza di mille anni fa guarderebbe ciò che molti di noi fanno e direbbe che abbiamo un lavoro falso, e penserebbe che stiamo solo giocando per divertirci, dato che abbiamo cibo in abbondanza e lussi inimmaginabili”

I nostri discendenti potrebbero guardare alle nostre professioni più prestigiose con analogo sconcerto.

Il problema dell’allineamento

In mezzo a queste previsioni, Altman identifica una sfida che tiene svegli di notte i ricercatori sulla sicurezza dell’IA: garantire che i sistemi superintelligenti rimangano allineati con i valori e le intenzioni umane.

Altman afferma la necessità di risolvere “il problema dell’allineamento, vale a dire che possiamo garantire in modo robusto che i sistemi di IA imparino e agiscano verso ciò che vogliamo collettivamente nel lungo periodo”. Egli si contrappone agli algoritmi dei social media che massimizzano il coinvolgimento sfruttando le vulnerabilità psicologiche.

Non si tratta di una questione meramente tecnica, ma esistenziale. Se la superintelligenza emerge senza un solido allineamento, le conseguenze potrebbero essere devastanti. Tuttavia, definire “ciò che vogliamo davvero collettivamente” sarà quasi impossibile in una società globale diversificata con valori e interessi in competizione.

“Prima il mondo inizierà una conversazione su quali siano questi limiti generali e su come definire l’allineamento collettivo, meglio sarà”, esorta Altman.

OpenAI sta costruendo un cervello globale

Altman ha più volte definito ciò che OpenAI sta costruendo come “un cervello per il mondo”

Non si tratta di una metafora. OpenAI e i suoi concorrenti stanno creando sistemi cognitivi destinati a integrarsi in ogni aspetto della civiltà umana – sistemi che, per ammissione dello stesso Altman, supereranno le capacità umane in tutti i settori.

“L’intelligenza troppo economica per essere misurata è a portata di mano”, afferma Altman, suggerendo che le capacità superintelligenti diventeranno alla fine onnipresenti e accessibili come l’elettricità.

A coloro che liquidano queste affermazioni come fantascienza, Altman ricorda che solo pochi anni fa le capacità dell’IA di oggi sembravano altrettanto implausibili: “Se nel 2020 vi avessimo detto che saremmo arrivati al punto in cui siamo oggi, probabilmente sarebbe sembrato più assurdo delle nostre attuali previsioni per il 2030”

Mentre l’industria dell’IA continua la sua marcia verso la superintelligenza, l’augurio conclusivo di Altman – “Che possiamo scalare senza intoppi, in modo esponenziale e senza problemi verso la superintelligenza” – suona meno come una previsione e più come una preghiera.

Anche se le tempistiche possono essere (e saranno) contestate, il capo di OpenAI chiarisce che la corsa verso la superintelligenza non sta arrivando, è già qui. L’umanità deve confrontarsi con ciò che questo significa.

Leggi di più su www.artificialintelligence-news.com

Articoli correlati

Share via
Copy link