La crescita dei contenuti generativi dell’intelligenza artificiale è stata rapida e continuerà a guadagnare slancio man mano che un numero sempre maggiore di gestori ed editori del web cercheranno di massimizzare l’ottimizzazione e di ottimizzare la produttività attraverso strumenti digitali avanzati.
Ma cosa succede quando i contenuti dell’intelligenza artificiale superano l’input umano? Che ne sarà di Internet quando tutto sarà solo una copia di una copia di una copia di un’immagine digitale dell’effettiva produzione umana?
Questa è la domanda che molti si stanno ponendo ora che le piattaforme social cercano di innalzare muri intorno ai loro dataset, lasciando le start-up di AI a caccia di nuovi input per i loro LLM.
X (ex Twitter), ad esempio, ha aumentato il prezzo di accesso alle sue API per impedire alle piattaforme di intelligenza artificiale di utilizzare i post di X, mentre sviluppa il proprio modello “Grok” basato sugli stessi. Meta ha da tempo limitato l’accesso alle API, ancor più dopo il disastro di Cambridge Analytica, e sta anche pubblicizzando il suo impareggiabile pool di dati per alimentare il suo Llama LLM.
Google ha recentemente stretto un accordo con Reddit per incorporare i suoi dati nei suoi sistemi di intelligenza artificiale Gemini, e questa è un’altra strada che ci si può aspettare di vedere sempre più spesso, dato che le piattaforme social che non vogliono costruire i propri modelli di intelligenza artificiale cercano nuove vie di guadagno attraverso le loro intuizioni.
Il Wall Street Journal ha riportato oggi che OpenAI ha preso in considerazione la possibilità di addestrare il suo modello GPT-5 su trascrizioni di YouTube disponibili al pubblico, in seguito alla preoccupazione che la domanda di dati di addestramento di valore superi l’offerta entro due anni.
Si tratta di un problema significativo, perché sebbene i nuovi strumenti di IA siano in grado di produrre testi simili a quelli umani, praticamente su qualsiasi argomento, non si tratta ancora di “intelligenza” in quanto tale. Gli attuali modelli di IA utilizzano la logica della macchina e l’ipotesi derivata di collocare una parola dopo l’altra in sequenza, sulla base di esempi creati dall’uomo nel loro database. Ma questi sistemi non sono in grado di pensare da soli e non hanno alcuna consapevolezza del significato dei dati che producono. Si tratta di matematica avanzata, in forma testuale e visiva, definita da una logica sistematica.
Ciò significa che i LLM e gli strumenti di intelligenza artificiale costruiti su di essi, almeno al momento, non sostituiscono l’intelligenza umana.
Questa, ovviamente, è la promessa dell'”intelligenza artificiale generale” (AGI), sistemi in grado di replicare il modo in cui gli esseri umani pensano e di elaborare una propria logica e un proprio ragionamento per svolgere determinati compiti. Alcuni sostengono che questo non sia troppo lontano dall’essere una realtà, ma ancora una volta i sistemi a cui possiamo accedere attualmente non si avvicinano minimamente a ciò che l’AGI potrebbe teoricamente raggiungere.
È anche su questo punto che molti degli sconsiderati dell’IA sollevano preoccupazioni: una volta raggiunto un sistema che riproduce un cervello umano, potremmo renderci obsoleti, con una nuova intelligenza tecnologica destinata a prendere il sopravvento e a diventare la specie dominante sulla Terra.
Ma la maggior parte degli studiosi di IA non crede che siamo vicini a questa prossima svolta, nonostante quello che stiamo vedendo nell’attuale ondata di hype sull’IA.
Yann LeCun, Chief AI scientist di Meta, ha discusso di recente questa nozione nel podcast di Lex Friedman, sottolineando che non siamo ancora vicini all’intelligenza artificiale per una serie di motivi:
“Il primo è che esiste una serie di caratteristiche del comportamento intelligente. Ad esempio, la capacità di comprendere il mondo, di capire il mondo fisico, la capacità di ricordare e recuperare le cose, la memoria persistente, la capacità di ragionare e la capacità di pianificare. Queste sono quattro caratteristiche essenziali dei sistemi o delle entità intelligenti, degli esseri umani e degli animali. I LLM non sono in grado di fare nulla di tutto ciò, oppure lo fanno solo in modo molto primitivo”
LeCun afferma che la quantità di dati assunti dagli esseri umani va ben oltre i limiti dei LLM, che si affidano alle intuizioni umane derivate da internet.
“Vediamo molte più informazioni di quante ne ricaviamo dal linguaggio e, nonostante la nostra intuizione, la maggior parte di ciò che impariamo e la maggior parte della nostra conoscenza avviene attraverso l’osservazione e l’interazione con il mondo reale, non attraverso il linguaggio”
In altre parole, è la capacità interattiva la vera chiave dell’apprendimento, non la riproduzione del linguaggio. In questo senso, i LLM sono pappagalli evoluti, in grado di ripetere ciò che abbiamo detto. Ma non c’è un “cervello” in grado di comprendere tutte le considerazioni umane che stanno dietro a quel linguaggio.
Tenendo conto di ciò, per certi versi è un termine improprio chiamare questi strumenti “intelligenza” e probabilmente è uno dei fattori che contribuiscono alle cospirazioni sull’IA di cui sopra. Gli strumenti attuali necessitano di dati sulle nostre interazioni per poterle replicare, ma non esiste una logica adattiva che capisca cosa intendiamo quando poniamo loro delle domande.
Non è certo che i sistemi attuali siano un passo avanti verso l’intelligenza artificiale in questo senso, ma più che altro sono una nota a margine di uno sviluppo più ampio, ma ancora una volta, la sfida principale che devono affrontare è che man mano che un numero maggiore di contenuti web passa attraverso questi sistemi, i risultati effettivi che vediamo stanno diventando meno umani, il che sembra destinato a essere un cambiamento chiave in futuro.
Le piattaforme sociali stanno rendendo sempre più facile aumentare la tua personalità e le tue intuizioni con i risultati dell’intelligenza artificiale, utilizzando un plagio avanzato per presentarti come ciò che non sei.
È questo il futuro che vogliamo? È davvero un progresso?
In un certo senso, questi sistemi porteranno a progressi significativi nella scoperta e nel processo, ma l’effetto collaterale della creazione sistematica è che il colore dell’interazione digitale si sta esaurendo e, di conseguenza, potremmo trovarci in una situazione peggiore.
In sostanza, probabilmente assisteremo a una diluizione dell’interazione umana, al punto che dovremo mettere in discussione tutto. Questo spingerà sempre più persone ad abbandonare i post pubblici e a dedicarsi a chat private e chiuse, dove si conoscono e ci si fida degli altri partecipanti.
In altre parole, la corsa all’incorporazione di ciò che attualmente viene definito “AI” potrebbe finire per essere negativa e potrebbe vedere la parte “sociale” dei “social media” completamente compromessa.
Nel corso del tempo, quindi, i LLM avranno sempre meno input umani e si eroderanno le fondamenta stesse di questi sistemi.
Leggi di più su Social Media Today
Consulente di comunicazione, social media, SEO ed e-commerce. Grafico, web designer, impaginatore, copertinista e addentrato quanto basta in tutto ciò che riguarda l’Internet. Appassionato di narrativa, arti visive e cinema di menare. Nerd. Gamer.
Vivo e lavoro come freelancer in provincia di Taranto.