A quanto pare, non è così difficile fare quello che fa OpenAI, a un costo inferiore

 

Anche se OpenAI continua a sostenere che l’unica strada per l’AGI è rappresentata da ingenti spese finanziarie ed energetiche, i ricercatori indipendenti stanno sfruttando le tecnologie open-source per eguagliare le prestazioni dei suoi modelli più potenti – e lo fanno a una frazione del prezzo.

Venerdì scorso, un team unificato dell’Università di Stanford e dell’Università di Washington ha annunciato di aver addestrato un modello linguistico di grandi dimensioni incentrato sulla matematica e sulla codifica che ha prestazioni pari a quelle dei modelli di ragionamento o1 di OpenAI e R1 di DeepSeek. La costruzione del modello è costata solo 50 dollari in crediti di calcolo nel cloud. Secondo quanto riferito, il team ha utilizzato un modello di base già pronto, per poi distillare il modello Gemini 2.0 Flash Thinking Experimental di Google. Il processo di distillazione delle IA consiste nell’estrarre le informazioni rilevanti per portare a termine un compito specifico da un modello di IA più grande e trasferirle a uno più piccolo.

Inoltre, martedì i ricercatori di Hugging Face hanno rilasciato un concorrente degli strumenti Deep Research di OpenAI e Deep Research di Google Gemini (anch’esso), chiamato Open Deep Research, che hanno sviluppato in sole 24 ore. “Mentre i potenti LLM sono ora liberamente disponibili in open-source, OpenAI non ha rivelato molto sul framework agenziale alla base di Deep Research”, ha scritto Hugging Face nel suo post di annuncio. “Abbiamo quindi deciso di imbarcarci in una missione di 24 ore per riprodurre i loro risultati e rendere open-source il framework necessario” Secondo quanto riportato, l’addestramento costerebbe circa 20 dollari in crediti di calcolo cloud e richiederebbe meno di 30 minuti.

Il modello di Hugging Face ha poi ottenuto un’accuratezza del 55% nel benchmark General AI Assistants (GAIA), utilizzato per testare le capacità dei sistemi di intelligenza artificiale agici. In confronto, Deep Research di OpenAI ha ottenuto un’accuratezza compresa tra il 67 e il 73%, a seconda delle metodologie di risposta. Certo, il modello di 24 ore non ha le stesse prestazioni dell’offerta di OpenAI, ma non ha nemmeno richiesto miliardi di dollari e la capacità di produzione di energia di una nazione europea di medie dimensioni per essere addestrato.

Questi sforzi seguono la notizia di gennaio secondo cui un team dello Sky Computing Lab dell’Università della California, Berkeley, è riuscito ad addestrare il proprio modello di ragionamento Sky T1 con circa 450 dollari di crediti di calcolo cloud. Il modello Sky-T1-32B-Preview del team si è dimostrato all’altezza dei primi modelli di ragionamento rilasciati da o1-preview. Con l’emergere di altri concorrenti open-source al dominio di OpenAI, la loro semplice esistenza mette in dubbio che il piano dell’azienda di spendere mezzo trilione di dollari per costruire centri dati AI e impianti di produzione di energia sia davvero la risposta.

Leggi di più su www.digitaltrends.com

Articoli correlati

Share via
Copy link