OpenAI apre agli sviluppatori l’accesso all’intero modello di ragionamento di o1

Nel nono giorno del blitz stampa natalizio di OpenAI, l’azienda ha annunciato che sta rilasciando la versione completa del modello di ragionamento o1 a sviluppatori selezionati attraverso le API dell’azienda. Fino alla notizia di martedì, gli sviluppatori potevano accedere solo al modello o1-preview, meno performante.

Secondo l’azienda, il modello o1 completo inizierà ad essere distribuito agli utenti della categoria di sviluppatori “Tier 5” di OpenAI. Si tratta di utenti che hanno un account da più di un mese e che spendono almeno 1.000 dollari con l’azienda. Il nuovo servizio è particolarmente costoso per gli utenti (a causa delle risorse di calcolo aggiuntive che o1 richiede): costa 15 dollari per ogni (circa) 750.000 parole analizzate e 60 dollari per ogni (circa) 750.000 parole generate dal modello. Si tratta di un costo tre o quattro volte superiore a quello necessario per eseguire le stesse operazioni con GPT-4o.

A questi prezzi, OpenAI si è assicurata di migliorare le capacità del modello completo rispetto all’iterazione di anteprima. Il nuovo modello o1 è più personalizzabile rispetto al suo predecessore (il nuovo parametro “reasoning_effort” stabilisce per quanto tempo l’IA riflette su una determinata domanda) e offre la possibilità di chiamare funzioni, di inviare messaggi agli sviluppatori e di analizzare le immagini, tutti elementi che mancavano nell’anteprima di o1.

L’azienda ha anche annunciato che sta incorporando i modelli GPT-4o e 4o-mini nella sua API Realtime, che è stata sviluppata per le applicazioni di IA vocale a bassa latenza (come l’Advanced Voice Mode). L’API supporta anche WebRTC, lo standard aperto del settore per lo sviluppo di applicazioni vocal-AI nei browser web, quindi preparati ad avere molti più siti web che cercheranno di parlare con te a partire dal 2025.

“La nostra integrazione WebRTC è progettata per consentire interazioni fluide e reattive in condizioni reali, anche con una qualità di rete variabile”, ha scritto OpenAI nel suo annuncio. “Gestisce la codifica audio, lo streaming, la soppressione del rumore e il controllo della congestione”

Finora, nell’ambito dell’evento live-stream, OpenAI ha presentato la versione completa di o1 (oltre all’annuncio di martedì), ha rilasciato il modello di generazione video Sora, ha presentato la nuova funzione Projects e ha fornito diversi aggiornamenti alle funzioni Canvas, Search e Advanced Voice Mode.

A soli tre giorni dalla conclusione dell’evento, cosa mostrerà OpenAI? Non ci resta che aspettare e vedere.

 

 

Leggi di più su www.digitaltrends.com

Articoli correlati

Share via
Copy link