Google ha introdotto un meccanismo di controllo del ragionamento dell’intelligenza artificiale per il suo modello Gemini 2.5 Flash che consente agli sviluppatori di limitare la potenza di elaborazione che il sistema impiega per la risoluzione dei problemi.
Rilasciata il 17 aprile, questa funzione di “budget di pensiero” risponde a una sfida crescente del settore: i modelli avanzati di intelligenza artificiale spesso analizzano in modo eccessivo le query più semplici, consumando risorse di calcolo non necessarie e aumentando i costi operativi e ambientali.
Pur non essendo rivoluzionario, questo sviluppo rappresenta un passo concreto verso la risoluzione dei problemi di efficienza emersi man mano che le capacità di ragionamento diventano standard nei software di IA commerciali.
Il nuovo meccanismo consente di calibrare con precisione le risorse di elaborazione prima di generare le risposte, cambiando potenzialmente il modo in cui le organizzazioni gestiscono gli impatti finanziari e ambientali dell’impiego dell’IA.
“Il modello ragiona in modo eccessivo”, riconosce Tulsee Doshi, Direttore del Product Management di Gemini. “Per semplici richieste, il modello pensa più del necessario”
Questa ammissione rivela la sfida che i modelli di ragionamento avanzati devono affrontare: l’equivalente di usare un macchinario industriale per rompere una noce.
Il passaggio alle capacità di ragionamento ha creato conseguenze indesiderate. Mentre i tradizionali modelli linguistici di grandi dimensioni si basavano principalmente sui modelli dei dati di formazione, le nuove versioni cercano di risolvere i problemi in modo logico, passo dopo passo. Se da un lato questo approccio produce risultati migliori per le attività complesse, dall’altro introduce una significativa inefficienza nella gestione delle interrogazioni più semplici.
Bilanciare costi e prestazioni
Le implicazioni finanziarie di un ragionamento dell’intelligenza artificiale non controllato sono notevoli. Secondo la documentazione tecnica di Google, quando viene attivato il ragionamento completo, la generazione di output diventa circa sei volte più costosa rispetto all’elaborazione standard. Il moltiplicatore dei costi crea un potente incentivo per un controllo preciso.
Nathan Habib, un ingegnere di Hugging Face che studia i modelli di ragionamento, descrive il problema come endemico in tutto il settore. “Nella fretta di mostrare un’intelligenza artificiale più intelligente, le aziende cercano di usare i modelli di ragionamento come martelli anche quando non ci sono chiodi in vista”, ha spiegato al MIT Technology Review.
Lo spreco non è solo teorico. Habib ha dimostrato come un importante modello di ragionamento, nel tentativo di risolvere un problema di chimica organica, sia rimasto intrappolato in un ciclo ricorsivo, ripetendo “Aspetta, ma…” centinaia di volte – essenzialmente subendo un crollo computazionale e consumando risorse di elaborazione.
Kate Olszewska, che valuta i modelli Gemini presso DeepMind, ha confermato che i sistemi di Google a volte presentano problemi simili, rimanendo bloccati in loop che prosciugano la potenza di calcolo senza migliorare la qualità delle risposte.
Meccanismo di controllo granulare
Il controllo del ragionamento dell’intelligenza artificiale di Google offre agli sviluppatori un certo grado di precisione. Il sistema offre uno spettro flessibile che va da zero (ragionamento minimo) a 24.576 token di “budget di pensiero” – le unità di calcolo che rappresentano l’elaborazione interna del modello. L’approccio granulare consente un’implementazione personalizzata basata su casi d’uso specifici.
Jack Rae, ricercatore principale di DeepMind, afferma che la definizione dei livelli di ragionamento ottimali rimane una sfida: “È davvero difficile tracciare un confine su quale sia il compito perfetto in questo momento per il pensiero”
Cambiamento della filosofia di sviluppo
L’introduzione del controllo del ragionamento dell’intelligenza artificiale segna potenzialmente un cambiamento nel modo in cui l’intelligenza artificiale si evolve. Dal 2019, le aziende hanno cercato di migliorare costruendo modelli più grandi con più parametri e dati di addestramento. L’approccio di Google suggerisce un percorso alternativo incentrato sull’efficienza piuttosto che sulla scala.
“Le leggi di scala vengono sostituite”, afferma Habib, indicando che i progressi futuri potrebbero emergere dall’ottimizzazione dei processi di ragionamento piuttosto che dalla continua espansione delle dimensioni dei modelli.
Le implicazioni ambientali sono altrettanto significative. Con la proliferazione dei modelli di ragionamento, il loro consumo energetico cresce in proporzione. La ricerca indica che l’inferenza, ossia la generazione di risposte dell’intelligenza artificiale, contribuisce all’impronta di carbonio della tecnologia più del processo di formazione iniziale. Il meccanismo di controllo del ragionamento di Google offre un potenziale fattore di attenuazione di questa tendenza preoccupante.
Dinamiche competitive
Google non opera in modo isolato. Il modello “open weight” DeepSeek R1, emerso all’inizio di quest’anno, ha dimostrato potenti capacità di ragionamento a costi potenzialmente inferiori, scatenando la volatilità del mercato che, secondo quanto riferito, ha causato una fluttuazione del mercato azionario di quasi mille miliardi di dollari.
A differenza dell’approccio proprietario di Google, DeepSeek rende pubbliche le sue impostazioni interne per consentire agli sviluppatori di implementarle localmente.
Nonostante la concorrenza, il responsabile tecnico di Google DeepMind, Koray Kavukcuoglu, sostiene che i modelli proprietari manterranno i vantaggi nei settori specializzati che richiedono una precisione eccezionale: “La codifica, la matematica e la finanza sono casi in cui ci si aspetta che il modello sia molto accurato, preciso e in grado di comprendere situazioni davvero complesse”
Segnali di maturazione del settore
Lo sviluppo del controllo del ragionamento dell’intelligenza artificiale riflette un settore che si sta confrontando con limiti pratici che vanno oltre i parametri tecnici. Mentre le aziende continuano a spingere le capacità di ragionamento, l’approccio di Google riconosce una realtà importante: l’efficienza conta quanto le prestazioni grezze nelle applicazioni commerciali.
La funzione evidenzia anche le tensioni tra il progresso tecnologico e le preoccupazioni per la sostenibilità. Le classifiche che monitorano le prestazioni dei modelli di ragionamento mostrano che il completamento di singoli compiti può costare fino a 200 dollari, sollevando dubbi sulla scalabilità di tali capacità negli ambienti di produzione.
Consentendo agli sviluppatori di aumentare o diminuire il livello di ragionamento in base alle effettive necessità, Google affronta sia gli aspetti finanziari che quelli ambientali della diffusione dell’intelligenza artificiale.
“Il ragionamento è la capacità chiave che costruisce l’intelligenza”, afferma Kavukcuoglu. “Nel momento in cui il modello inizia a ragionare, l’agenzia del modello ha inizio” Questa affermazione rivela sia la promessa che la sfida dei modelli di ragionamento: la loro autonomia crea sia opportunità che sfide nella gestione delle risorse.
Per le organizzazioni che implementano soluzioni di IA, la possibilità di mettere a punto i budget per il ragionamento potrebbe democratizzare l’accesso a capacità avanzate, mantenendo al contempo la disciplina operativa.
Google sostiene che Gemini 2.5 Flash offre “metriche paragonabili a quelle di altri modelli leader per una frazione del costo e delle dimensioni” – una proposta di valore rafforzata dalla possibilità di ottimizzare le risorse di ragionamento per applicazioni specifiche.
Implicazioni pratiche
La funzione di controllo del ragionamento dell’intelligenza artificiale ha applicazioni pratiche immediate. Gli sviluppatori che realizzano applicazioni commerciali possono ora fare compromessi consapevoli tra profondità di elaborazione e costi operativi.
Per le applicazioni più semplici, come le interrogazioni di base dei clienti, le impostazioni di ragionamento minime consentono di preservare le risorse e di sfruttare le capacità del modello. Per le analisi complesse che richiedono una comprensione profonda, è disponibile l’intera capacità di ragionamento.
Il “quadrante” del ragionamento di Google fornisce un meccanismo per stabilire la certezza dei costi mantenendo gli standard di prestazione.
Leggi di più su www.artificialintelligence-news.com

Consulente di comunicazione, social media, SEO ed e-commerce. Grafico, web designer, impaginatore, copertinista e addentrato quanto basta in tutto ciò che riguarda l’Internet. Appassionato di narrativa, arti visive e cinema di menare. Nerd. Gamer.
Vivo e lavoro come freelancer in provincia di Taranto.