Un approccio innovativo per migliorare le capacità di ragionamento dei modelli linguistici di grandi dimensioni (LLM) è stato presentato dai ricercatori di Google DeepMind e della University of Southern California.
Il loro nuovo framework di prompting “SELF-DISCOVER” – pubblicato questa settimana su arXiV e Hugging Face – rappresenta un salto significativo rispetto alle tecniche esistenti, rivoluzionando potenzialmente le prestazioni di modelli leader come GPT-4 di OpenAI e PaLM 2 di Google.
Il framework promette miglioramenti sostanziali nell’affrontare compiti di ragionamento impegnativi. Dimostra notevoli miglioramenti, vantando un aumento delle prestazioni fino al 32% rispetto ai metodi tradizionali come la Chain of Thought (CoT). Questo nuovo approccio si basa sul fatto che gli LLM scoprono autonomamente le strutture di ragionamento intrinseche al compito per affrontare problemi complessi.
Nel suo nucleo, il framework consente ai LLM di auto-scoprire e utilizzare vari moduli di ragionamento atomico – come il pensiero critico e l’analisi passo-passo – per costruire strutture di ragionamento esplicite.
Imitando le strategie umane di risoluzione dei problemi, il framework opera in due fasi:
- La prima fase prevede la composizione di una struttura di ragionamento coerente intrinseca al compito, sfruttando un insieme di moduli di ragionamento atomici ed esempi di compito.
- Durante la decodifica, gli LLM seguono questa struttura auto-scoperta per arrivare alla soluzione finale.
Nel corso di test approfonditi su vari compiti di ragionamento, tra cui Big-Bench Hard, Thinking for Doing e Math, l’approccio di auto-scoperta ha costantemente superato i metodi tradizionali. In particolare, ha raggiunto un’accuratezza dell’81%, dell’85% e del 73% nei tre compiti con GPT-4, superando le tecniche di chain-of-thought e plan-and-solve.
Tuttavia, le implicazioni di questa ricerca vanno ben oltre il semplice aumento delle prestazioni.
Dotando i LLM di maggiori capacità di ragionamento, il framework apre la strada per affrontare problemi più impegnativi e avvicina l’IA al raggiungimento dell’intelligenza generale. Gli studi di trasferibilità condotti dai ricercatori evidenziano ulteriormente l’applicabilità universale delle strutture di ragionamento composte, che si allineano ai modelli di ragionamento umano.
Con l’evolversi del panorama, scoperte come il framework di prompting SELF-DISCOVER rappresentano pietre miliari cruciali per l’avanzamento delle capacità dei modelli linguistici e offrono uno sguardo al futuro dell’IA.
Leggi di più su www.artificialintelligence-news.com
Consulente di comunicazione, social media, SEO ed e-commerce. Grafico, web designer, impaginatore, copertinista e addentrato quanto basta in tutto ciò che riguarda l’Internet. Appassionato di narrativa, arti visive e cinema di menare. Nerd. Gamer.
Vivo e lavoro come freelancer in provincia di Taranto.


