IA: sovrastima razionalità umana, limiti predittivi.

Uno studio recente illumina come i modelli di intelligenza artificiale, inclusi giganti come ChatGPT e Claude, mostrino un bias verso una razionalità umana sovrastimata nelle decisioni strategiche, svelando una lacuna significativa nella loro capacità di prevedere accuratamente il comportamento in scenari economici reali e sollevando interrogativi sulla validità delle loro applicazioni predittive.

Secondo quanto riportato da Digitaltrends, una nuova indagine ha rivelato una propensione dei modelli di intelligenza artificiale a un ottimismo eccessivo riguardo la razionalità del comportamento umano. La ricerca evidenzia che sistemi di IA predominanti, come ChatGPT di OpenAI e Claude di Anthropic, partono dal presupposto che gli individui agiscano con un grado di logica e razionalità superiore a quello che si verifica effettivamente, specialmente in contesti che richiedono un pensiero strategico complesso. Questa discrasia tra le proiezioni dell’IA e le dinamiche comportamentali umane concrete potrebbe avere ripercussioni profonde sull’affidabilità di questi sistemi nel prevedere le scelte umane in ambiti economici e non solo.

Analisi della Disparità tra IA e Cognizione Umana

Per indagare le capacità dei modelli di IA, quali ChatGPT-4o e Claude-Sonnet-4, è stato impiegato il concorso di bellezza keynesiano, un classico strumento della teoria dei giochi. La comprensione di questo paradigma è cruciale: il gioco richiede ai partecipanti di anticipare le scelte altrui per vincere, piuttosto che esprimere una preferenza personale diretta. Teoricamente, un approccio razionale implica un’analisi stratificata, superando le impressioni iniziali per ragionare sul processo decisionale degli altri. Questo livello di pensiero strategico profondo, tuttavia, spesso si rivela una sfida per la maggior parte degli esseri umani nella pratica.

Nel contesto dello studio, i ricercatori hanno sottoposto i modelli di IA a una variante del gioco, denominata “Indovina il Numero”, in cui ogni partecipante seleziona un numero compreso tra zero e cento. Il vincitore è colui il cui numero è più prossimo alla metà della media di tutte le scelte. I modelli di IA sono stati istruiti fornendo descrizioni dei loro avversari umani, che variavano da studenti universitari a esperti di teoria dei giochi. Oltre a scegliere un numero, è stato richiesto loro di esplicitare il proprio processo decisionale.

I modelli hanno dimostrato la capacità di modulare le proprie scelte in relazione al profilo dell’avversario percepito, esibendo un certo grado di pensiero strategico. Tuttavia, hanno sistematicamente sovrastimato il livello di ragionamento logico negli esseri umani, un presupposto raramente convalidato dal comportamento dei giocatori reali. Questa tendenza ha portato i modelli a “giocare con eccessiva intelligenza”, risultando spesso in previsioni errate.

Sebbene lo studio abbia anche evidenziato la capacità di questi sistemi di adattare le decisioni in base a variabili come l’età o l’esperienza, persistono difficoltà nell’identificare le strategie dominanti che gli umani potrebbero adottare in giochi a due giocatori. I ricercatori interpretano ciò come un’indicazione della persistente sfida nel calibrare l’IA alle sfumature del comportamento umano reale, specialmente in compiti che richiedono l’anticipazione delle decisioni altrui. Questi esiti si allineano con preoccupazioni più ampie relative agli attuali chatbot, inclusa la ricerca che attesta come anche i migliori sistemi di IA siano precisi solo al 69%, e gli avvertimenti degli esperti circa la capacità dei modelli di IA di imitare in modo convincente la personalità umana, sollevando questioni etiche sulla manipolazione. Mentre l’IA continua a espandere il suo impiego nella modellazione economica e in altri domini complessi, sarà imperativo comprendere dove le sue assunzioni divergono dalla realtà dell’esperienza umana.

Articoli correlati

Share via
Copy link