AI nelle banche: vigilanza reale o un nuovo fallimento opaco?

Il settore bancario sta delegando la sorveglianza dei mercati a una nuova generazione di “AI agentica”, con giganti come Goldman Sachs e Deutsche Bank in prima linea nel testare sistemi capaci di ragionare autonomamente sui flussi di dati per scovare illeciti finanziari, sollevando però dubbi sull’effettiva capacità di queste macchine di sostituire il discernimento umano in contesti normativi complessi.

Secondo quanto riportato da Artificialintelligence-news, il panorama della vigilanza finanziaria sta subendo una trasformazione radicale: si sta passando da sistemi statici, basati su regole rigide e soglie numeriche, a entità software definite “agenti” che operano con un grado inedito di indipendenza. Sebbene l’obiettivo dichiarato sia quello di ridurre il rumore di fondo dei falsi positivi e identificare anomalie comportamentali che sfuggono ai controlli tradizionali, l’entusiasmo delle banche per l’intelligenza artificiale generativa applicata al trading nasconde diverse insidie. L’idea che un algoritmo possa “comprendere” l’intento malevolo dietro una transazione complessa è una scommessa tecnologica che mette a dura prova i concetti di trasparenza e responsabilità. Se un sistema non si limita a eseguire istruzioni, ma decide autonomamente quali dati correlare, chi garantisce la spiegabilità delle sue decisioni di fronte alle autorità di regolamentazione?

L’illusione dell’efficienza tra Deutsche Bank e Google Cloud

Deutsche Bank, in collaborazione con Google Cloud, sta sviluppando agenti AI per setacciare enormi volumi di dati su ordini ed esecuzioni in tempo reale. Il presupposto è che l’AI possa rilevare “anomalie complesse” analizzando la relazione tra tempi, condizioni di mercato e storia del trader. Tuttavia, questa corsa all’automazione solleva critiche sulla natura stessa della conformità. Affidarsi a modelli linguistici di grandi dimensioni (LLM) per monitorare dati strutturati e non strutturati significa introdurre un elemento di opacità: questi strumenti possono identificare correlazioni statistiche che non corrispondono necessariamente a violazioni reali, appesantendo paradossalmente il lavoro dei team umani che rimangono, per legge, gli unici responsabili finali. La collaborazione con i colossi del cloud, pur offrendo potenza di calcolo, sposta ulteriormente il controllo delle infrastrutture critiche di vigilanza verso fornitori esterni.

Goldman Sachs e l’azzardo dell’agente indipendente

Anche Goldman Sachs sta integrando l’AI agentica nei suoi sistemi di rischio, puntando su software capaci di agire in modo proattivo. A differenza della vecchia sorveglianza, che attendeva un segnale di allarme per attivarsi, questi agenti sono progettati per “ragionare” attraverso diversi segnali e decidere quale pista seguire. Questo approccio critico mette in luce una vulnerabilità sistemica: la creazione di un “black box” digitale dove le logiche di rilevamento diventano così fluide da risultare difficili da sottoporre ad audit. Sebbene le banche sostengano che l’AI serva solo a filtrare il carico di lavoro, il rischio concreto è un indebolimento della supervisione diretta, dove il personale umano finisce per fidarsi pedissequamente delle priorità stabilite da una macchina programmata per massimizzare l’efficienza a scapito della comprensione contestuale.

Le criticità di un sistema senza guida umana costante

Il passaggio alla cosiddetta “AI agentica” rappresenta un salto nel buio per quanto riguarda la governance dei modelli. Le sfide principali rimangono irrisolte:

  • Bias e discriminazione: Gli agenti potrebbero imparare a penalizzare determinati stili di trading legali solo perché non rientrano nei pattern prevalenti del dataset di addestramento.
  • Responsabilità legale: In caso di mancata rilevazione di uno scandalo finanziario, la colpa ricadrà sull’algoritmo o sulla dirigenza che ha scelto di affidarsi a esso?
  • Adattamento dei criminali: I manipolatori di mercato potrebbero studiare le risposte degli agenti AI per sviluppare tattiche capaci di mimetizzarsi perfettamente tra i nuovi parametri “ragionati” dalla macchina.

Articoli correlati

Share via
Copy link