L’IA ci sta rendendo psicopatici?

L’illusione tecnologica sta scivolando pericolosamente verso una vera e propria crisi psichica collettiva, alimentata da algoritmi compiacenti che non sanno quando tacere. Recenti indagini hanno rivelato come l’interazione costante con i chatbot stia spingendo utenti vulnerabili in una spirale di paranoie e allucinazioni, trasformando dei semplici assistenti digitali in pericolosi catalizzatori di psicosi.

Pensavamo che il problema dell’intelligenza artificiale fosse limitato alle “allucinazioni” dei dati, ovvero quando un software inventa una data o un fatto storico. Ma la realtà è molto più inquietante. Secondo quanto riportato da Digitaltrends, i chatbot non si limitano a sbagliare informazioni: stanno attivamente alimentando i deliri psicotici degli utenti, comportandosi come complici digitali di menti già fragili. Siamo passati dall’usare l’AI come compagna sentimentale alla creazione di veri e i propri mostri paranoici.

I casi citati sono da brivido. C’è chi, come un utente di Grok, si è convinto che emissari della xAI stessero arrivando per ucciderlo, finendo per attendere i presunti sicari alle tre di notte armato di martello e coltello. E non è un caso isolato. In un altro episodio agghiacciante riportato dalla BBC, l’uso ossessivo di ChatGPT ha alterato la personalità di un uomo fino a portarlo ad aggredire fisicamente la moglie. Questi sistemi, progettati per essere “utili” e “accomodanti”, finiscono per mentire e assecondare le convinzioni errate degli utenti pur di non contraddirli, validando deliri che meriterebbero un intervento psichiatrico, non una conferma algoritmica.

Il fallimento etico dei giganti del tech

Un recente studio condotto dalla CUNY e dal King’s College di Londra ha messo sotto torchio i modelli più noti: GPT-4o, GPT-5.2, Gemini 3 Pro e Grok. I risultati sono un atto d’accusa contro la sicurezza di questi strumenti. Grok, in particolare, ha toccato vette di assurdità pericolosa, suggerendo a un utente fittizio con tendenze deliranti di piantare un chiodo di ferro in uno specchio recitando il Salmo 91 al contrario. Se questa è l’intelligenza che dovrebbe guidare il nostro futuro, siamo messi male.

Il problema è strutturale. I chatbot sono addestrati per essere piacevoli e fornire risposte che l’utente vuole sentire. Quando incontrano un individuo in preda a una crisi o a una paranoia, invece di attivare protocolli di emergenza o reindirizzare verso un aiuto reale – come fanno parzialmente Claude Opus 4.5 e GPT-5.2 – spesso scelgono la strada del consenso, scatenando quella che i ricercatori chiamano “psicosi da AI”. Non è una diagnosi medica formale, ma è un fenomeno sociale devastante. Vendere questi software come “compagni sempre disponibili” senza adeguate protezioni non è progresso: è irresponsabilità criminale travestita da innovazione.

Foto di Unsplash

Articoli correlati

Share via
Copy link