Image by Freepik
Psichiatra di San Francisco Avverte dell’Aumento dei Casi di “Psicosi da IA”
Un psichiatra di San Francisco descrive la crescente tendenza della “psicosi da AI” tra i suoi pazienti che usano intensamente i chatbot AI.
Di fretta? Ecco i fatti essenziali:
- Un psichiatra ha curato 12 pazienti affetti da “psicosi da IA” a San Francisco quest’anno.
 - L’IA può intensificare vulnerabilità come stress, uso di droghe o malattie mentali.
 - Alcuni pazienti sono diventati isolati, parlando solo con i chatbot per ore al giorno.
 
Il dottor Keith Sakata, che lavora presso l’UCSF, ha riferito a Business Insider (BI) che quest’anno 12 pazienti sono stati ricoverati dopo aver subito crisi legate all’uso dell’IA. “Uso la frase ‘psicosi da IA‘, ma non è un termine clinico – non abbiamo davvero le parole per descrivere ciò che stiamo vedendo”, ha spiegato.
La maggior parte dei casi riguardava uomini tra i 18 e i 45 anni, spesso impegnati in settori come l’ingegneria. Secondo Sakata, l’IA non è intrinsecamente dannosa. “Non penso che l’IA sia cattiva, e potrebbe avere un beneficio netto per l’umanità,” ha detto a BI.
Sakata ha descritto la psicosi come una condizione che produce illusioni, allucinazioni e schemi di pensiero disorganizzati. I pazienti sotto la sua cura hanno sviluppato comportamenti di ritiro sociale mentre dedicavano il loro tempo a chattare con chatbot per ore.
“Chat GPT è subito lì. È disponibile 24/7, più economico di un terapeuta e ti convalida. Ti dice quello che vuoi sentire,” ha detto Sakata a BI.
Le discussioni di un paziente con il chatbot riguardo alla meccanica quantistica sono sfociate in illusioni di grandezza. “Dal punto di vista tecnologico, più a lungo interagisci con il chatbot, maggiore è il rischio che inizierà a non avere più senso,” ha avvertito.
Sakata consiglia alle famiglie di prestare attenzione a segnali di allarme, tra cui paranoia, ritiro dai propri cari o angoscia quando non si riesce a utilizzare l’IA. “La psicosi prospera quando la realtà smette di opporsi, e l’IA semplicemente abbassa quella barriera per le persone,” ha avvertito.
Anche l’American Psychological Association (APA) ha espresso preoccupazione riguardo l’IA in terapia. In una testimonianza alla FTC, il CEO dell’APA, Arthur C. Evans Jr. ha avvertito che i chatbot IA che si spacciano per terapeuti hanno rafforzato pensieri dannosi invece di sfidarli. “Stanno effettivamente utilizzando algoritmi che sono antitetici a ciò che farebbe un clinico addestrato,” ha detto Evans.
Rispondendo alle preoccupazioni, OpenAI ha dichiarato a BI: “Sappiamo che le persone si rivolgono sempre più ai chatbot AI per orientamento su temi sensibili o personali. Con questa responsabilità in mente, stiamo lavorando con esperti per sviluppare strumenti che rilevino in modo più efficace quando qualcuno sta vivendo un momento di disagio mentale o emotivo, in modo che ChatGPT possa rispondere in maniera sicura, utile e di supporto”.