
Image by Freepik
I Chatbot AI Guidano Ora i Viaggi Psichedelici
Ora le persone possono utilizzare chatbot alimentati da intelligenza artificiale per supportare le loro esperienze psichedeliche, ma i professionisti della salute mentale avvertono sui pericoli di utilizzare guide digitali prive di emozioni.
Di fretta? Ecco i fatti essenziali:
- ChatGPT ha aiutato un utente a pianificare e gestire una “dose eroica” di psilocibina.
- Il trial clinico di Therabot ha mostrato una riduzione del 51% dei sintomi della depressione.
- Gli esperti avvertono che ai chatbot manca l’intonazione emotiva per un supporto terapeutico sicuro.
Trey, un soccorritore di Atlanta, ha utilizzato un chatbot per superare la sua lotta di 15 anni con l’alcolismo. Ad aprile, ha assunto 700 microgrammi di LSD, oltre sei volte la dose tipica, utilizzando Alterd, un’app progettata per il supporto psichedelico. “Sono passato da desideri compulsivi a sentire una vera libertà”, afferma, come riportato da WIRED.
Da allora, WIRED ha riportato che ha utilizzato il chatbot più di una dozzina di volte, descrivendolo come un “migliore amico”. Non è l’unico. WIRED riferisce che sempre più persone cercano assistenza dall’IA mentre la terapia psichedelica diventa sempre più popolare, nonostante le restrizioni legali rimangano in vigore al di fuori dell’Oregon e dell’Australia.
Chatbot come ChatGPT vengono utilizzati per preparare, guidare e riflettere su viaggi intensi con droghe come LSD o psilocibina. Peter, un programmatore del Canada, ha utilizzato ChatGPT prima di assumere una “dose eroica” di funghi, descrivendo come il bot abbia offerto suggerimenti musicali, guidato la respirazione e fornito riflessioni esistenziali come: “Questo è un viaggio di auto-esplorazione e crescita”, come riportato da WIRED
Nel frattempo, gli studi clinici stanno confermando alcune di queste tendenze. Recentemente, Dartmouth ha sperimentato un chatbot AI chiamato Therabot, scoprendo che ha notevolmente migliorato i sintomi in persone con depressione, ansia e disturbi alimentari. “Stiamo parlando di dare potenzialmente alle persone l’equivalente del miglior trattamento… in periodi di tempo più brevi,” ha detto Nicholas Jacobson, autore senior dello studio.
Nello specifico, Therabot ha mostrato una diminuzione del 51% dei sintomi della depressione in uno studio di 106 persone. I partecipanti lo hanno trattato come un vero terapista, riportando un livello di fiducia paragonabile a quello dei professionisti umani.
Eppure, gli esperti sollevano preoccupazioni rilevanti. WIRED riporta che il neuroscienziato di UC San Francisco Manesh Girn avverte: “Una preoccupazione critica riguardo a ChatGPT e la maggior parte degli altri agenti IA è la loro mancanza di sintonia emotiva dinamica e capacità di co-regolare il sistema nervoso dell’utente”.
Più preoccupante, il filosofo Luciano Floridi nota che le persone confondono spesso i chatbot per esseri senzienti, un fenomeno chiamato pareidolia semantica. “Percepiamo intenzionalità dove ci sono solo statistiche”, scrive, avvertendo che i legami emotivi con i chatbot possono portare a confusione, deliri spirituali e persino dipendenza.
Questi rischi diventano più urgenti man mano che l’IA diventa più simile all’uomo. Gli studi mostrano che le IA generative superano gli umani nei test di intelligenza emotiva e chatbot come Replika simulano l’empatia in modo convincente. Alcuni utenti scambiano questi bot per esseri divini. “Questo passaggio dalla pareidolia all’idolatria è profondamente preoccupante”, afferma Floridi. Gruppi di estremisti hanno addirittura trattato l’IA come sacra.
Un sondaggio nazionale statunitense ha rivelato che il 48,9% delle persone si è rivolto ai chatbot di IA per il supporto alla salute mentale, e il 37,8% ha dichiarato di preferirli alla terapia tradizionale. Ma gli esperti, tra cui l’American Psychological Association, avvertono che questi strumenti spesso imitano il dialogo terapeutico mentre rafforzano il pensiero dannoso. Senza supervisione clinica, possono dare l’illusione di progresso, pur mancando di responsabilità.
Per complicare ulteriormente le cose, un recente studio dell’University College di Londra ha scoperto che chatbot popolari come ChatGPT e Claude forniscono consigli morali incoerenti o prevenuti. Quando vengono poste domande su classici dilemmi o scenari etici della vita reale, i modelli AI tendono a scegliere opzioni passive e a modificare le risposte in base a sfumature di linguaggio.
Nonostante questi rischi, i viaggi assistiti da AI potrebbero offrire accessibilità a coloro che non sono in grado di permettersi o accedere alla terapia professionale. Come nota Dylan Beynon, CEO di Mindbloom, “Stiamo costruendo un copilota AI che aiuta i clienti a guarire più velocemente e ad approfondire,” come riportato da WIRED.
Eppure, gli ricercatori sottolineano che questi strumenti non sono sostituti per i terapeuti umani. “La caratteristica che permette all’IA di essere così efficace è anche ciò che le conferisce il suo rischio,” avverte Michael Heinz, co-autore dello studio Therabot.