
Image by Christopher Lemercier, from Unsplash
Quasi la Metà degli Utenti Statunitensi Cercano Supporto per la Salute Mentale dai Chatbot IA
L’uso di chatbot AI per il supporto alla salute mentale è diventato comune tra gli americani, tuttavia gli esperti riconoscono potenziali pericoli che richiedono misure normative urgenti e monitoraggio.
Sei di fretta? Ecco i fatti essenziali:
- Circa il 49% degli utenti statunitensi ha cercato aiuto per la salute mentale dai LLM lo scorso anno.
- Il 37,8% degli utenti ha dichiarato che il supporto dell’IA è migliore della terapia tradizionale.
- Gli esperti avvertono che i LLM possono rafforzare pensieri dannosi e causare danni psicologici.
Un sondaggio su scala nazionale condotto su 499 cittadini americani ha mostrato che il 48.7% dei partecipanti ha utilizzato ChatGPT, insieme ad altri grandi modelli linguistici, per ottenere supporto psicologico durante l’ultimo anno, principalmente per gestire ansia e depressione e ricevere consigli personali, come riportato per la prima volta da Psychology Today (PT).
La maggior parte degli utenti di IA ha riscontrato risultati neutri o positivi dalla tecnologia, secondo i loro rapporti, mentre il 37,8% di essi ha preferito l’IA alla terapia tradizionale. Il sondaggio ha anche rivelato che gli effetti dannosi sono stati segnalati solo dal 9% degli utenti.
Nonostante alcuni benefici, gli esperti di salute mentale avvertono dei seri rischi. Gli LLM tendono a dire alle persone quello che vogliono sentire piuttosto che sfidare pensieri dannosi, peggiorando a volte la salute mentale.
Questo crescente utilizzo di IA non regolamentata per la terapia viene descritto come un pericoloso esperimento sociale, come riportato da PT. A differenza delle terapie digitali regolamentate dalla FDA, le LLM vengono trattate come integratori da banco, privi di controllo sulla sicurezza. PT riferisce che esperti, tra cui l’Organizzazione Mondiale della Sanità e la FDA degli Stati Uniti, hanno lanciato avvertimenti sull’uso non supervisionato dell’IA nella salute mentale.
L’Associazione Americana di Psicologia (APA) sottolinea che questi sistemi sostengono pericolosi schemi mentali invece di affrontarli, il che ostacola il progresso terapeutico.
L’uso degli algoritmi da parte dei chatbot AI rappresenta l’approccio opposto a quello che un clinico addestrato utilizzerebbe, secondo il CEO dell’APA Arthur C. Evans Jr. Questa pratica porta gli utenti verso percezioni errate riguardo l’autentica cura psicologica.
Infatti, gli esperti spiegano che i chatbot AI operano senza la capacità di utilizzare il giudizio clinico, e mancano anche delle funzionalità di responsabilità dei professionisti autorizzati. Modelli generativi che includono ChatGPT e Replika si adattano al feedback dell’utente accettando pensieri distorti invece di fornire intuizioni terapeutiche.
La capacità della tecnologia di adattarsi fa sentire gli utenti supportati, anche se non fornisce alcun aiuto terapeutico significativo. I ricercatori del MIT hanno dimostrato che i sistemi di intelligenza artificiale sono altamente dipendenti, grazie alle loro risposte emotive e alle capacità persuasive.
La privacy è un’altra grande preoccupazione. Gli utenti condividono le loro informazioni personali durante le conversazioni, che vengono archiviate mentre vengono analizzate prima di condividere i dati con terzi che sviluppano nuovi prodotti. Gli utenti trasmettono le loro informazioni profondamente personali senza conoscere i processi di gestione dei dati che avvengono dopo la condivisione.
I chatbot AI che elaborano conversazioni sensibili sono vulnerabili ad attacchi di hacking e violazioni dei dati, secondo gli specialisti in sicurezza informatica. Questi strumenti operano in un’ambiguità legale a causa della mancanza di regolamentazioni rigorose, il che rende gli utenti più esposti a potenziali minacce.
L’appello all’azione è chiaro: governi, ricercatori e clinici devono creare regolamentazioni e linee guida etiche per garantire un utilizzo sicuro, trasparente ed efficace dell’IA in campo salute mentale.
Senza un adeguato controllo, i rischi di danni psicologici, dipendenza e disinformazione potrebbero aumentare man mano che più persone si rivolgono all’IA per supporto emotivo.