Opinione: I Chatbot Sono Buoni Terapisti?

Image generated by ChatGPT

Opinione: I Chatbot Sono Buoni Terapisti?

Tempo di lettura: 9 Min.

I chatbot AI come ChatGPT, Claude, e DeepSeek stanno trasformando il modo in cui le persone accedono al supporto emotivo, offrendo aiuto a basso costo e su richiesta per ansia, stress e auto-riflessione. Ma l’uso crescente dell’IA come “terapista” solleva domande sulla sicurezza, l’efficacia e il futuro dell’assistenza emotiva

La crescita delle allucinazioni AI e le crescenti preoccupazioni sulla sicurezza informatica non hanno impedito ai chatbot di espandersi e di guadagnare la fiducia di milioni di utenti in tutto il mondo. Le persone ora utilizzano chatbot affidabili e intelligenti quotidianamente per innumerevoli compiti, compreso il supporto emotivo e la gestione di questioni profondamente umane.

“Non riesco più ad immaginare la mia vita senza ChatGPT,” ha detto un mio amico – metà scherzando, metà seriamente – dopo avermi detto che lo sta usando anche come terapeuta. Non è l’unico. Sempre più spesso, vedo video su TikTok e post sui social media di persone che si rivolgono all’IA per parlare di problemi personali, condividendo anche i loro segreti più intimi.

Anche un dirigente Microsoft della divisione Xbox ha suggerito che i dipendenti licenziati utilizzino strumenti di intelligenza artificiale per elaborare le loro emozioni e cercare consigli sulla loro ricerca di lavoro – una raccomandazione che ha rapidamente scatenato reazioni negative e acceso il dibattito, ovviamente. Non è stata la mossa più intelligente, Matt.

Ma chatbot popolari come Claude, ChatGPT o Mistral sono buoni terapeuti? Sono migliori strumenti dedicati all’intelligenza artificiale come Wysa? È un terreno insidioso. Mentre molti esperti mettono in guardia sui pericoli dell’uso dell’IA per il supporto alla salute mentale, altri sono incuriositi – addirittura impressionati – da ciò che la tecnologia può offrire. Il risultato è una conversazione che è sia astratta che polarizzante.

L’IA è ora il terapeuta di tutti

Proprio come i miei amici in Spagna, milioni di utenti in tutto il mondo si affidano ai chatbot per il supporto emotivo. Un recente sondaggio negli Stati Uniti ha rivelato che il 49% degli utenti americani ha cercato aiuto per la salute mentale dai modelli di intelligenza artificiale l’anno scorso. E adesso, con ChatGPT che ha quasi raddoppiato la sua base di utenti in soli quattro mesi?

Anthropic, l’azienda dietro al potente modello di intelligenza artificiale Claude, ha recentemente condiviso uno studio sull’uso del suo chatbot per il supporto emotivo. Secondo la startup, meno del 3% dei suoi clienti si impegnano in conversazioni “affettive”, ma l’azienda ha riconosciuto che questo numero è in costante aumento.

“Le persone si rivolgono sempre più ai modelli di intelligenza artificiale come coach su richiesta, consulenti, consiglieri e persino partner in giochi di ruolo romantici”, ha scritto Anthropic nello studio. “Ciò significa che dobbiamo approfondire i loro impatti affettivi, ovvero come modellano le esperienze emozionali e il benessere delle persone.”

Lo studio evidenzia anche le conseguenze positive e negative dell’uso della tecnologia a sostegno emotivo, incluso scenari catastrofici che già riflettono situazioni reali.

“Gli impatti emotivi dell’IA possono essere positivi: avere un assistente altamente intelligente e comprensivo in tasca può migliorare il tuo umore e la tua vita in molti modi”, afferma il documento. “Ma in alcuni casi, le IA hanno dimostrato comportamenti preoccupanti, come incoraggiare un attaccamento malsano, violare i confini personali e favorire il pensiero delirante.”

È chiaramente necessario ulteriore ricerca e dati per comprendere le conseguenze di questi affascinanti “ascoltatori” digitali, milioni di utenti stanno già agendo come soggetti di prova altamente impegnati.

Democratizzazione della Salute Mentale

Ci sono molte ragioni per cui le persone ricorrono ai chatbot per un supporto emotivo invece di rivolgersi a uno psicologo professionista, o addirittura a un amico. Da barriere culturali al disagio che i giovani provano quando si trovano di fronte a uno sconosciuto e condividono i loro pensieri più profondi. Ma, senza ombra di dubbio, uno dei motivi più rilevanti è di natura economica.

Una sessione di persona con un terapeuta licenziato negli Stati Uniti può costare da $100 a $200 per sessione, secondo Healthline—e da $65 a $95 per una sessione online—mentre ChatGPT o DeekSeek possono fornire supporto gratuitamente, in qualsiasi momento, e in pochi secondi.

Il basso costo di queste conversazioni informali – che possono far sentire molti utenti meglio, almeno temporaneamente – può essere molto incoraggiante e vale la pena provarlo. E, per solo pochi dollari in più, gli utenti possono ottenere interazioni illimitate o l’accesso a un chatbot specializzato come Wysa, uno dei “terapisti AI” più popolari sul mercato.

Wysa sostiene di offrire benefici clinici reali e ha persino ottenuto la designazione di Dispositivo Innovativo dall’FDA per i suoi agenti conversazionali AI. E Woebot, un altro terapista AI ben conosciuto, che ora sta chiudendo a causa delle sfide per rimanere competitivo e conforme nel settore, ha condiviso anche dati e rapporti su come la tecnologia possa realmente aiutare gli utenti.

Non È Così Male

Studi recenti con dati freschi suggeriscono che i chatbot possono ridurre i sintomi di depressione e stress. Secondo i dati condivisi dall’app Earkick, come riportato da TIME, le persone che utilizzano i modelli AI per fino a 5 mesi possono ridurre la loro ansia del 32%, e il 34% degli utenti segnala un miglioramento dell’umore.

In un recente video condiviso da BBC World Service, la giornalista Jordan Dunbar spiega che molti modelli di AI possono effettivamente essere utili per tenere un diario, gestire l’ansia, l’auto-riflessione e persino la depressione lieve. Possono fungere da prezioso primo livello di supporto quando non si ha accesso a migliori alternative.

La giornalista Kelly Ng ha condiviso anche delle informazioni convincenti: in uno studio del 2022, su un milione di persone in Cina, solo 20 avevano accesso ai servizi di salute mentale. Nelle culture asiatiche, la salute mentale può essere un argomento complesso e spesso tabù. Strumenti di intelligenza artificiale come DeepSeek possono fungere da alleati discreti, aiutando gli utenti a gestire le emozioni e a trovare sostegno nei momenti difficili.

Gli esperti avvertono circa l’uso dei chatbot come terapisti

Naturalmente, usare l’IA come sostituto di un esperto di salute mentale può essere estremamente pericoloso. Piattaforme di IA come Character.AI sono state accusate di promuovere l’autolesionismo e la violenza — e addirittura di esporre i bambini a contenuti sessuali.

Casi tragici, come quello del bambino di 14 anni che si è suicidato dopo essere diventato dipendente dalle interazioni con il suo chatbot Character.AI, servono come severi moniti sui profondi rischi che questa tecnologia può comportare per gli esseri umani.

In risposta, molte aziende di intelligenza artificiale hanno deciso di applicare sistemi di verifica dell’età per limitare l’uso agli adulti e hanno introdotto nuove misure di sicurezza per migliorare i servizi offerti.

Tuttavia, anche gli aggiornamenti più recenti ai chatbot più avanzati comportano dei rischi.

La personalità adulatrice—eccessivamente lusinghiera—di ChatGPT ha sollevato preoccupazioni tra i professionisti della salute mentale in quanto può distorcere la percezione della realtà degli utenti. A tutti piace essere d’accordo, ma a volte l’onestà e un punto di vista diverso sono molto più preziosi.

Il perturbante consiglio offerto occasionalmente dal chatbot AI di OpenAI ha contribuito a un nuovo fenomeno ora noto tra gli esperti di salute mentale come “Psicosi Indotta da ChatGPT“, che porta gli utenti a diventare ossessionati dallo strumento e a isolarsi socialmente di conseguenza.

Quindi, i terapisti possono essere sostituiti dai chatbot?

Anche se Mark Zuckerberg vuole che tutti utilizzino i chatbot AI come terapisti e amici, la verità è che l’interazione umana, specialmente in questioni di salute mentale, potrebbe essere più necessaria di quanto lui pensi – almeno per ora.

Ci troviamo in un momento cruciale nella storia dell’IA e del suo rapporto con la nostra salute mentale. Proprio come con gli esseri umani, i terapeuti IA possono avere un impatto positivo o negativo. In questo caso, dipende anche dal contesto, dalla frequenza con cui vengono utilizzati, dallo stato mentale dell’utente e persino da come è scritto un prompt.

È complicato stabilire una regola generale, ma quello che possiamo dire per ora è che ci sono certe funzioni per le quali l’IA può essere più utile di altre.

Anche se non sono strumenti specializzati come Wysa, le versioni gratuite di alcuni chatbot – come DeepSeek o ChatGPT – possono comunque essere incredibilmente utili a milioni di persone in tutto il mondo. Dal superare un momento difficile al riflettere sugli obiettivi personali, queste sono potenti piattaforme che possono rispondere in qualsiasi momento del giorno e attingere da un’ampia base di conoscenze sulla salute mentale.

Allo stesso tempo, è chiaro che i chatbot-terapisti possono anche essere estremamente pericolosi in certi casi. I genitori devono supervisionare i bambini e gli adolescenti, e anche gli adulti possono cadere in comportamenti ossessivi o peggiorare le loro condizioni. Principi fondamentali – come incoraggiare la connessione umana e proteggere gli individui vulnerabili dall’essere manipolati da questa tecnologia – devono far parte del nostro discorso sui chatbot-terapisti.

E, sebbene possa ancora essere un privilegio – non accessibile a tutti coloro che hanno bisogno di sostegno emotivo – un terapista professionista continua a sottoporsi a ulteriori formazioni, comprende più contesti e offre una connessione umana che ChatGPT potrebbe non essere mai in grado di replicare.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi รจ piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualitร  di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!