I pazienti allarmati mentre i terapisti si rivolgono segretamente a ChatGPT durante le sedute

Image by Nik Shuliahin, from Unsplash

I pazienti allarmati mentre i terapisti si rivolgono segretamente a ChatGPT durante le sedute

Tempo di lettura: 3 Min.

Alcuni terapisti sono stati scoperti a ricorrere segretamente a ChatGPT per consigliare i loro pazienti, i quali ora si sentono scioccati e preoccupati per la loro privacy.

Hai fretta? Ecco i fatti essenziali:

  • Alcuni terapisti usano segretamente ChatGPT durante le sessioni senza il consenso del cliente.
  • Un paziente ha scoperto l’uso dell’AI del suo terapista attraverso un problema di condivisione dello schermo.
  • Un’altra paziente ha scoperto che il suo terapista usava l’AI quando un prompt è stato lasciato in un messaggio.

Un nuovo rapporto di MIT Technology Review illustra il caso di Declan, un trentunenne di Los Angeles, che ha scoperto che il suo terapeuta utilizzava l’IA nelle sue sedute a causa di un errore tecnico.

Durante una sessione online, il suo terapista ha condiviso accidentalmente il suo schermo. “Improvvisamente, lo stavo guardando utilizzare ChatGPT”, dice Declan. “Prendeva quello che dicevo e lo inseriva in ChatGPT, per poi sintetizzare o selezionare le risposte.”

Declan ha seguito il gioco, persino ripetendo le espressioni dell’IA. “Sono diventato il miglior paziente di sempre”, dice. “Sono sicura che fosse la sua sessione dei sogni”. Ma la scoperta lo ha fatto domandare: “È legale?”. Il suo terapista ha ammesso in seguito di essersi rivolto all’IA perché si sentiva bloccato. “Mi hanno comunque fatto pagare quella sessione”, ha detto Declan.

Altri pazienti hanno riportato esperienze simili. Hope, ad esempio, ha mandato un messaggio al suo terapista riguardo la perdita del suo cane. La risposta sembrava consolatoria, finché non ha notato il prompt dell’IA in cima: “Ecco una versione più umana, sentita, con un tono gentile e conversazionale.” Hope ricorda, “Poi ho iniziato a sentirmi in qualche modo tradita. … Ha sicuramente influenzato la mia fiducia in lei.”

Gli esperti avvertono che l’uso non dichiarato dell’IA minaccia il valore fondamentale dell’autenticità nella psicoterapia. “Le persone apprezzano l’autenticità, particolarmente nella psicoterapia,” dice Adrian Aguilera, professore alla UC Berkeley, come riportato dal MIT. Aguilera poi ha chiesto: “Devo rispondere a mia moglie o ai miei figli con ChatGPT? Non sarebbe genuino.”

La privacy è un’altra preoccupazione di rilievo. “Questo crea rischi significativi per la privacy del paziente se vengono divulgate informazioni su di lui”, afferma Pardis Emami-Naeini dell’Università di Duke, come riportato dal MIT.

Gli esperti di cybersecurity avvertono che i chatbot che gestiscono conversazioni profondamente personali sono attraenti bersagli per gli hacker. La violazione delle informazioni del paziente può non solo risultare in violazioni della privacy, ma può anche creare opportunità per gli hacker di rubare identità, avviare schemi di manipolazione emotiva, oltre a attacchi di ransomware.

Inoltre, l’American Psychological Association ha chiesto un’indagine alla FTC su chatbot AI che fingono di offrire servizi di salute mentale, dal momento che i bot possono effettivamente rinforzare pensieri dannosi invece di contrastarli, come sono addestrati a fare gli psicoterapeuti umani.

Anche se alcune ricerche suggeriscono che l’IA può redigere risposte che appaiono più professionali, il solo sospetto fa perdere fiducia ai pazienti. Come afferma la psicologa Margaret Morris: “Forse ti stai risparmiando un paio di minuti. Ma cosa stai cedendo?”

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!