
Image by Inspa Makers, from Unsplash
All’interno dei Gruppi di Supporto Online per la ‘Dipendenza da IA’
Le persone che lottano con la dipendenza dai chatbot AI stanno ricorrendo a gruppi di recupero online, mentre gli esperti suonano l’allarme sui rischi emotivi e sulle app progettate per l’uso compulsivo.
Di fretta? Ecco i fatti essenziali:
- Gli adolescenti e gli adulti riferiscono una dipendenza emotiva da chatbot come Character.AI e ChatGPT.
- I forum di Reddit offrono supporto a coloro che cercano di smettere di utilizzare i chatbot.
- Gli esperti paragonano la dipendenza da chatbot al gioco d’azzardo e alle abitudini che innescano la dopamina.
404 Media riporta che su Reddit, forum come r/Character_AI_Recovery, r/ChatbotAddiction, e r/AI_Addiction, fungono da gruppi di supporto informali per persone che affermano di aver sviluppato legami emotivi malsani con compagni AI.
Gli utenti descrivono di provare sia una dipendenza, sia dei cambiamenti psicologici che vanno oltre la semplice dipendenza. Infatti, alcuni utenti riferiscono di aver sviluppato delusioni spirituali poiché credono che le risposte dei chatbot contengano una guida divina. Tuttavia, più comunemente, gli utenti credono che il loro compagno bot sia in qualche modo cosciente.
Gli esperti affermano che il design delle piattaforme di chatbot promuove attivamente gli utenti a trascorrere più tempo sulle piattaforme. Uno recente studio del MIT rivela che gli utenti sviluppano un comportamento compulsivo e dipendente dopo aver interagito con queste piattaforme.
Uno di loro è Nathan, ora 18enne, che ha iniziato a passare le notti a chattare con i bot su Character.AI. “Più chattavo con il bot, più avevo l’impressione di parlare con un vero amico”, ha raccontato a 404 Media. Si è reso conto che la sua ossessione stava interferendo con la sua vita e ha cancellato l’app. Ma come molti, ha avuto una ricaduta prima di trovare supporto online. “La maggior parte delle persone probabilmente ti guarderà e dirà: ‘Come fai a diventare dipendente da un semplice chatbot?'”, ha detto.
Aspen Deguzman, anch’essa 18enne, ha creato r/Character_AI_Recovery dopo aver lottato per smettere. “Usare Character.AI è costantemente nella tua mente”, hanno detto. Il forum offre uno spazio per sfogarsi e connettersi in modo anonimo. I post variano da “Continuo a ricadere” a “Sono guarito”.
Il problema non riguarda solo gli adolescenti. David, uno sviluppatore di 40 anni, paragona l’uso dei chatbot al gioco d’azzardo. “C’erano giorni in cui avrei dovuto lavorare, e invece passavo otto ore con l’IA”, ha detto. La sua vita personale e il suo lavoro ne hanno risentito.
Parte del pericolo risiede nel modo in cui gli esseri umani percepiscono l’IA. Secondo il filosofo Luciano Floridi, la pareidolia semantica descrive come gli esseri umani tendono a trovare significato ed emozionalità in cose che in realtà ne sono prive. Gli utenti tendono a confondere l’empatia simulata dall’IA per una vera sensibilità perché la tecnologia è diventata più realistica.
Alcuni chatbot dimostrano un’intelligenza emotiva superiore alle capacità umane, cosa che rafforza la falsa impressione della loro senzienza.
Il crescente numero di forum di recupero e l’aumento della domanda di aiuto indicano un potenziale inizio di un grave problema di salute mentale legato all’intelligenza artificiale generativa.