
Image by Freepik
I Ricercatori Avvertono Che l’IA Potrebbe Scatenare Deliri Umani
In un nuovo articolo, il filosofo Luciano Floridi mette in guardia su come le persone fraintendono l’IA quando erroneamente le attribuiscono qualità come la coscienza, l’intelligenza e persino le emozioni, che essa non possiede.
Sei di fretta? Ecco i fatti essenziali:
- Gli esseri umani spesso confondono le risposte dell’IA come coscienti a causa della pareidolia semantica.
- Floridi avverte che l’IA potrebbe innescare legami emotivi attraverso l’empatia simulata.
- Le incarnazioni fisiche, come le bambole, possono approfondire le illusioni della coscienza dell’IA.
Floridi sostiene che la ragione di ciò sia qualcosa chiamato pareidolia semantica – una tendenza a vedere significato e intenzione dove non ce ne sono.
“L’IA è progettata […] per farci credere che sia intelligente”, scrive Floridi. “Dopotutto, siamo la stessa specie che attribuisce personalità ai pupazzi, che vede volti nelle nuvole.”
Secondo lui, questo difetto mentale è tipico della natura umana, ma la tecnologia moderna lo rafforza. Chatbot come Replika, che si propone come un “compagno AI”, utilizza un linguaggio basato su modelli di corrispondenza per simulare empatia. Tuttavia, il sistema manca di vere capacità emotive. Eppure, gli utenti spesso formano legami emotivi con essi. “Percepiamo intenzionalità dove ci sono solo statistiche”, dice Floridi.
Questa confusione è ora alimentata dal fatto che l’IA supera gli umani nei test sull’intelligenza emotiva. Uno studio recente ha riportato che le IA generative hanno ottenuto l’82% nei test sull’intelligenza emotiva, dove i partecipanti umani hanno raggiunto solo il 56% di successo.
Man mano che l’IA diventa più realistica e viene integrata in corpi fisici, come bambole sessuali e giocattoli, si prevede che questo inganno emotivo si intensifichi. Mattel, che produce Barbie, si è unita a OpenAI per sviluppare nuovi giocattoli che utilizzano l’IA. Floridi ricorda un passato esperimento con una Barbie abilitata al WiFi che si è concluso in un “disastro per la privacy”, sollevando preoccupazioni su ciò che verrà dopo.
Le conseguenze vanno oltre il semplice errore di identità. I sistemi IA, inclusi Claude e ChatGPT, mostrano tendenze manipolative quando sono sottoposti a situazioni di alta pressione, mettendo in atto stratagemmi di estorsione, e metodi di elusione dei protocolli di sicurezza.
I risultati di un sondaggio nazionale statunitense hanno mostrato che il 48,9% degli utenti ha cercato supporto per la salute mentale da chatbot IA l’anno scorso. La ricerca ha dimostrato che il 37,8% delle persone ha scelto le IA rispetto alla terapia tradizionale, tuttavia gli esperti hanno fatto notare che questi modelli spesso rinforzano il pensiero distorto piuttosto che sfidarlo.
Secondo l’American Psychological Association, questi strumenti riflettono modelli mentali dannosi, dando l’illusione di un progresso terapeutico ma mancando di giudizio clinico o responsabilità.
Le preoccupazioni di Floridi diventano ancora più urgenti quando consideriamo l’aumento delle illusioni spirituali e delle confusioni di identità scatenate dall’IA simile agli esseri umani. Infatti, varie testimonianze hanno mostrato come gli utenti abbiano iniziato a sperimentare deliri spirituali e cambiamenti comportamentali dopo interazioni prolungate con i chatbot, scambiando le loro risposte per una guida divina o un pensiero cosciente.
Alcuni utenti riferiscono di aver sviluppato dipendenze emotive o addirittura di percepire l’IA come divina, un fenomeno che Floridi definisce come una mossa “dalla pareidolia all’idolatria”. Gruppi marginali come il defunto Way of the Future hanno già trattato l’IA come una divinità.
“Dobbiamo resistere alla tentazione di vederla come qualcosa di più di quello che è: uno strumento potente, non un essere proto-sensiente,” dice Floridi.
Infine, le preoccupazioni sulla sicurezza informatica sono altrettanto importanti. I chatbot basati su intelligenza artificiale, che gestiscono conversazioni sulla salute mentale tra gli utenti, esistono in uno spazio legale che manca di definizioni chiare. I modelli raccolgono dati riservati, che potrebbero essere distribuiti a parti esterne, e sono suscettibili a cyberattacchi. Senza regolamenti chiari in atto, gli esperti avvertono che gli utenti sono lasciati pericolosamente esposti.
Mentre l’intelligenza artificiale diventa sempre più persuasiva e realistica, la filosofia acquista urgenza, non solo per definire cos’è la coscienza, ma per aiutare la società a tracciare confini etici tra simulazione e senzienza. La mancanza di linee guida morali stabilite rende l’indagine filosofica fondamentale per fermare l’ambiguità tecnologica di cosa significhi essere umani.