
Image by Denise Chan, from Unsplash
Un Uomo si Avvelena Dopo Aver Seguito il Consiglio di ChatGPT
Un uomo di 60 anni si è autoinflitto una rara malattia psichiatrica del XIX secolo seguendo i consigli di ChatGPT.
Hai fretta? Ecco i fatti essenziali:
- Per tre mesi, ha sostituito il sale da tavola con il tossico bromuro di sodio.
- Ricoverato in ospedale con allucinazioni, paranoia e squilibri elettrolitici a causa dell’avvelenamento.
- ChatGPT ha suggerito il bromuro come sostituto del cloruro senza avvertenze per la salute.
Uno studio di caso pubblicato negli Annals of Internal Medicine rivela il caso di un uomo affetto da bromismo, una condizione causata dall’avvelenamento da bromuro di sodio.
A quanto pare, ciò è stato causato dal suo tentativo di sostituire il sale da tavola con un prodotto chimico pericoloso, che ChatGPT aveva suggerito di utilizzare. L’uomo è presumibilmente arrivato al pronto soccorso avvertendo paranoia, allucinazioni uditive e visive, e accusando il suo vicino di averlo avvelenato.
I successivi esami medici hanno rivelato un livello di cloruro anomalo, così come altri indicatori che confermavano un avvelenamento da bromuro. L’uomo ha rivelato di aver seguito una dieta restrittiva e di aver utilizzato il bromuro di sodio per sostituire il sale. Lo ha fatto dopo aver chiesto a ChatGPT come eliminare il cloruro dalla sua dieta.
“Per 3 mesi, lui aveva sostituito il cloruro di sodio con il bromuro di sodio ottenuto da internet dopo una consultazione con ChatGPT,” si legge nello studio. I ricercatori spiegano che il bromuro di sodio è tipicamente usato come anticonvulsivante per cani o come pulitore per piscine, ma è tossico per gli esseri umani in grandi quantità.
L’uomo ha trascorso tre settimane in ospedale, dove i suoi sintomi sono gradualmente migliorati con il trattamento.
Lo studio sottolinea come gli strumenti di IA possano fornire indicazioni incomplete e pericolose agli utenti. In un test, i ricercatori hanno chiesto a ChatGPT di suggerire alternative al cloruro e, di conseguenza, hanno ricevuto il bromuro di sodio come risposta. Questa risposta non conteneva alcun avvertimento sulla sua natura tossica o una richiesta per il contesto della domanda.
La ricerca avverte che l’IA può anche diffondere informazioni errate e manca del giudizio critico di un professionista sanitario.
404Media sottolinea come OpenAI abbia recentemente annunciato miglioramenti in ChatGPT 5, con l’obiettivo di fornire informazioni sulla salute più sicure e accurate. Questo caso dimostra l’importanza di un uso prudente dell’IA e della consultazione di esperti medici qualificati per le decisioni relative alla salute.