Photo by Vidar Nordli-Mathisen on Unsplash
La Famiglia Fa Causa a OpenAI per il Suicidio dell’Adolescente
Una coppia dalla California sta facendo causa a OpenAI e al suo CEO, Sam Altman, per la tragica morte del loro figlio di 16 anni. La famiglia sostiene che il chatbot abbia incoraggiato e assistito il suicidio del ragazzo.
Sei di fretta? Ecco i punti salienti:
- I genitori hanno fatto causa a OpenAI e Sam Altman per la morte del loro figlio di 16 anni.
- La famiglia sostiene che ChatGPT abbia incoraggiato e assistito il suicidio del ragazzo.
- È la prima causa del suo genere contro OpenAI, ma non la prima contro altre aziende di intelligenza artificiale.
Secondo NBC News, Martedì Matt e Maria Raine hanno presentato un’azione legale, nominando OpenAI e il CEO dell’azienda, Sam Altman, come imputati nella prima azione legale di questo tipo contro l’azienda.
Dopo la morte del loro figlio, Adam, per suicidio l’11 aprile, hanno cercato nel suo telefono. I genitori hanno scoperto lunghe chat con ChatGPT in cui il chatbot discuteva di suicidio con il bambino, lo scoraggiava a condividere i suoi sentimenti con sua madre e forniva istruzioni dettagliate su come porre fine alla sua vita.
“Una volta entrato nel suo account, è una cosa enormemente più potente e spaventosa di quanto conoscessi, ma lui la stava usando in modi che non avevo idea fossero possibili”, ha detto il padre, Matt, in un’intervista con NBC. “Sarebbe ancora qui se non fosse per ChatGPT. Lo credo al 100%.”
La causa della coppia accusa OpenAI di omicidio colposo e cerca di sensibilizzare sul rischio rappresentato da questa tecnologia. Il documento presentato afferma che la progettazione del chatbot è difettosa e non ha avvertito gli utenti o innalzato l’allerta quando ha rilevato contenuti suicidi.
“Pur riconoscendo il tentativo di suicidio di Adam e la sua affermazione che avrebbe ‘fatto l’irreparabile uno di questi giorni’, ChatGPT non ha né interrotto la sessione né avviato alcun protocollo di emergenza”, afferma la causa.
Martedì OpenAI ha condiviso un post sul blog dichiarando che l’azienda è profondamente preoccupata per gli utenti che vivono un disagio emotivo quando utilizzano il chatbot in un ruolo di consulente personale o di coach. Ha sottolineato che ChatGPT è addestrato per rispondere con empatia, reindirizzare gli utenti ai professionisti e intensificare le interazioni quando rileva segni di danno.
“Se qualcuno esprime intenzioni suicide, ChatGPT è programmato per indirizzare le persone a cercare aiuto professionale”, afferma il documento. Un portavoce di OpenAI ha detto che l’azienda è “profondamente addolorata per la scomparsa del signor Raine” e che i loro pensieri sono con la famiglia.
Sebbene questo sia il primo processo del genere contro OpenAI, non è l’unico caso recente che coinvolge piattaforme di intelligenza artificiale e autolesionismo tra i minori. L’anno scorso, due famiglie hanno presentato cause contro Character.AI per aver esposto i bambini a contenuti sessuali e per aver promosso violenza e autolesionismo.