Photo by Karla Rivera on Unsplash
OpenAI Annuncia Nuove Misure di Sicurezza per gli Adolescenti
OpenAI ha annunciato martedì che implementerà nuove misure di sicurezza per proteggere gli adolescenti, la libertà degli utenti e la sicurezza generale. Il CEO dell’azienda, Sam Altman, ha condiviso una dichiarazione in cui afferma che l’azienda sta sviluppando un sistema di verifica dell’età per evitare che il chatbot discuta di argomenti come l’autolesionismo o il suicidio, così come per prevenire conversazioni flirtanti con utenti minorenni.
Hai fretta? Ecco i fatti salienti:
- OpenAI sta sviluppando un sistema di verifica dell’età per impedire al chatbot di discutere temi come il suicidio e l’autolesionismo.
- Potrebbe richiedere agli utenti di ChatGPT di fornire documenti di identità rilasciati dal governo in alcuni paesi.
- La decisione è stata presa dopo che una famiglia ha fatto causa a OpenAI a seguito del suicidio del loro figlio adolescente.
Secondo l’annuncio di OpenAI, l’azienda sta introducendo nuovi livelli di sicurezza per proteggere i dati privati come parte del suo primo principio: la sicurezza. L’azienda ha sottolineato che nemmeno i suoi dipendenti possono accedere ai dati privati, tranne nei casi in cui sia coinvolto un uso improprio segnalato dall’IA o rischi critici.
Il secondo principio, la libertà, si concentra nel dare agli utenti più flessibilità e opzioni su come utilizzare gli strumenti di intelligenza artificiale. Tuttavia, il terzo principio dell’azienda, la sicurezza, dà la priorità alla protezione dei minori.
Altman ha spiegato che l’azienda vuole seguire il suo motto interno, “trattare i nostri utenti adulti come adulti”, ma senza causare danni, e con nuovi filtri per determinare l’età dell’utente.
“Ad esempio, il comportamento predefinito del nostro modello non porterà a molta conversazione flirtante, ma se un utente adulto lo richiede, dovrebbe ottenerlo”, afferma il documento. “Per un esempio molto più difficile, il modello di default non dovrebbe fornire istruzioni su come commettere suicidio, ma se un utente adulto chiede aiuto per scrivere una storia di finzione che raffigura un suicidio, il modello dovrebbe aiutare con quella richiesta”.
La decisione è stata presa dopo che una famiglia ha fatto causa a OpenAI ad agosto per la morte per suicidio di un adolescente di 16 anni, e mentre altre aziende tecnologiche, come Meta sono state accusate di impegnarsi in chat sensuali con i bambini e sfruttamento infantile tramite chatbot AI.
OpenAI ha aggiunto che sta lavorando su un sistema di previsione dell’età e che, in alcuni paesi, potrebbe richiedere documenti d’identità rilasciati ufficialmente dal governo agli utenti, riconoscendo che ciò potrebbe sollevare opposizioni da parte degli utenti adulti che desiderano proteggere la loro privacy.
“Ci rendiamo conto che questi principi sono in conflitto e non tutti saranno d’accordo su come stiamo risolvendo questo conflitto”, ha scritto Altman. “Queste sono decisioni difficili, ma dopo aver parlato con esperti, questo è ciò che riteniamo sia il migliore e vogliamo essere trasparenti nelle nostre intenzioni.”