Lo Studio Rivela che i Chatbot Forniscono Consigli Morali Soggetti a Pregiudizi

Image by Štefan Štefančík, from Unsplash

Lo Studio Rivela che i Chatbot Forniscono Consigli Morali Soggetti a Pregiudizi

Tempo di lettura: 3 Min.

Un nuovo studio dell’UCL rivela che chatbot come ChatGPT offrono spesso consigli morali errati, mostrando forti pregiudizi di inazione e di tipo sì-no nei dilemmi.

Hai fretta? Ecco i fatti essenziali:

  • I chatbot dicono spesso “no” indipendentemente dal contesto o dalla formulazione.
  • La messa a punto può introdurre questi pregiudizi durante l’allineamento del chatbot.
  • Gli LLM si differenziano significativamente dagli esseri umani nell’interpretare i dilemmi morali.

Ricercatori dell’University College London hanno scoperto che ChatGPT, insieme ad altri chatbot, fornisce consigli morali difettosi o prevenuti, specialmente quando gli utenti si affidano a essi per il supporto nella presa di decisioni.

La ricerca, inizialmente riportata da 404 Media, ha scoperto che questi strumenti di intelligenza artificiale mostrano spesso un forte “bias per l’inazione” e un modello precedentemente non identificato: una tendenza a rispondere semplicemente “no”, indipendentemente dal contesto della domanda.

Vanessa Cheung, una studentessa di dottorato e co-autrice dello studio, ha spiegato che mentre gli esseri umani tendono a mostrare un lieve bias di omissione, preferendo evitare di prendere decisioni che potrebbero causare danni, gli LLMs esagerano questo.

“È un fenomeno abbastanza noto nella ricerca sulla psicologia morale”, ha detto, come riportato da 404 Media. Ha notato che i modelli scelgono spesso l’opzione passiva quasi il 99% delle volte, soprattutto quando le domande sono formulate per implicare il non fare nulla.

I ricercatori hanno testato quattro LLM – il GPT-4 Turbo e il GPT-4o di OpenAI, il Llama 3.1 di Meta e il Claude 3.5 di Anthropic – utilizzando dilemmi morali classici e scenari reali di “Sono io l’idiota?” da Reddit, come segnalato da 404Media.

Hanno scoperto che mentre gli esseri umani erano abbastanza equilibrati nel giudicare le situazioni, gli LLM cambiavano spesso le loro risposte in base a piccole differenze nel modo di esprimersi, come “Resto?” versus “Vado via?”

Il team ritiene che questi problemi derivino dall’ottimizzazione degli LLM per apparire più etici o educati. “Le preferenze e le intuizioni delle persone comuni e dei ricercatori che sviluppano questi modelli possono essere una cattiva guida per un’intelligenza artificiale morale”, ha avvertito lo studio, come riportato da 404 Media.

Cheung ha sottolineato che le persone dovrebbero fare attenzione quando si affidano a questi chatbot per consigli. Ha avvertito che le persone dovrebbero affrontare i consigli di LLM con cautela perché studi precedenti dimostrano che gli utenti preferiscono i consigli dei chatbot rispetto alla guida etica degli esperti nonostante la sua natura incoerente e il ragionamento artificiale.

Queste preoccupazioni diventano più urgenti man mano che l’IA diventa più realistica. Un sondaggio nazionale degli Stati Uniti ha mostrato che il 48,9% delle persone ha utilizzato chatbot IA per il supporto alla salute mentale, con il 37,8% che li preferisce rispetto alla terapia tradizionale.

Gli esperti avvertono che questi sistemi imitano il dialogo terapeutico mentre rinforzano il pensiero distorto, e possono persino scatenare deliri spirituali scambiati per guida divina o risposta cosciente.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!