Il Primo Ministro Svedese Criticato per l’Uso di ChatGPT nelle Decisioni Governative

Image by Dr. Frank Gaeth, from Wikimedia Commons

Il Primo Ministro Svedese Criticato per l’Uso di ChatGPT nelle Decisioni Governative

Tempo di lettura: 2 Min.

Il Primo Ministro svedese Ulf Kristersson ha affrontato critiche dopo aver ammesso di utilizzare ChatGPT per generare idee per le decisioni governative.

Sei di fretta? Ecco i fatti principali:

  • Il Primo Ministro svedese ammette di usare ChatGPT per prendere decisioni politiche.
  • Il suo portavoce afferma che non vengono condivisi dati sensibili con gli strumenti di intelligenza artificiale.
  • I critici sostengono che l’uso dell’IA nel governo sia pericoloso e antidemocratico.

Il Primo Ministro svedese Ulf Kristersson affronta un crescente malcontento pubblico dopo aver rivelato il suo utilizzo di ChatGPT e LeChat per assistere il suo processo decisionale ufficiale.

“Lo uso abbastanza spesso. Se non altro, per avere una seconda opinione”, ha detto Kristersson, come riportato da The Guardian. “Cosa hanno fatto gli altri? E dovremmo pensare esattamente l’opposto? Questo tipo di domande.”

La sua affermazione ha provocato reazioni negative, con Aftonbladet che lo accusa di cadere nella “psicosi dell’IA degli oligarchi”, come riportato da The Guardian. I critici sostengono che fare affidamento sull’IA per il giudizio politico sia sia imprudente che antidemocratico.

“Dobbiamo esigere che l’affidabilità possa essere garantita. Non abbiamo votato per ChatGPT,” ha detto Virginia Dignum, professore di AI responsabile presso l’Università di Umeå.

Il portavoce di Kristersson, Tom Samuelsson, ha minimizzato la controversia, dicendo: “Naturalmente non sono informazioni sensibili per la sicurezza che finiscono lì. Viene utilizzato più come un punto di riferimento,” come riportato da The Guardian.

Ma gli esperti di tecnologia affermano che i rischi vanno oltre la sensibilità dei dati. La professoressa dell’Università di Karlstad, Simone Fischer-Hübner, sconsiglia l’uso di ChatGPT e strumenti simili per compiti di lavoro ufficiali, come riportato da The Guardian.

Il ricercatore di intelligenza artificiale David Bau ha avvertito che i modelli di intelligenza artificiale possono essere manipolati. “Hanno mostrato un modo per le persone di inserire nascostamente i propri obiettivi nascosti nei dati di addestramento che sarebbe molto difficile da rilevare.” La ricerca mostra un tasso di successo del 95% nel fuorviare i sistemi di intelligenza artificiale utilizzando iniezione di memoria o attacchi “Rules File Backdoor“, alimentando le preoccupazioni riguardo l’interferenza invisibile nel processo decisionale politico.

Ulteriori rischi derivano dal potenziale dell’IA di erodere la democrazia. Un recente studio avverte che i sistemi di intelligenza artificiale nelle forze dell’ordine concentrano il potere, riducono il controllo e possono promuovere l’autoritarismo.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!