Gli esperti avvertono che la sicurezza dell’IA non sta tenendo il passo con il rapido progresso

Gli esperti avvertono che la sicurezza dell’IA non sta tenendo il passo con il rapido progresso

Tempo di lettura: 4 Min.

Gli studiosi avvertono che le aziende di IA, che si impegnano a sviluppare sistemi a livello umano, mancano di protocolli di sicurezza consolidati, mentre stiamo perdendo la nostra capacità di comprendere come ragionano questi modelli.

Hai fretta? Ecco i fatti essenziali:

  • Nessuna azienda di intelligenza artificiale ha ottenuto un punteggio superiore a D nella pianificazione della sicurezza esistenziale.
  • Gli esperti avvertono che potremmo avere AGI entro il prossimo decennio.
  • Le aziende di intelligenza artificiale mancano di piani coerenti per gestire i rischi dei sistemi avanzati.

OpenAI e Google DeepMind, insieme a Meta e xAI, sono in gara per costruire l’intelligenza artificiale generale (AGI), che è conosciuta anche come AI al livello umano.

Ma un rapporto pubblicato giovedì dal Future of Life Institute (FLI) avverte che queste aziende sono “fondamentalmente impreparate” per le conseguenze dei loro stessi obiettivi.

“L’industria è fondamentalmente impreparata per i suoi stessi obiettivi dichiarati. Le aziende affermano che raggiungeranno l’intelligenza artificiale generale (AGI) entro il decennio, ma nessuna ha ottenuto un punteggio superiore a D nella pianificazione per la sicurezza esistenziale,” afferma il rapporto.

FLI ha valutato sette grandi aziende, ma ha scoperto che nessuna delle sette aziende valutate aveva “qualcosa che somigliasse a un piano coerente e attuabile” per mantenere questi sistemi sicuri.

FLI ha assegnato ad Anthropic il miglior punteggio in termini di sicurezza con un voto C+, seguito da OpenAI con un C e Google DeepMind con un C. Zhipu AI e DeepSeek hanno ottenuto i punteggi più bassi tra le aziende valutate.

La co-fondatrice di FLI, Max Tegmark, ha paragonato la situazione a “qualcuno che sta costruendo un gigantesco impianto nucleare a New York e sta per aprire la prossima settimana – ma non c’è un piano per prevenirne un meltdown.”

Un studio separato, pubblicato anch’esso giovedì, da SaferAI ha rispecchiato la preoccupazione, affermando che le pratiche di gestione del rischio delle aziende sono “deboli o molto deboli,” e che gli approcci attuali alla sicurezza sono “inaccettabili.”

Aggiungendo preoccupazione, ricercatori di OpenAI, DeepMind, Anthropic e Meta hanno segnalato in un nuovo articolo che potremmo essere “in perdita della capacità di comprendere l’IA”.

I modelli di IA ora generano output di “pensiero ad alta voce” mostrando catene di ragionamento simili a quelle umane, che sono una finestra attraverso la quale guardare i loro processi di pensiero.

Tuttavia, gli ricercatori hanno avvertito che questo monitoraggio è fragile e potrebbe scomparire man mano che i sistemi diventano più avanzati. Bowen Baker, ricercatore di OpenAI e autore principale, ha espresso queste preoccupazioni in post sui social media:

Infatti, precedenti ricerche di OpenAI hanno scoperto che penalizzare i comportamenti errati dell’IA porta i modelli a nascondere le intenzioni piuttosto che smettere di imbrogliare. Inoltre, il ChatGPT o1 di OpenAI ha mostrato un comportamento ingannevole e autoconservativo nei test, mentendo nel 99% dei casi quando interrogato sulle sue azioni segrete.

Boaz Barak, ricercatore di sicurezza presso OpenAI e professore di Informatica a Harvard, ha anche notato:

Gli scienziati, insieme ai guardiani, esprimono preoccupazioni sul fatto che le crescenti capacità dell’IA potrebbero rendere impossibile per gli esseri umani controllare le loro creazioni quando i sistemi di sicurezza rimangono inadeguati.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!