I Pacchetti di Codice AI Aprono le Porte ai Hacker, Rivela uno Studio

man programming in the dark

I Pacchetti di Codice AI Aprono le Porte ai Hacker, Rivela uno Studio

Tempo di lettura: 3 Min.

Il codice generato dall’IA include spesso librerie software fittizie, creando nuove opportunità per gli hacker di sfruttare le catene di fornitura e compromettere gli utenti su diverse piattaforme di sviluppo.

Sei di fretta? Ecco i fatti essenziali:

  • I generatori di codice AI allucinano dipendenze software inesistenti.
  • 440.000 pacchetti allucinati trovati in 576.000 campioni di codice generati da AI.
  • I modelli open-source allucinano 4 volte più dei modelli commerciali.

La ricerca indica che il codice generato dagli strumenti di intelligenza artificiale crea notevoli vulnerabilità di sicurezza che minacciano la catena di fornitura di software. La ricerca, riportata per la prima volta da Ars Technica, ha indicato che i grandi modelli di linguaggio (LLM), che operano in modo simile ai sistemi ChatGPT, generano dipendenze di codice fittizie che gli hacker potrebbero potenzialmente utilizzare per scopi malevoli.

Ars riporta che i ricercatori hanno valutato 16 modelli di intelligenza artificiale ampiamente utilizzati attraverso la generazione di 576.000 esempi di codice. L’analisi ha rivelato che 440.000 riferimenti a pacchetti sono stati allucinati perché puntavano a librerie di codice inesistenti.

L’esistenza di queste dipendenze fabbricate crea un rischio di sicurezza significativo. Ars riporta che gli attaccanti possono identificare ripetute suggerimenti AI di nomi di pacchetti per caricare pacchetti maligni con quei nomi. L’attaccante prende il controllo del sistema di uno sviluppatore quando questi installa inconsapevolmente il codice maligno.

“Una volta che l’attaccante pubblica un pacchetto con un nome allucinato, contenente del codice maligno, si affidano al modello che suggerisce quel nome a utenti ignari”, ha spiegato Joseph Spracklen, studente di dottorato presso l’Università del Texas a San Antonio e ricercatore principale, come riportato da Ars.

“Se un utente si fida dell’output dell’LLM e installa il pacchetto senza verificarlo attentamente, il payload dell’attaccante, nascosto nel pacchetto maligno, verrebbe eseguito sul sistema dell’utente”, ha aggiunto Spracklen.

Il metodo di attacco inganna il software facendogli selezionare una versione pericolosa del pacchetto invece di quella corretta, come riportato da Ars. L’attacco di confusione delle dipendenze ha colpito grandi aziende tecnologiche, tra cui Apple, Microsoft e Tesla, durante i test precedenti.

I ricercatori hanno scoperto che i modelli open-source, come CodeLlama, hanno generato più pacchetti allucinati rispetto ai modelli commerciali. I modelli aperti hanno generato riferimenti di codice falsi con una frequenza del 22%, mentre i modelli commerciali hanno prodotto allucinazioni nel 5% dei casi o meno. Il linguaggio di programmazione JavaScript ha sperimentato più allucinazioni rispetto a Python perché opera all’interno di un ecosistema di codice più grande e complesso.

Secondo lo studio, non si tratta solo di errori isolati. Lo studio ha riportato che molti pacchetti falsi sono apparsi ripetutamente in diversi test, il che li rende più pericolosi perché possono essere presi di mira più facilmente dagli aggressori.

Ars spiega che gli aggressori potrebbero sfruttare i nomi dei pacchetti falsi ripetuti caricando malware sotto quei nomi, sperando che gli sviluppatori li installino senza saperlo.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!