Elogi per il Modello di Intelligenza Artificiale DeepSeek, ma le Lacune di Sicurezza Suscitano Preoccupazioni

Image by Solen Feyissa, from Unsplash

Elogi per il Modello di Intelligenza Artificiale DeepSeek, ma le Lacune di Sicurezza Suscitano Preoccupazioni

Tempo di lettura: 3 Min.

Il modello di intelligenza artificiale R1 di DeepSeek colpisce per le sue abilità di ragionamento a basso costo, eppure alcuni ricercatori sostengono che produce output di codici pericolosi per le regioni politicamente sensibili.

Hai fretta? Ecco i fatti essenziali:

  • Il modello AI R1 di DeepSeek è stato addestrato con soli $294.000.
  • R1 eccelle in compiti di ragionamento come la matematica e la programmazione.
  • CrowdStrike ha scoperto che DeepSeek ha prodotto codice non sicuro per gruppi politicamente sensibili.

Il modello AI R1 di DeepSeek stupisce con le sue capacità di ragionamento a basso costo, tuttavia i test mostrano un output di codice non sicuro per regioni politicamente sensibili, suscitando preoccupazioni tra gli esperti.

Il mercato azionario statunitense ha subito una grande perturbazione quando il modello R1 è stato reso disponibile al pubblico a gennaio. Scientific American (Sci Am) riporta che questa settimana, il primo studio revisionato da pari su R1 è stato pubblicato su Nature.

La ricerca ha riscontrato che R1 è stato addestrato con un budget di $294,000 mentre i concorrenti hanno speso decine di milioni di dollari.

“Questo è un precedente molto ben accetto,” ha detto Lewis Tunstall di Hugging Face, che ha recensito il documento. Anche Huan Sun dell’Università statale dell’Ohio è d’accordo, affermando: “Passare attraverso un rigoroso processo di revisione tra pari aiuta certamente a verificare la validità e l’utilità del modello,” ha riportato Sci Am.

DeepSeek afferma che R1 eccelle nei compiti di “ragionamento” come la matematica e la programmazione, utilizzando l’apprendimento per rinforzo, un processo che premia il sistema per aver risolto problemi autonomamente.

Ma accanto agli elogi, la società di sicurezza CrowdStrike, degli Stati Uniti, ha segnalato problemi di sicurezza, come riportato dal The Washington Post.

I test hanno rivelato che DeepSeek ha prodotto un codice meno sicuro o addirittura dannoso quando gli utenti hanno richiesto informazioni su gruppi che la Cina si oppone, come il Tibet, Taiwan e il gruppo spirituale vietato Falun Gong.

Quando si è chiesto di generare codice per lo Stato Islamico, il 42,1 percento delle risposte era insicuro. In particolare, anche quando DeepSeek forniva il codice, spesso conteneva difetti di sicurezza che lasciavano i sistemi vulnerabili agli attacchi informatici.

Gli esperti avvertono che un codice deliberatamente difettoso è più sottile delle backdoor, ma altrettanto rischioso, potenzialmente in grado di consentire accessi o manipolazioni non autorizzate di sistemi critici.

“Questa è una scoperta davvero interessante”, ha detto Helen Toner della Georgetown University, come riportato dal Post. “Questo è qualcosa di cui le persone si sono preoccupate, prevalentemente senza alcuna prova”. CrowdStrike ha avvertito che l’inserimento di difetti potrebbe rendere gli obiettivi più facili da hackerare.

Il Post riporta che DeepSeek non ha risposto alle richieste di commento. Nonostante il crescente riconoscimento delle sue realizzazioni tecniche, l’azienda ora deve affrontare domande difficili su se la politica influenzi la sicurezza del suo codice.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!