Anthropic lancia il suo ultimo modello, Claude 4, con avvertenze di sicurezza

Photo by Luke Jones on Unsplash

Anthropic lancia il suo ultimo modello, Claude 4, con avvertenze di sicurezza

Tempo di lettura: 3 Min.

La startup di intelligenza artificiale Anthropic ha rilasciato la sua ultima e più potente generazione di modelli di IA, Claude 4, questo giovedì. L’azienda tecnologica ha introdotto due modelli, Claude Sonnet 4 e Claude Opus 4, includendo un livello di protezione per l’ultimo e etichettandolo come Livello di Sicurezza 3 a causa di comportamenti ingannevoli e potenziali rischi.

Di fretta? Ecco i fatti rapidi:

  • Anthropic ha presentato Claude Sonnet 4 e Claude Opus 4, i modelli di intelligenza artificiale più avanzati dell’azienda.
  • La compagnia di intelligenza artificiale ha assicurato di aver sviluppato il “miglior modello di codifica al mondo”.
  • Claude Opus 4 è stato classificato come Livello di Sicurezza 3 a causa del comportamento ingannevole e dei potenziali rischi.

Secondo l’annuncio, i nuovi modelli di IA presentano capacità di codifica avanzate, ragionamento migliorato e comportamenti agentici. Claude Sonnet 4 e Claude Opus 4 sono modelli ibridi che possono cercare sul web in modalità di pensiero esteso e svolgere più compiti contemporaneamente.

Anthropic sostiene inoltre che questi nuovi modelli superano in prestazioni i sistemi concorrenti come OpenAI o3, OpenAI GPT-4.1 e Gemini 2.5 Pro.

“Claude Opus 4 è il miglior modello di codifica al mondo, con prestazioni sostenute su compiti complessi e di lunga durata e flussi di lavoro dell’agente,” afferma l’annuncio. “Claude Sonnet 4 è un notevole miglioramento rispetto a Claude Sonnet 3.7, fornendo una codifica e un ragionamento superiori, rispondendo in modo più preciso alle tue istruzioni.”

Secondo CNBC, Anthropic si è concentrata maggiormente nel migliorare le capacità agentiche del suo chatbot piuttosto che sviluppare nuovi chatbot. Jared Kaplan, capo ufficiale scientifico di Anthropic, ha detto che comprendono che i compiti complessi possono portare a più rischi e stanno lavorando per mitigarli e permettere ai modelli di intelligenza artificiale di eseguire più compiti contemporaneamente.

“Abbiamo iniziato ad addestrare questi modelli dall’anno scorso e li stavamo veramente aspettando con ansia”, ha detto Kaplan in un’intervista con CNBC. “Penso che questi modelli siano molto, molto più forti come agenti e come programmatori. È stata sicuramente una lotta interna, solo perché alcune delle nuove infrastrutture che stavamo utilizzando per addestrare questi modelli… hanno reso tutto molto incerto per i team in termini di messa in funzione di tutto.”

Insieme all’annuncio dei nuovi modelli, Anthropic ha anche pubblicato una nota sulla sicurezza riguardante Claude Opus 4, evidenziando che un livello di sicurezza è stato incluso nel modello e hanno attivato il Livello di Sicurezza AI 3 (ASL-3) – una classificazione ad alto rischio secondo i protocolli di sicurezza standard.

“Stiamo implementando Claude Opus 4 con le nostre misure ASL-3 come azione precauzionale e provvisoria”, dichiara il documento. “Per essere chiari, non abbiamo ancora determinato se Claude Opus 4 ha superato definitivamente la Soglia delle Capacità che richiede protezioni ASL-3.”

Anthropic ha condiviso un rapporto più dettagliato che spiega i rischi del modello, compresi il suo comportamento ingannevole e potenziali “compiti prossimi alla biologica arma”–e le misure adottate per mitigare questi rischi. L’azienda di intelligenza artificiale ha assicurato che continuerà a supervisionare il modello e a collaborare con altre aziende, la società civile e il governo per migliorare le misure di sicurezza.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!