Anthropic Rivela che un Hacker ha Utilizzato il suo Chatbot per Cyberattacchi

Photo by Glen Carrie on Unsplash

Anthropic Rivela che un Hacker ha Utilizzato il suo Chatbot per Cyberattacchi

Tempo di lettura: 3 Min.

La società di intelligenza artificiale Anthropic ha rilasciato un nuovo rapporto sulla sicurezza informatica mercoledì, rivelando che degli attori malintenzionati hanno utilizzato il suo modello di IA, Claude, per operazioni criminali sofisticate. La startup ha dichiarato che un hacker ha recentemente preso di mira circa 17 organizzazioni, sfruttando una nuova tecnica nota come “vibe hacking”.

Sei di fretta? Ecco i fatti essenziali:

  • Anthropic ha rivelato che gli hacker hanno utilizzato il suo modello di IA Claude per sofisticate operazioni criminali.
  • La startup ha condiviso un caso in cui un attore malevolo ha utilizzato il Codice Claude dalla Corea del Nord per attacchi ransomware mirati a circa 17 organizzazioni.
  • La startup avverte riguardo i casi emergenti di “vibe hacking”.

Secondo l’annuncio di Anthropic, l’azienda ha implementato diverse misure di sicurezza per prevenire l’abuso della tecnologia, ma i cybercriminali hanno trovato modi per sfruttarla.

In uno dei casi segnalati, la startup ha rivelato un’importante operazione criminale in cui un hacker, con competenze di programmazione di base, ha utilizzato Claude Code – uno strumento di programmazione agente – per realizzare una truffa originata dalla Corea del Nord.

“Ora i modelli di IA vengono utilizzati per eseguire sofisticati attacchi informatici, non solo per consigliare su come portarli a termine”, afferma l’annuncio. “Criminali con poche competenze tecniche stanno utilizzando l’IA per condurre operazioni complesse, come lo sviluppo di ransomware, che in precedenza avrebbero richiesto anni di formazione.”

Nel caso principale presentato, l’hacker ha utilizzato il Codice Claude per rubare dati da 17 organizzazioni, tra cui servizi di emergenza, agenzie governative, fornitori di assistenza sanitaria e istituzioni religiose. Successivamente, l’attore malevolo ha estorto le vittime, in alcuni casi richiedendo oltre $500,000.

Anthropic ha riportato che il suo agente AI è stato utilizzato per decidere quali dati esfiltrare, redigere messaggi di estorsione e persino suggerire somme di riscatto personalizzate per ciascuna vittima.

“L’attore ha utilizzato l’IA in quello che crediamo sia un grado senza precedenti”, afferma l’annuncio. “Ciò rappresenta un’evoluzione nella cybercriminalità assistita dall’IA.”

L’azienda ha dichiarato che non appena ha rilevato le operazioni malevole, ha bloccato gli account e sviluppato nuovi strumenti di controllo e rilevamento per prevenire casi simili in futuro. Ulteriori dettagli sono stati inclusi nel rapporto completo.

Anthropic ha anche messo in guardia su tecniche emergenti di “vibe hacking”. “Ci aspettiamo che attacchi di questo tipo diventino più comuni man mano che la programmazione assistita dall’IA riduce l’esperienza tecnica necessaria per il cybercrimine”, ha osservato l’azienda.

Infine, Anthropic ha evidenziato la crescente integrazione dell’IA nei piani cyber esistenti, citando esempi come la truffa dei lavoratori IT nordcoreani segnalata ad aprile, in cui gli hacker hanno rubato le identità dei cittadini americani per ottenere posti di lavoro remoti negli Stati Uniti.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!