Hacker Nordcoreani hanno utilizzato ChatGPT per falsificare ID Militari tramite Deepfake in un Cyberattacco

Close up on screen displaying ChatGPT homepage

Hacker Nordcoreani hanno utilizzato ChatGPT per falsificare ID Militari tramite Deepfake in un Cyberattacco

Tempo di lettura: 3 Min.

Un gruppo di hacker sospettati di essere sponsorizzati dallo stato nordcoreano ha utilizzato ChatGPT per creare un deepfake di un documento di identità militare sudcoreano come parte di un cyberattacco

Sei di fretta? Ecco i fatti rapidi:

  • La email di phishing conteneva malware progettato per rubare i dati delle vittime.
  • Si sospetta che il gruppo dietro l’attacco sia l’unità nordcoreana “Kimsuky”.
  • I bersagli includevano giornalisti, ricercatori e attivisti per i diritti umani in Corea del Sud.

Gli aggressori hanno sviluppato una falsa carta d’identità per aumentare la loro credibilità durante la loro operazione di phishing, come riportato da Bloomberg. Invece di includere una vera immagine, l’email di phishing conteneva un link che innescava il download di un malware, progettato per rubare dati dai dispositivi delle vittime.

Si ritiene che gli hacker facciano parte di Kimsuky, un gruppo da tempo sospettato di lavorare per Pyongyang. Il Dipartimento della Sicurezza Interna degli USA ha dichiarato nel 2020 che Kimsuky “è molto probabile che sia incaricato dal regime nordcoreano di una missione globale di raccolta di informazioni”, come riportato da Bloomberg.

Gli obiettivi del phishing in questo ultimo attacco includevano giornalisti sudcoreani, ricercatori e attivisti per i diritti umani che si concentrano sulla Corea del Nord. Bloomberg spiega che le email di phishing hanno persino utilizzato un indirizzo che terminava in “.mil.kr” per imitare l’esercito sudcoreano. Rimane poco chiaro quanti individui siano stati coinvolti.

“Gli aggressori possono sfruttare l’intelligenza artificiale emergente durante il processo di hacking, incluso la pianificazione degli scenari di attacco, lo sviluppo di malware, la creazione dei loro strumenti e per impersonare i selezionatori di personale”, ha detto Mun Chong-hyun, direttore di Genians, l’azienda sudcoreana di cybersecurity che ha scoperto per prima l’attacco.

Bloomberg riporta come i ricercatori di Genians abbiano scoperto che inizialmente ChatGPT ha rifiutato di creare un ID quando gli è stato chiesto, poiché la riproduzione di ID governativi è illegale in Corea del Sud. Ma modificando la richiesta sono riusciti a bypassare la restrizione.

Questo non è il primo caso di hacker nordcoreani che sfruttano l’IA. Ad esempio, Anthropic ha riferito ad agosto che gli hacker hanno utilizzato il suo strumento Claude Code per ottenere lavori remoti presso le aziende Fortune 500 negli Stati Uniti.

I funzionari statunitensi avvertono che la Corea del Nord continua a fare affidamento su attacchi informatici, furto di criptovalute e appaltatori IT sia per raccogliere informazioni di intelligence sia per finanziare il suo programma nucleare.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!