Image generated with ChatGPT
OPINIONE: “Vibe Hacking” – La Nuova Minaccia alla Cybersecurity Alimentata dall’IA
Gli esperti stanno mettendo in guardia da mesi sui pericoli del “vibe hacking”, ma nessun caso significativo era stato ufficialmente segnalato fino ad ora. Anthropic ha rilasciato un rapporto che rivela come attori malevoli stiano utilizzando i suoi avanzati modelli di intelligenza artificiale per automatizzare gli attacchi informatici.
Le aziende tecnologiche hanno promosso l’intelligenza artificiale generativa come panacea per tutto, dalla vita quotidiana alla cybersecurity. Ma la tecnologia avanzata ha sempre due facce: gli strumenti di intelligenza artificiale possono essere utilizzati per il bene – o per il male. E in entrambi i casi, tendono a sorprenderci.
Era solo questione di tempo prima che gli hacker iniziassero a sfruttare i potenti modelli di intelligenza artificiale e gli strumenti basati sull’IA rilasciati quest’anno.
Alcuni mesi fa, tutti parlavano di “vibe coding” e di come i nuovi sistemi di intelligenza artificiale permettessero a persone senza esperienza di programmazione di costruire siti web e app semplicemente scrivendo prompt efficaci.
Ora, stiamo affrontando il suo gemello malefico: il “vibe hacking”. I criminali informatici con poca conoscenza dello sviluppo del software stanno creando strumenti malevoli in grado di avere un impatto sociale massiccio.
Anthropic ha condiviso il suo primo rapporto sul “vibe hacking” nel suo Rapporto di Intelligence sulle Minacce: Agosto 2025, rivelando come gli attori malevoli abbiano abusato dei suoi modelli AI più avanzati per operazioni criminali sofisticate.
Dalla generazione di note di riscatto personalizzate per le vittime, alla costruzione di piattaforme di Ransomware-as-a-Service (RaaS), fino alla guida passo dopo passo degli hacker attraverso complessi attacchi informatici: ecco ciò che le persone devono sapere riguardo al “vibe hacking”.
Cos’è il “Vibe Hacking”?
Il termine “vibe hacking” è stato recentemente adottato per riferirsi a una nuova tattica di minaccia: attori malevoli che sfruttano modelli avanzati di AI per effettuare sofisticati attacchi informatici su larga scala. Anche senza una profonda conoscenza tecnica, gli hacker riescono a eludere le misure di sicurezza e ad utilizzare potenti agenti AI per eseguire operazioni complesse per loro conto.
A giugno, WIRED ha riferito che il “vibe hacking” stava diventando una preoccupazione crescente tra gli esperti di intelligenza artificiale. Strumenti come WormGPT e FraudGPT – sistemi di intelligenza artificiale costruiti senza barriere etiche – sono in circolazione dal 2023 e sono già nelle mani di soggetti malintenzionati.
Gli esperti hanno anche notato che il jailbreaking dei modelli di intelligenza artificiale di frontiera era diventato parte delle routine quotidiane degli hacker. Tuttavia, l’idea di attacchi di massa guidati da intelligenza artificiale rimaneva ipotetica solo alcuni mesi fa. “Lo paragono a essere su un aereo in atterraggio di emergenza dove è come ‘preparati, preparati, preparati’, ma non abbiamo ancora colpito nulla”, ha detto Hayden Smith, il co-fondatore della società di sicurezza Hunted Labs, in un’intervista con WIRED.
Ora, l’aereo è atterrato.
L’era del Vibe Hacking è arrivata
Nel suo ultimo rapporto, Anthropic ha rivelato che un singolo hacker, operante dal Nord Corea con solo competenze di programmazione di base, è riuscito a prendere di mira 17 organizzazioni in tutto il mondo, tra cui agenzie governative, fornitori di assistenza sanitaria, istituzioni religiose e persino servizi di emergenza.
L’attaccante si è affidato allo strumento di codifica agente di Anthropic, Claude Code, per condurre la campagna. Il sistema di IA ha consigliato quali dati esfiltrare, ha redatto messaggi di estorsione e ha persino suggerito richieste di riscatto, raccomandando a volte importi superiori a $500,000.
“L’attore ha utilizzato l’IA in quello che crediamo sia un grado senza precedenti,” ha scritto Anthropic nel suo annuncio della scorsa settimana. “Questo rappresenta un’evoluzione nel crimine informatico assistito dall’IA.”
Assistenti Hacker Autonomi di IA
I cybercriminali sperimentano l’IA da anni. Quello che rende l'”hacking del vibe” diverso è che ora la tecnologia sta svolgendo la maggior parte del lavoro pesante per loro.
L’indagine di Anthropic ha rivelato che gli attori malevoli hanno utilizzato il Claude Code in diversi modi: sviluppando malware, guidando gli aggressori passo dopo passo durante le operazioni dal vivo, organizzando e analizzando enormi tesori di dati rubati, e perfino automatizzando messaggi di estorsione personalizzati in base alle vulnerabilità di ogni vittima.
In un caso, un utente nel Regno Unito è riuscito a far sì che Claude costruisse un software – e non un software qualsiasi, ma un prodotto ransomware commerciale. Il modello di intelligenza artificiale ha generato una piattaforma ransomware-as-a-service (RaaS) progettata per aiutare l’utente a vendere ransomware attraverso forum come CryptBB, Dread, e Nulle, noti per favorire attività illegali.
La parte più scioccante? L’utente non sembrava capire pienamente cosa stesse facendo, poiché chiedeva frequentemente assistenza al sistema di intelligenza artificiale di Anthropic.
“L’operazione comprende lo sviluppo di molteplici varianti di ransomware con crittografia ChaCha20, tecniche anti-EDR e sfruttamento interno di Windows”, afferma lo studio. “La cosa più preoccupante è la dipendenza apparente dell’attore dall’IA: sembrano incapaci di implementare componenti tecnici complessi o risolvere problemi senza l’assistenza dell’IA, eppure stanno vendendo malware capaci.”
Compiti che una volta richiedevano mesi, o addirittura anni, a squadre di abili hacker ora vengono gestiti da modelli di IA, che possono assistere un singolo cybercriminale in ogni fase del processo.
Sistemi AI manipolati e utilizzati come armi
L’impatto negativo dei modelli di Intelligenza Artificiale (IA) sugli esseri umani è diventato un problema serio e urgente negli ultimi mesi, dalla psicosi collegata all’IA e ai suicidi, ai crescenti schemi di dipendenza. Ma mentre molto attenzione è stata concentrata su come l’IA danneggia le persone, meno attenzione è stata posta sul contrario: come le persone possono manipolare i modelli di IA e, a loro volta, utilizzarli per danneggiare gli altri.
Pochi giorni fa, i ricercatori dell’Università della Pennsylvania hanno pubblicato uno studio che rivela che i modelli di IA sono allarmantemente vulnerabili alla persuasione e alla lusinga. Hanno scoperto che modelli come l’OpenAI’s GPT-4o mini possono cadere preda di tattiche di ingegneria sociale e mostrare un comportamento “para-umano”, il che significa che, poiché sono addestrati sul comportamento umano, replicano anche le debolezze umane quando si tratta di manipolazione.
GPT-4o è caduto nelle trappole dei principi di persuasione popolari di cui gli umani sono solitamente vittime e ha rivelato informazioni che non avrebbe dovuto condividere, dati che rimanevano inaccessibili attraverso prompt più tradizionali.
Anthropic, per la sua parte, non ha divulgato i prompt specifici che gli hacker hanno usato per “liberare” il suo agente AI, né ha dettagliato esattamente come il sistema sia stato manipolato per assistere a sofisticati attacchi informatici. Tuttavia, studi recenti suggeriscono che questi modelli potrebbero essere molto più vulnerabili di quanto la maggior parte delle persone presumi. Con un po’ di fortuna, incrociando le dita, le vulnerabilità ora documentate non saranno più sfruttabili.
Dal Scrivere Un Saggio Al Hackerare Organizzazioni Internazionali
Ricordate quando la preoccupazione più grande riguardo i chatbot era che gli studenti potessero usarli per imbrogliare nei saggi? Beh, la nuova era dell’abuso di IA è ufficialmente arrivata: un’epoca in cui questi modelli possono essere usati come armi per attività malevole con un impatto molto più grande.
I malintenzionati stanno ora utilizzando i modelli di IA come copiloti per sofisticati attacchi informatici, senza che sia richiesta alcuna competenza tecnica.
Anthropic ha assicurato al pubblico di aver corretto le vulnerabilità, ridotto i rischi e rafforzato le misure di sicurezza per prevenire abusi simili. Tuttavia, l’azienda ha anche ammesso che non può prevedere come potrebbero essere sfruttati i futuri utenti o altri modelli di AI. Il rischio sarà sempre presente.
“Non si tratta solo di Claude,” ha detto uno dei dipendenti di Anthropic nel video annuncio relativo alla nuova minaccia di hacking del vibe. “Presumibilmente, riguarda tutti gli LLM.”
Siamo ancora nella fase di riconoscimento del vibe hacking e, con ogni minuto che passa, il rischio che questa tendenza si diffonda sembra aumentare. Alcuni esperti suggeriscono che la soluzione risieda nell’uso di più IA per la difesa e nello sforzo totale per la mitigazione. Ma è davvero sostenibile questa strategia a lungo termine? Sembra stia per iniziare una guerra di IA contro IA.