
Image by Solen Feyssa, from Unsplash
Hacker Ingannano Google Gemini per Diffondere Falsi Allarmi di Sicurezza
Il testo invisibile nelle email sta ingannando il Gemini AI di Google, generando finti avvisi di sicurezza e esponendo gli utenti a rischi di phishing e manipolazione sociale.
Sei di fretta? Ecco i fatti salienti:
- Trucchi di testo nascosto ingannano Gemini facendogli aggiungere falsi avvisi di sicurezza ai riassunti delle email.
- L’attacco non necessita di link, basta HTML e CSS invisibili nelle email.
- Google riconosce il problema e afferma che le correzioni stanno venendo implementate.
È stata scoperta una nuova vulnerabilità nel Gemini di Google dai ricercatori di cybersecurity presso 0DIN. Lo strumento AI per Workspace presenta una nuova falla di sicurezza che permette agli aggressori di effettuare attacchi di phishing sugli utenti.
L’attacco funziona attraverso una tecnica nota come iniezione indiretta di prompt. Gli ricercatori spiegano che l’attaccante incorpora istruzioni nascoste all’interno di un messaggio email. Fa questo scrivendo in caratteri bianchi o di dimensione zero.
Quando il destinatario clicca su “Riassumi questa email”, Gemini legge il comando invisibile e aggiunge un falso avviso al riassunto, come un messaggio che afferma che l’account Gmail dell’utente è stato compromesso e li esorta a chiamare un numero.
Poiché il testo nascosto è invisibile all’occhio umano, la vittima vede solo l’allarme generato dall’IA, non l’istruzione incorporata originale.
Questo astuto trucco non si basa su malware o link sospetti. Utilizza semplici trucchi HTML/CSS per rendere il testo nascosto invisibile agli esseri umani ma leggibile dal sistema IA di Gemini.
Una volta attivato, Gemini aggiunge messaggi del tipo: “ATTENZIONE: La tua password di Gmail è stata compromessa. Chiamare 1-800…” – inducendo le vittime a consegnare inconsapevolmente informazioni personali.
Un portavoce di Google ha riferito a BleepingComputer che l’azienda sta attivamente rafforzando le protezioni contro attacchi di questo tipo: “Stiamo costantemente irrobustendo le nostre già solide difese attraverso esercizi di red teaming che addestrano i nostri modelli a difendersi da questo tipo di attacchi avversari,”
La ricerca di 0DIN sottolinea un problema in crescita: gli strumenti di Intelligenza Artificiale possono essere manipolati proprio come i software tradizionali. Fino a quando le protezioni non miglioreranno, gli utenti dovrebbero trattare con cautela i riassunti generati dall’IA, soprattutto quelli che affermano di essere minacce urgenti alla sicurezza.