
Image by Phạm Trần Hoàn Thịnh, from Unsplash
L’IA Sta Alimentando un’Impennata nelle Truffe di Sextortion su App di Incontri
L’intelligenza artificiale sta facilitando l’operato degli truffatori che mettono in atto schemi di sextortion su app di incontri, suscitando urgenti preoccupazioni per gli adolescenti, gli studenti e le forze dell’ordine.
Hai fretta? Ecco i fatti principali:
- Le truffe di sextortion stanno aumentando rapidamente, in particolare tra gli adolescenti e gli studenti.
- I truffatori si fingono interessi romantici utilizzando bot e profili falsi.
- Quasi 8.000 casi di ricatti legati alla sextortion sono stati registrati nel Regno Unito nel 2023
La pratica della sextortion esiste da tempo, ma la tecnologia AI permette ai criminali di creare false identità più credibili. Questo li abilita ad accelerare il contatto con le vittime e a produrre contenuti sessuali artificiali attraverso la tecnologia deepfake, come riportato da Vice.
L’FBI definisce la sextortion come un metodo in cui i criminali ingannano i minori a condividere foto esplicite prima di richiedere ulteriori immagini o denaro come pagamento per impedire la diffusione di queste immagini.
I criminali stanno ora utilizzando profili generati da IA per creare finti interessi romantici, spesso utilizzando foto deepfake e chatbot. L’FBI avverte che le vittime di solito scambiano i truffatori per coetanei che offrono connessioni romantiche o regali, ma in realtà stanno venendo manipolati.
Le truffe di ricatto agli studenti sono aumentate significativamente, secondo l’Agenzia Nazionale Anticrimine. I dati della BBC riportano che il numero di casi di ricatto legati alla sextortion è salito a 8.000 nel 2023, mentre il totale era di soli 23 nel 2014.
La BBC riporta che Jim Winters, capo del settore crimini economici di Nationwide, ha consigliato ai giovani di non rimanere in silenzio: “Il ricatto è una delle cose più difficili da affrontare ed è un fenomeno sempre più diffuso. Non è facile, ma se qualcosa non sembra giusto, parlane-”
Gli truffatori utilizzano ora la tecnologia deepfake per sovrapporre le immagini facciali delle vittime su contenuti pornografici, anche se le vittime non hanno mai condiviso materiale esplicito. Questa nuova tattica di ricatto elimina la necessità per le vittime di condividere contenuti prima che inizi il ricatto.
La BBC suggerisce che una truffa può essere identificata attraverso frasi ripetute nei messaggi, foto del profilo impeccabili e schemi di dialogo innaturali. Gli esperti della BPS suggeriscono l’uso di ricerche inverse per verificare le immagini sospette. Tuttavia, questi metodi diventano meno efficaci quando si tratta di contenuti generati dall’IA.
Gli esperti sottolineano la necessità di un dialogo aperto, educazione e strategie di prevenzione aggiornate, poiché esiste una ricerca limitata su come l’IA supporti questi crimini. Questi sforzi sono essenziali per proteggere i più vulnerabili dalle minacce digitali.