Truffe con voci clonate dall’AI: come proteggersi

Truffe con voci clonate dall'AI: come proteggersi

L’uso dell’intelligenza artificiale per clonare voci sta diventando una truffa sempre più diffusa, sfruttando video e contenuti online. Ecco cosa sapere e come difendersi.

Negli ultimi anni, la tecnologia dell’intelligenza artificiale (AI) ha fatto passi da gigante, ma come spesso accade, le innovazioni possono essere sfruttate da malintenzionati per scopi illeciti. Una delle truffe emergenti è la clonazione vocale, in cui truffatori utilizzano frammenti di audio da video pubblicati online per replicare la voce dellevittime. Questo fenomeno, reso noto da una recente ricerca di Starling Bank, sta colpendo un numero sempre maggiore di persone, molte delle quali non sono consapevoli del rischio.

Vediamo insieme come funziona questo nuovo tipo di truffa e quali sono le migliori strategie per difendersi.

Clonazione vocale con l’AI: come funziona la truffa
La vulnerabilità dei social media per le truffe online
Come proteggersi dalle truffe vocali
L’AI e le sfide future nel campo della sicurezza

Clonazione vocale con l’AI: come funziona la truffa

La clonazione vocale si basa sull’utilizzo dell’intelligenza artificiale per riprodurre fedelmente il tono e il timbro della voce di una persona. I truffatori sfruttano video o registrazioni audio pubblicate e disponibili online, come quelli caricati sui social media, per ottenere pochi secondi di voce. Questi pochi secondi sono sufficienti per l’AI a creare un clone digitale della voce, che può essere utilizzato per ingannare familiari e amici delle vittime, solitamente chiedendo denaro con urgenza.

Secondo la ricerca di Starling Bank, il 28% delle persone intervistate è stato vittima o bersaglio di questa truffa almeno una volta nell’ultimo anno. Il dato è preoccupante, considerando che ben il 46% degli intervistati non era nemmeno a conoscenza dell’esistenza di questo tipo di frode.

La vulnerabilità dei social media per le truffe online

I social media, piattaforme dove gli utenti condividono liberamente contenuti personali, rappresentano un terreno fertile per i truffatori. Spesso non ci si rende conto che un semplice video o pubblicato online può essere utilizzato per scopi fraudolenti.

Come sottolineato da Lisa Grahame, responsabile della sicurezza informatica di Starling Bank, “Le persone pubblicano regolarmente online contenuti che contengono registrazioni della loro voce, senza mai immaginare che ciò le renda più vulnerabili ai truffatori”.

Questa forma di frode sfrutta la fiducia riposta in voci familiari, rendendo difficilissimo per le vittime sospettare che dietro una richiesta di aiuto si nasconda un truffatore. Anche solo pochi secondi di audio possono essere sufficienti per l’AI per creare un clone vocale pressoché perfetto.

Come proteggersi dalle truffe vocali

Nonostante la crescente sofisticazione di queste truffe, ci sono alcune strategie semplici ed efficaci che si possono adottare per proteggersi. Starling Bank raccomanda, ad esempio, di creare frasi di sicurezza con amici e familiari. Queste frasi possono essere utilizzate per verificare se una chiamata o un messaggio vocale proviene davvero dalla persona che afferma di essere. Basterebbe solo qualche minuto per concordare una frase che possa sventare l’inganno di un truffatore.

Inoltre, è sempre buona pratica diffidare delle chiamate vocali o dei messaggi sospetti e, in caso di dubbio, contattare direttamente la persona coinvolta attraverso un altro canale per verificare la veridicità della richiesta.

L’AI e le sfide future nel campo della sicurezza

L’uso dell’intelligenza artificiale nelle truffe non si limita alla clonazione vocale. In casi estremi, sono state riportate anche truffe più sofisticate come l’uso di deepfake in videoconferenze per impersonare dirigenti aziendali. Ad esempio, in un caso accaduto a Hong Kong, una dipendente ha trasferito ingenti somme di denaro convinta di parlare con un superiore, quando in realtà era stata ingannata da un video deepfake.

Un’altra forma sempre più sofisticata di attacco è rappresentata dai messaggi di phishing potenziati dall’AI.

Tradizionalmente, le truffe di phishing sono riconoscibili per errori evidenti come ortografia scorretta o formati insoliti, ma con l’uso dell’intelligenza artificiale, i truffatori sono ora in grado di creare messaggi estremamente convincenti. L’AI può generare email o messaggi di testo praticamente indistinguibili da quelli autentici, utilizzando un linguaggio fluido e personalizzato. Questo rende molto più difficile per le vittime distinguere tra un messaggio genuino e uno fraudolento.

Le tecniche di phishing potenziate dall’AI sono diventate così avanzate che persino aziende internazionali di grandi dimensioni, con sofisticati sistemi di sicurezza, sono state ingannate

Questa evoluzione delle truffe basate sull’AI rappresenta una sfida significativa per la sicurezza informatica globale. Come affermato dall’agenzia di sicurezza informatica del Regno Unito, l’intelligenza artificiale sta rendendo sempre più difficile individuare queste frodi, aumentando il livello di rischio per privati e aziende. Non si tratta solo di attacchi rivolti a singoli individui, ma anche di operazioni mirate a grandi organizzazioni che, pur disponendo di risorse per la sicurezza, possono comunque essere vittime di inganni ben orchestrati.

Per contrastare queste minacce, è fondamentale implementare misure di sicurezza sempre più avanzate, come l’autenticazione a due fattori, e l’uso di antivirus e antispam di nuova generazione.

L’educazione continua su come riconoscere le potenziali truffe resta, comunque il punto cruciale: mantenere alta l’attenzione e verificare sempre l’autenticità delle richieste ricevute, soprattutto quando riguardano informazioni sensibili o trasferimenti di denaro, è il modo migliore per ridurre il rischio di cadere vittima di phishing o di altre truffe AI.

Condividi

Articoli correlati

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto