I deepfake rappresentano una minaccia sempre più grave nel panorama digitale, poiché la tecnologia dell’intelligenza artificiale (AI) viene utilizzata per creare video o audio che imitano persone reali. Mentre l’AI ha il potenziale per essere uno strumento di cambiamento positivo, può anche essere strumentalizzata dagli attori malintenzionati, ampliando i rischi che non abbiamo mai affrontato prima.
Mentre i deepfake circolano online dal 2017, il loro impatto è aumentato considerevolmente, soprattutto nell’ultimo anno, in cui sono diventati più sofisticati e i criminali informatici hanno trovato nuovi modi creativi per sfruttarli. Inizialmente utilizzati per impersonare celebrità e personaggi pubblici, vengono ora utilizzati in attacchi personalizzati mirati specificamente ai dirigenti senior delle organizzazioni. Un esempio significativo di ciò è stato un dipendente del reparto finanze truffato per il trasferimento di 25 milioni di dollari a truffatori che hanno utilizzato un deepfake per impersonare il direttore finanziario dell’azienda.
È probabile che questo non sia l’ultimo grave attacco di questo genere, visto che una nostra ricerca ha rilevato che solo il 52% delle organizzazioni è altamente sicuro nella capacità di rilevare un deepfake del loro CEO. A alimentare questo problema c’è una scarsa consapevolezza pubblica dei pericoli dei deepfake. Secondo Ofcom, meno di metà dei residenti nel Regno Unito comprende cosa siano i deepfake, aumentando esponenzialmente la probabilità di un attacco di successo. Altrettanto preoccupante è il fatto che, secondo KPMG, l’80% dei dirigenti aziendali ritiene che i deepfake rappresentino una minaccia importante per le operazioni, ma solo il 29% ha adottato misure per difendersi.
Per affrontare la minaccia dei deepfake, le organizzazioni devono innanzitutto sensibilizzare e attuare strategie preventive. Ma da dove dovrebbero iniziare? Approfondiamo tre soluzioni che le organizzazioni dovrebbero considerare per evitare di cadere nella trappola.
Protezione dell’identità a doppio livello
Le organizzazioni hanno bisogno di un approccio a più livelli per la verifica dell’identità al fine di migliorare la sicurezza. I metodi biometrici, come le impronte digitali o il riconoscimento facciale, sono solidi ma non infallibili. Combinare questi metodi con passaggi aggiuntivi, come domande di sicurezza o notifiche push, consente alle organizzazioni di difendersi meglio senza compromettere l’esperienza dell’utente.
La rilevazione passiva delle minacce all’identità, un metodo di sicurezza che lavora in background per monitorare le attività insolite, diventa particolarmente utile in questo contesto. Lavorando in silenzio insieme ai metodi attivi di autenticazione, monitorerà le attività insolite sullo sfondo e attiverà metodi alternativi di verifica, come una notifica push che segnala attività di accesso insolite, senza interrompere ciò che sta facendo l’utente. Questo approccio consente di individuare e neutralizzare le minacce prima che causino danni significativi, mantenendo allo stesso tempo un processo user-friendly.
Passando dalla fiducia implicita alla verifica esplicita
L’idea di fidarsi automaticamente di ciò che vediamo e sentiamo deve finire ora che i deepfake possono rendere così facile falsificare le identità. Le apparenze possono essere ingannevoli e quindi dipendenti e consumatori devono verificare tutto. Ciò significa utilizzare ulteriori misure di sicurezza per interazioni a rischio come il trasferimento di denaro o il clic su link sconosciuti. Sebbene i controlli non siano necessari per ogni interazione, sono essenziali per le operazioni sensibili in cui la persona o la richiesta devono essere considerate autentiche prima di intraprendere qualsiasi azione.
Queste misure di sicurezza sono anche vitali per proteggersi dagli attacchi dei deepfake. Sappiamo che i deepfake spesso sfruttano tattiche di ingegneria sociale per ingannare i dipendenti, il che rappresenta un grave rischio poiché queste interazioni spesso bypassano le misure di sicurezza tradizionali. Ad esempio, una videochiamata Zoom apparentemente proveniente da un CEO potrebbe spingere un dipendente ad approvare una transazione finanziaria o a condividere credenziali sensibili. Le conseguenze di ciò non riguardano solo la perdita finanziaria, ma anche la sicurezza compromessa e la fiducia erosa, elementi essenziali per un efficiente svolgimento delle operazioni aziendali. Le organizzazioni devono riconoscere che la fiducia non può più essere presunta, ma deve essere attivamente verificata.
Sfruttare l’AI per la difesa
Ci troviamo in un punto cruciale in cui l’AI è sia la causa che la soluzione della sfida dei deepfake. Con l’avanzamento della tecnologia dei deepfake, è diventato fondamentale per le aziende adottare gli strumenti più recenti per rilevare e neutralizzare i rischi. Le soluzioni basate sull’AI, come il rilevamento dell’inserimento di immagini che identifica i contenuti manipolati e gli strumenti di rilevamento audio progettati per individuare l’audio generato in modo sintetico, sono difese essenziali nella lotta contro questa minaccia in crescita.
Poiché la tecnologia dei deepfake continua a evolversi, le organizzazioni devono rimanere un passo avanti. La sicurezza delle operazioni veramente protette richiede un approccio proattivo dell’organizzazione anziché reattivo di fronte a questa nuova frontiera della falsa identità digitale. Adottando un approccio poliedrico alla verifica dell’identità e rimanendo consapevoli delle tattiche utilizzate dai criminali informatici, le organizzazioni possono ribaltare il tavolo contro di loro, utilizzando le stesse innovazioni tecnologiche per proteggersi che gli attaccanti utilizzano per nuocere.
FAQ: Deepfake – Domande frequenti
1. Cosa sono i deepfake?
I deepfake sono video o audio creati utilizzando l’intelligenza artificiale (AI) per imitare persone reali, spesso senza il loro consenso.
2. Da quanto tempo i deepfake circolano online?
I deepfake circolano online dal 2017, ma il loro impatto è aumentato notevolmente negli ultimi anni.
3. Come vengono utilizzati i deepfake?
Inizialmente utilizzati per impersonare celebrità e personaggi pubblici, i deepfake vengono ora utilizzati per attacchi personalizzati mirati ai dirigenti senior delle organizzazioni.
4. Qual è un esempio di un attacco tramite deepfake?
Un esempio significativo è stato un dipendente del reparto finanze truffato per il trasferimento di denaro a truffatori che hanno utilizzato un deepfake per impersonare il direttore finanziario dell’azienda.
5. Quanto sono sicure le organizzazioni nel rilevare un deepfake del loro CEO?
Secondo una ricerca, solo il 52% delle organizzazioni è altamente sicuro nella capacità di rilevare un deepfake del loro CEO.
6. Qual è la consapevolezza pubblica dei pericoli dei deepfake?
Secondo Ofcom, meno di metà dei residenti nel Regno Unito comprende cosa siano i deepfake, aumentando la probabilità di un attacco di successo.
7. Come possono le organizzazioni proteggersi dai deepfake?
Le organizzazioni possono adottare un’approccio a più livelli per la verifica dell’identità, utilizzando metodi biometrici e passaggi aggiuntivi come domande di sicurezza o notifiche push. Inoltre, è importante passare dalla fiducia implicita alla verifica esplicita e sfruttare l’intelligenza artificiale per la difesa.
8. Quali sono le soluzioni basate sull’IA per la difesa contro i deepfake?
Le soluzioni basate sull’IA, come il rilevamento dell’inserimento di immagini e gli strumenti di rilevamento audio, sono difese essenziali nella lotta contro i deepfake.
Link correlati:
– Electronic Frontier Foundation – Deepfakes
– Wired – What are Deepfakes?
– Forbes – How to Stay Ahead of Deepfake Threats