LastPass ha rivelato questa settimana che un suo dipendente è stato vittima di un attacco di "phishing vocale" dopo essere stato contattato da un attore di minaccia che, usando tecnologie di deepfake audio, ha impersonato il CEO dell'azienda Karim Toubba.
Il deepfake audio usato nell'attacco a LastPass è probabile che sia stato realizzato usando i modelli IA in grado di replicare una voce a partire da pochi secondi di registrazione e sfruttando l'audio di un qualsiasi video pubblicamente disponibile del CEO di LastPass, come quelle presenti su YouTube.