Hirdetés
. Hirdetés

Hackerek deepfake-kel jelentkeznek távmunkára és távoznak értékes adatokkal

|

Az FBI szerint a csalók lopott személyazonosságot, hamis videót és manipulált hangokat használtak, hogy hozzáférjenek érzékeny vállalati adatokhoz.

Hirdetés

A nyitott informatikai pozícióra felvételt szervező vállalatoknak talán többet kell tenniük annál, minthogy azt elemzik, miként reagálnak a leendő alkalmazottak a "Mi a legrosszabb tulajdonsága?" kérdésre. Ha a potenciális munkaerő tüsszent vagy köhög anélkül, hogy mozgatná a száját, a legrosszabb tulajdonsága leginkább az, hogy valójában nem is valódi.

Az FBI heti jelentése szerint több olyan panasz érkezett a hatósághoz, amelyben lopott adatokkal, valamint hamisított videóval és hanggal jelentkeztek informatikai pozíciókra.

Hirdetés

Az FBI közleménye szerint számos cég jelentett már több esetet, amikor a pályázók nem valódi videót, képeket, illetve felvételeket használva jelentkeztek egy-egy adott pozícióra, kiadva magukat teljesen más személynek. A csalók más emberek személyes azonosító adatait is felhasználták - lopott személyazonosságokat -, hogy informatikai, programozói, adatbázis- és szoftvercégeknél jelentkezzenek állásokra. A jelentés megjegyezte, hogy a nyitott állások közül sokan hozzáférnek érzékeny ügyfél- vagy munkavállalói adatokhoz, valamint pénzügyi és védett vállalati információkhoz, ami arra utal, hogy a csalóknak nemcsak az érzékeny információk ellopása lehet a céljuk, hanem az is, hogy kissé feltupírozott fizetést kapjanak.

Az nem világos, hogy hány ilyen hamis álláskeresési kísérlet volt sikeres, és hányat kaptak el és jelentettek be. Esetleg ki jutott jóval beljebb így egy adott szervezetbe. A közlemény szerint ezek a jelentkezők nyilvánvalóan hanghamisítási technikákat alkalmaztak az online interjúk során, ahol a szájmozgás nem egyezett azzal, amit a videohívások során mondtak. A jelek szerint néhány ilyen esetben a csaló akkor bukott el, amikor köhögött vagy tüsszentett, ám a deepfake nem vett észre.

Az FBI több ügynökség mellett már a közelmúltban is figyelmeztette a vállalatokat az észak-koreai kormánynak dolgozó személyekre, akik informatikai vagy más technológiai állásokra jelentkeztek távmunkára. Ezekben az esetekben a hamis munkavállalók gyakran hamis dokumentációval és referenciákkal pályáznak, hogy bejussanak a vállalatokhoz.

A szövetségi ügynökségek májusi jelentésében leírtakhoz hasonló esetekben egyes hackerek több rétegű fedőcégen keresztül dolgoztak, így sokkal nehezebb volt felismerni személyazonosságukat.

Bár a technológia sokat fejlődött, a deepfake-próbálkozások gyakran olyan amatőr beszédutánzatot eredményeztek, amelyek alig egyeztek az interjúalany szájával. De volt példa olyan professzionálisan készített videókra is, amelyek sokkal jobban próbáltak valódi embernek tűnő hangot generálni.

És nem is olyan könnyű felismerni egy csalásokat. A Carnegie Mellon Egyetem kutatóinak friss jelentése szerint a hamisított videók felismerésére szánt mesterséges intelligencia pontossága 30 és 97% között lehet. Az emberek számára is vannak módszerek a hamisított videók felismerésére, érdemes figyelni bizonyos vizuális hibákra, például a gyanús árnyékokra vagy a nem pontosnak tűnő bőrtextúrára.

A szövetségiek arra kérték azokat a vállalatokat, amelyek hamis pályázót gyanítanak, hogy jelentsék azt a panaszközpont oldalán.

Hardverek, szoftverek, tesztek, érdekességek és színes hírek az IT világából ide kattintva!

Hirdetés
0 mp. múlva automatikusan bezár Tovább az oldalra »

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Engedélyezi, hogy a https://computerworld.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.