Korzystając ze sztucznie wygenerowanego głosu prezesa dużej firmy, przestępcy zadzwonili do dyrektora jednej z jej spółek zależnych i poprosili o wykonanie przelewu. Udało im się wyłudzić w ten sposób 243 tys. dolarów. To prawdopodobnie pierwszy opisany przykład oszustwa z wykorzystaniem dźwięku stworzonego w technologii deepfake.

Dyrektor brytyjskiej firmy z branży energetycznej był przekonany, że odebrał telefon od prezesa spółki-matki. Głos mężczyzny nie wzbudzał podejrzeń, rozpoznał nawet charakterystyczny niemiecki akcent swojego zwierzchnika.

Jak relacjonuje "The Wall Street Journal", rozmówca poprosił o pilny przelew 243 tys. dolarów na konto węgierskiego partnera. Naciskał na pośpiech. Prosił, by pieniądze zostały przelane w ciągu godziny. Obiecywał, że firma szybko dostanie zwrot przelanych pieniędzy.

Podrobiony głos

Gdy dyrektor zrobił przelew, odebrał kolejny telefon z zapewnieniem, że spółka-matka przetransferowała na konto jego firmy pieniądze, wyrównanie za przekazane środki.

Tego samego dnia dyrektor odebrał jeszcze trzeci telefon. Przestępcy podszywający się pod prezesa poprosili o kolejny przelew. Dyrektor nabrał w końcu podejrzeń, ponieważ zapowiedziany transfer ze zwrotem pieniędzy nie dotarł, a telefon został wykonany z austriackiego numeru.

Według ustaleń WSJ, wydarzenie może być pierwszym opisanym cyberprzestępstwem, w którym zastosowano oprogramowanie wykorzystujące sztuczną inteligencję i technologię deepfake.

Pierwszym opisanym, ale prawdopodobnie nie pierwszym w ogóle. Według firmy technologicznej Symantec, w tym roku już trzy duże firmy stały się ofiarami oszustów, wykorzystujących technologię deepfake do manipulacji dźwiękiem. W jednym z przypadków, jak podaje "Financial Times", firma przelała 10 mln dolarów przestępcom, którzy wykorzystując sztuczną inteligencję, udawali przez telefon jednego z dyrektorów firmy.

Olbrzymie możliwości technologii deepfake

Deepfake to w największym skrócie fałszywka, do stworzenia której wykorzystano sztuczną inteligencję. W bardziej skomplikowanym tłumaczeniu to rozwiązanie opierające się na algorytmach tzw. generative adversarial networks (GAN), bazujących na dwóch sieciach. Jedna identyfikuje, analizuje i uczy się schematów w zbiorach danych. Na przykład cech powtarzających się w nagraniach dźwiękowych - intonacji, wady wymowy - tak, by móc odtworzyć np. wypowiedź celebryty brzmiącą jak autentyczna. Drugi element GAN porównuje prawdziwe i fałszywe materiały i sprawdza, czy efekt brzmi realistycznie. Jeśli nie, model robiony jest tak długo, aż zostanie uznany za realistyczny. O technologiach deepfake mówiło się dotychczas głównie w odniesieniu do materiałów wideo.

Podejrzanych brak

Według relacji Ruedigera Kirscha, eksperta firmy ubezpieczeniowej, która wypłaciła odszkodowanie poszkodowanemu przedsiębiorstwu, pieniądze, które trafiły na węgierskie konto zostały później przelane na rachunek w Meksyku. - Służby zajmujące się sprawą nie zidentyfikowały żadnych podejrzanych - mówi Kirsch, cytowany przez WSJ.

Według eksperta, przestępcy wykorzystali oprogramowanie sztucznie generujące głos. Nie jest jasne, w jaki sposób przeprowadzili atak - czy korzystali z przygotowanych wcześniej nagrań, czy stosowali narzędzie zmieniające głos "na żywo".

WSJ zwraca uwagę, że przestępcy mogli zmontować fragmenty autentycznych nagrań głosu prezesa firmy. Wykorzystanie tej techniki zostało zaprezentowane m.in. na ubiegłorocznej konferencji Black Hat. Naukowcy pokazali wówczas, że już dostępne narzędzia dają możliwość zrekonstruowania głosu dowolnej osoby, by przełamać zabezpieczenie identyfikacji głosowej wykorzystywanej np. przez banki. Ich zdaniem, dla takich zabezpieczeń, jakość dźwięku nie musi być idealna, by je oszukać. Udowodnili, że są w stanie takiego oszustwa dokonać w 10 minut.

Sztuczna inteligencja

Nad możliwością tworzenia wypowiedzi, które nie padły, pracowała m.in. firma Adobe. Na jednej z konferencji w 2016 r. zaprezentowała VoCo, oprogramowanie, któremu wystarczy 20 minut nagrania głosu, by stworzyć jakąkolwiek nową wypowiedź danej osoby na dowolny temat, jakiejkolwiek długości. Prezentacja wzbudziła zachwyt możliwościami, ale i obawy o etyczność takich rozwiązań. Do sierpnia 2019 r. nie ma informacji, by zostało ono wprowadzone na rynek.

Siedem zasad dla sztucznej inteligencji. Bruksela chce cyberregulacji

W maju tego roku o opracowaniu podobnej technologii poinformowała Dessa, firma tworząca rozwiązania wykorzystujące sztuczną inteligencję. System RealTalk pozwala na wygenerowanie głosu na podstawie wpisanego tekstu. By pokazać możliwości technologii, firma zaprezentowała nagranie sfabrykowanego głosu popularnego autora podcastów Joe Rogana. Większość wypowiedzi brzmi płynnie i niezwykle wiarygodnie. Fałszywy ton pojawia się, gdy Rogan rzekomo wypowiada angielskie łamańce językowe.

W artykule opublikowanym na stronie Medium, Dessa chwali się możliwościami stworzonego narzędzia, podkreślając możliwość jego wykorzystania w systemach asystenta głosowego czy w dubbingu.

Autor artykułu zwraca jednak uwagę na ryzyko wykorzystania technologii przez przestępców. Wśród potencjalnych metod wymieniono podszywanie się pod bliskie osoby w celu wyłudzenia informacji, czy stworzenie sfabrykowanego nagrania głosu polityka.

Jak się chronić? Tradycyjnie - sprawdzać

Opisując sprawę wyłudzenia 243 tys. dolarów od brytyjskiej firmy, portal The Next Web przypomina wydane w lipcu ostrzeżenie Israel National Cyber Directorate (Izraelski Narodowy Zarząd ds. Cyberbezpieczeństwa). Wskazano w nim na możliwe wykorzystanie sztucznej inteligencji w celu podszycia się pod kadrę zarządzającą przedsiębiorstwami.

Wśród zaleceń, które mają na celu ochronę przed przestępstwami, wymieniono m.in. szkolenie pracowników, weryfikowanie przez nich przekazywanych im instrukcji przekazywanych i stosowanie technologii zabezpieczających.

Jak radzić sobie z deepfake'ami? "Do dziennikarzy należałoby ustalenie, co jest prawdą, a co jest fejkiem"

W wypowiedzi dla portalu Cyber Security Hub, dr Rebecca Wynn, szefowa działu bezpieczeństwa  informacji i ochrony danych w firmie Matrix Medical Network, także zaleca weryfikowanie poleceń służbowych związanych z obrotem dużymi kwotami. "Sam fakt, że wiadomość pochodzi od kogoś z tytułem dyrektorskim, nie powinien wywoływać pośpiesznych reakcji pracowników w kwestii naruszania firmowych procedur" - powiedziała Wynn.

"Weryfikujcie, jeśli odbierzecie e-mail lub telefon z określonymi żądaniami, natychmiast zadzwońcie na wyznaczony numer telefonu w celu zweryfikowania polecenia i poproszenia o potwierdzenie mailem, lub cokolwiek innego, co zakłada polityka bezpieczeństwa waszej firmy" - podkreśla Wynn, cytowana przez CSHub. Podkreśla również, że osoby, które naciskają na weryfikację, nie powinny być w firmach z tego powodu dyskryminowane.

Autor:  kjab
Źródło:  Konkret24, wsj.com, cshub.com; zdjęcie tytułowe: Clint Patterson, Unsplash

Pozostałe