Korzystając ze sztucznie wygenerowanego głosu prezesa dużej firmy, przestępcy zadzwonili do dyrektora jednej z jej spółek zależnych i poprosili o wykonanie przelewu. Udało im się wyłudzić w ten sposób 243 tys. dolarów. To prawdopodobnie pierwszy opisany przykład oszustwa z wykorzystaniem dźwięku stworzonego w technologii deepfake.

Dyrektor brytyjskiej firmy z branży energetycznej był przekonany, że odebrał telefon od prezesa spółki-matki. Głos mężczyzny nie wzbudzał podejrzeń, rozpoznał nawet charakterystyczny niemiecki akcent swojego zwierzchnika.

Jak relacjonuje "The Wall Street Journal", rozmówca poprosił o pilny przelew 243 tys. dolarów na konto węgierskiego partnera. Naciskał na pośpiech. Prosił, by pieniądze zostały przelane w ciągu godziny. Obiecywał, że firma szybko dostanie zwrot przelanych pieniędzy.

Podrobiony głos

Gdy dyrektor zrobił przelew, odebrał kolejny telefon z zapewnieniem, że spółka-matka przetransferowała na konto jego firmy pieniądze, wyrównanie za przekazane środki.

Tego samego dnia dyrektor odebrał jeszcze trzeci telefon. Przestępcy podszywający się pod prezesa poprosili o kolejny przelew. Dyrektor nabrał w końcu podejrzeń, ponieważ zapowiedziany transfer ze zwrotem pieniędzy nie dotarł, a telefon został wykonany z austriackiego numeru.

Według ustaleń WSJ, wydarzenie może być pierwszym opisanym cyberprzestępstwem, w którym zastosowano oprogramowanie wykorzystujące sztuczną inteligencję i technologię deepfake.

Pierwszym opisanym, ale prawdopodobnie nie pierwszym w ogóle. Według firmy technologicznej Symantec, w tym roku już trzy duże firmy stały się ofiarami oszustów, wykorzystujących technologię deepfake do manipulacji dźwiękiem. W jednym z przypadków, jak podaje "Financial Times", firma przelała 10 mln dolarów przestępcom, którzy wykorzystując sztuczną inteligencję, udawali przez telefon jednego z dyrektorów firmy.

Deepfake to w największym skrócie fałszywka, do stworzenia której wykorzystano sztuczną inteligencję. W bardziej skomplikowanym tłumaczeniu to rozwiązanie opierające się na algorytmach tzw. generative adversarial networks (GAN), bazujących na dwóch sieciach. Jedna identyfikuje, analizuje i uczy się schematów w zbiorach danych. Na przykład cech powtarzających się w nagraniach dźwiękowych - intonacji, wady wymowy - tak, by móc odtworzyć np. wypowiedź celebryty brzmiącą jak autentyczna. Drugi element GAN porównuje prawdziwe i fałszywe materiały i sprawdza, czy efekt brzmi realistycznie. Jeśli nie, model robiony jest tak długo, aż zostanie uznany za realistyczny. O technologiach deepfake mówiło się dotychczas głównie w odniesieniu do materiałów wideo.

Podejrzanych brak

Według relacji Ruedigera Kirscha, eksperta firmy ubezpieczeniowej, która wypłaciła odszkodowanie poszkodowanemu przedsiębiorstwu, pieniądze, które trafiły na węgierskie konto zostały później przelane na rachunek w Meksyku. - Służby zajmujące się sprawą nie zidentyfikowały żadnych podejrzanych - mówi Kirsch, cytowany przez WSJ.

Według eksperta, przestępcy wykorzystali oprogramowanie sztucznie generujące głos. Nie jest jasne, w jaki sposób przeprowadzili atak - czy korzystali z przygotowanych wcześniej nagrań, czy stosowali narzędzie zmieniające głos "na żywo".

WSJ zwraca uwagę, że przestępcy mogli zmontować fragmenty autentycznych nagrań głosu prezesa firmy. Wykorzystanie tej techniki zostało zaprezentowane m.in. na ubiegłorocznej konferencji Black Hat. Naukowcy pokazali wówczas, że już dostępne narzędzia dają możliwość zrekonstruowania głosu dowolnej osoby, by przełamać zabezpieczenie identyfikacji głosowej wykorzystywanej np. przez banki. Ich zdaniem, dla takich zabezpieczeń, jakość dźwięku nie musi być idealna, by je oszukać. Udowodnili, że są w stanie takiego oszustwa dokonać w 10 minut.

Sztuczna inteligencja

Nad możliwością tworzenia wypowiedzi, które nie padły, pracowała m.in. firma Adobe. Na jednej z konferencji w 2016 r. zaprezentowała VoCo, oprogramowanie, któremu wystarczy 20 minut nagrania głosu, by stworzyć jakąkolwiek nową wypowiedź danej osoby na dowolny temat, jakiejkolwiek długości. Prezentacja wzbudziła zachwyt możliwościami, ale i obawy o etyczność takich rozwiązań. Do sierpnia 2019 r. nie ma informacji, by zostało ono wprowadzone na rynek.

W maju tego roku o opracowaniu podobnej technologii poinformowała Dessa, firma tworząca rozwiązania wykorzystujące sztuczną inteligencję. System RealTalk pozwala na wygenerowanie głosu na podstawie wpisanego tekstu. By pokazać możliwości technologii, firma zaprezentowała nagranie sfabrykowanego głosu popularnego autora podcastów Joe Rogana. Większość wypowiedzi brzmi płynnie i niezwykle wiarygodnie. Fałszywy ton pojawia się, gdy Rogan rzekomo wypowiada angielskie łamańce językowe.

W artykule opublikowanym na stronie Medium, Dessa chwali się możliwościami stworzonego narzędzia, podkreślając możliwość jego wykorzystania w systemach asystenta głosowego czy w dubbingu.

Autor artykułu zwraca jednak uwagę na ryzyko wykorzystania technologii przez przestępców. Wśród potencjalnych metod wymieniono podszywanie się pod bliskie osoby w celu wyłudzenia informacji, czy stworzenie sfabrykowanego nagrania głosu polityka.

Jak się chronić? Tradycyjnie - sprawdzać

Opisując sprawę wyłudzenia 243 tys. dolarów od brytyjskiej firmy, portal The Next Web przypomina wydane w lipcu ostrzeżenie Israel National Cyber Directorate (Izraelski Narodowy Zarząd ds. Cyberbezpieczeństwa). Wskazano w nim na możliwe wykorzystanie sztucznej inteligencji w celu podszycia się pod kadrę zarządzającą przedsiębiorstwami.

Wśród zaleceń, które mają na celu ochronę przed przestępstwami, wymieniono m.in. szkolenie pracowników, weryfikowanie przez nich przekazywanych im instrukcji przekazywanych i stosowanie technologii zabezpieczających.

W wypowiedzi dla portalu Cyber Security Hub, dr Rebecca Wynn, szefowa działu bezpieczeństwa  informacji i ochrony danych w firmie Matrix Medical Network, także zaleca weryfikowanie poleceń służbowych związanych z obrotem dużymi kwotami. "Sam fakt, że wiadomość pochodzi od kogoś z tytułem dyrektorskim, nie powinien wywoływać pośpiesznych reakcji pracowników w kwestii naruszania firmowych procedur" - powiedziała Wynn.

"Weryfikujcie, jeśli odbierzecie e-mail lub telefon z określonymi żądaniami, natychmiast zadzwońcie na wyznaczony numer telefonu w celu zweryfikowania polecenia i poproszenia o potwierdzenie mailem, lub cokolwiek innego, co zakłada polityka bezpieczeństwa waszej firmy" - podkreśla Wynn, cytowana przez CSHub. Podkreśla również, że osoby, które naciskają na weryfikację, nie powinny być w firmach z tego powodu dyskryminowane.

Autor:  kjab
Źródło:  Konkret24, wsj.com, cshub.com; zdjęcie tytułowe: Clint Patterson, Unsplash

Pozostałe

Nie, fale elektromagnetyczne nie zwiększają zachorowań na COVID-19

Anteny 5G nie są potajemnie montowane w zamkniętych teraz szkołach. W Trójmieście nie postawiono w czasie kwarantanny 100 nadajników 5G. W krajach stosujących technologię 5G nie ma zwiększonej śmiertelności na COVID-19. Przeciwnicy 5G w Polsce strach przed epidemią wykorzystują do dezinformacji.

Wyłudzanie pieniędzy "na koronawirusa" - uważaj na linki

Internauci pokazują w mediach społecznościowych SMS-y, których nadawcami są rzekomo banki zachęcające ich do dokonania przelewów. SMS-y dotyczące płatnych szczepień miało niby rozsyłać Ministerstwo Zdrowia. Policja ostrzega przed oszustami próbującymi wykorzystać stan zagrożenia epidemicznego do wyłudzania pieniędzy.

Hiperrealistyczna maska. Tak oszuści wykorzystują cudzą tożsamość

Założenie realistycznej silikonowej maski umożliwia oszustom przejście bez problemów przez odprawę paszportową, a złodziejom wrobienie niewinnej osoby w napad na bank. O tym, jak trudno dostrzec, że ktoś ukrywa się pod taką maską - nawet gdy siedzi naprzeciwko nas - świadczą wyniki badania zespołu naukowców z Uniwersytetu w Yorku. Na Konkret24 publikujemy tekst brytyjskich badaczy omawiających to nowe zagrożenie.

Instagram oznacza retuszowane zdjęcia i sztukę jako fałsz? Nie automatycznie

Po oznaczeniu na Instagramie zdjęcia kolorowych gór jako fałszu, w sieci pojawiły się artykuły sugerujące, że przez nowe rozwiązania stosowane na platformie wszystkie retuszowane zdjęcia oraz prace artystyczne będą automatycznie w ten sposób ukrywane przed użytkownikami. Przedstawiciele serwisu wyjaśniają, że ich niezależni weryfikatorzy sprawdzają wszystkie zgłoszone materiały i to od nich zależy, co zostanie zakwalifikowane jako nieprawda. Niedawno wdrożony system prowadzi jednak do różnych nieporozumień.

Awaria pokazała, kto prowadzi profile polityków na Facebooku

Krótki wyciek informacji, które nie są normalnie widoczne dla użytkowników Facebooka, pozwolił zobaczyć, kto obsługuje niektóre strony na tym portalu społecznościowym. Jawne stały się dane osób prowadzących oficjalne, ale i fanowskie profile m.in. Mateusza Morawieckiego.