Korzystając ze sztucznie wygenerowanego głosu prezesa dużej firmy, przestępcy zadzwonili do dyrektora jednej z jej spółek zależnych i poprosili o wykonanie przelewu. Udało im się wyłudzić w ten sposób 243 tys. dolarów. To prawdopodobnie pierwszy opisany przykład oszustwa z wykorzystaniem dźwięku stworzonego w technologii deepfake.

Dyrektor brytyjskiej firmy z branży energetycznej był przekonany, że odebrał telefon od prezesa spółki-matki. Głos mężczyzny nie wzbudzał podejrzeń, rozpoznał nawet charakterystyczny niemiecki akcent swojego zwierzchnika.

Jak relacjonuje "The Wall Street Journal", rozmówca poprosił o pilny przelew 243 tys. dolarów na konto węgierskiego partnera. Naciskał na pośpiech. Prosił, by pieniądze zostały przelane w ciągu godziny. Obiecywał, że firma szybko dostanie zwrot przelanych pieniędzy.

Podrobiony głos

Gdy dyrektor zrobił przelew, odebrał kolejny telefon z zapewnieniem, że spółka-matka przetransferowała na konto jego firmy pieniądze, wyrównanie za przekazane środki.

Tego samego dnia dyrektor odebrał jeszcze trzeci telefon. Przestępcy podszywający się pod prezesa poprosili o kolejny przelew. Dyrektor nabrał w końcu podejrzeń, ponieważ zapowiedziany transfer ze zwrotem pieniędzy nie dotarł, a telefon został wykonany z austriackiego numeru.

Według ustaleń WSJ, wydarzenie może być pierwszym opisanym cyberprzestępstwem, w którym zastosowano oprogramowanie wykorzystujące sztuczną inteligencję i technologię deepfake.

Pierwszym opisanym, ale prawdopodobnie nie pierwszym w ogóle. Według firmy technologicznej Symantec, w tym roku już trzy duże firmy stały się ofiarami oszustów, wykorzystujących technologię deepfake do manipulacji dźwiękiem. W jednym z przypadków, jak podaje "Financial Times", firma przelała 10 mln dolarów przestępcom, którzy wykorzystując sztuczną inteligencję, udawali przez telefon jednego z dyrektorów firmy.

Deepfake to w największym skrócie fałszywka, do stworzenia której wykorzystano sztuczną inteligencję. W bardziej skomplikowanym tłumaczeniu to rozwiązanie opierające się na algorytmach tzw. generative adversarial networks (GAN), bazujących na dwóch sieciach. Jedna identyfikuje, analizuje i uczy się schematów w zbiorach danych. Na przykład cech powtarzających się w nagraniach dźwiękowych - intonacji, wady wymowy - tak, by móc odtworzyć np. wypowiedź celebryty brzmiącą jak autentyczna. Drugi element GAN porównuje prawdziwe i fałszywe materiały i sprawdza, czy efekt brzmi realistycznie. Jeśli nie, model robiony jest tak długo, aż zostanie uznany za realistyczny. O technologiach deepfake mówiło się dotychczas głównie w odniesieniu do materiałów wideo.

Podejrzanych brak

Według relacji Ruedigera Kirscha, eksperta firmy ubezpieczeniowej, która wypłaciła odszkodowanie poszkodowanemu przedsiębiorstwu, pieniądze, które trafiły na węgierskie konto zostały później przelane na rachunek w Meksyku. - Służby zajmujące się sprawą nie zidentyfikowały żadnych podejrzanych - mówi Kirsch, cytowany przez WSJ.

Według eksperta, przestępcy wykorzystali oprogramowanie sztucznie generujące głos. Nie jest jasne, w jaki sposób przeprowadzili atak - czy korzystali z przygotowanych wcześniej nagrań, czy stosowali narzędzie zmieniające głos "na żywo".

WSJ zwraca uwagę, że przestępcy mogli zmontować fragmenty autentycznych nagrań głosu prezesa firmy. Wykorzystanie tej techniki zostało zaprezentowane m.in. na ubiegłorocznej konferencji Black Hat. Naukowcy pokazali wówczas, że już dostępne narzędzia dają możliwość zrekonstruowania głosu dowolnej osoby, by przełamać zabezpieczenie identyfikacji głosowej wykorzystywanej np. przez banki. Ich zdaniem, dla takich zabezpieczeń, jakość dźwięku nie musi być idealna, by je oszukać. Udowodnili, że są w stanie takiego oszustwa dokonać w 10 minut.

Sztuczna inteligencja

Nad możliwością tworzenia wypowiedzi, które nie padły, pracowała m.in. firma Adobe. Na jednej z konferencji w 2016 r. zaprezentowała VoCo, oprogramowanie, któremu wystarczy 20 minut nagrania głosu, by stworzyć jakąkolwiek nową wypowiedź danej osoby na dowolny temat, jakiejkolwiek długości. Prezentacja wzbudziła zachwyt możliwościami, ale i obawy o etyczność takich rozwiązań. Do sierpnia 2019 r. nie ma informacji, by zostało ono wprowadzone na rynek.

W maju tego roku o opracowaniu podobnej technologii poinformowała Dessa, firma tworząca rozwiązania wykorzystujące sztuczną inteligencję. System RealTalk pozwala na wygenerowanie głosu na podstawie wpisanego tekstu. By pokazać możliwości technologii, firma zaprezentowała nagranie sfabrykowanego głosu popularnego autora podcastów Joe Rogana. Większość wypowiedzi brzmi płynnie i niezwykle wiarygodnie. Fałszywy ton pojawia się, gdy Rogan rzekomo wypowiada angielskie łamańce językowe.

W artykule opublikowanym na stronie Medium, Dessa chwali się możliwościami stworzonego narzędzia, podkreślając możliwość jego wykorzystania w systemach asystenta głosowego czy w dubbingu.

Autor artykułu zwraca jednak uwagę na ryzyko wykorzystania technologii przez przestępców. Wśród potencjalnych metod wymieniono podszywanie się pod bliskie osoby w celu wyłudzenia informacji, czy stworzenie sfabrykowanego nagrania głosu polityka.

Jak się chronić? Tradycyjnie - sprawdzać

Opisując sprawę wyłudzenia 243 tys. dolarów od brytyjskiej firmy, portal The Next Web przypomina wydane w lipcu ostrzeżenie Israel National Cyber Directorate (Izraelski Narodowy Zarząd ds. Cyberbezpieczeństwa). Wskazano w nim na możliwe wykorzystanie sztucznej inteligencji w celu podszycia się pod kadrę zarządzającą przedsiębiorstwami.

Wśród zaleceń, które mają na celu ochronę przed przestępstwami, wymieniono m.in. szkolenie pracowników, weryfikowanie przez nich przekazywanych im instrukcji przekazywanych i stosowanie technologii zabezpieczających.

W wypowiedzi dla portalu Cyber Security Hub, dr Rebecca Wynn, szefowa działu bezpieczeństwa  informacji i ochrony danych w firmie Matrix Medical Network, także zaleca weryfikowanie poleceń służbowych związanych z obrotem dużymi kwotami. "Sam fakt, że wiadomość pochodzi od kogoś z tytułem dyrektorskim, nie powinien wywoływać pośpiesznych reakcji pracowników w kwestii naruszania firmowych procedur" - powiedziała Wynn.

"Weryfikujcie, jeśli odbierzecie e-mail lub telefon z określonymi żądaniami, natychmiast zadzwońcie na wyznaczony numer telefonu w celu zweryfikowania polecenia i poproszenia o potwierdzenie mailem, lub cokolwiek innego, co zakłada polityka bezpieczeństwa waszej firmy" - podkreśla Wynn, cytowana przez CSHub. Podkreśla również, że osoby, które naciskają na weryfikację, nie powinny być w firmach z tego powodu dyskryminowane.

Autor:  kjab
Źródło:  Konkret24, wsj.com, cshub.com; zdjęcie tytułowe: Clint Patterson, Unsplash

Pozostałe

Nie, Facebook nie zakazał używania emotikonów brzoskwiń i bakłażanów

Internauci rozpowszechniają fałszywą informację o rzekomym zakazie używania ikonek brzoskwini i bakłażanów na Facebooku i Instagramie. W rzeczywistości platformy zabraniają publikowania materiałów, które noszą znamiona nagabywania seksualnego. Nie można publikować treści, które są napastliwe seksualnie i które jednocześnie zawierają emotikony uważane za nacechowane seksualnie. Żadne konkretne ikony nie są jednak wskazane.

Popularne w sieci wideo nie jest z Hongkongu. To projekt artystyczny

W mediach społecznościowych bardzo dużą popularność zyskuje krótkie wideo z wynalazkiem, który ma pomóc zmylić system rozpoznawania twarzy. Przekazujący sobie to nagranie internauci piszą, że pochodzi ono z Hongkongu. Jednak przenośny projektor twarzy to część projektu artystycznego holenderskich studentów sprzed dwóch lat. Podkreślają, że produkt tak naprawdę nie działa i apelują o niewykorzystywanie go w celach politycznych.

Dezinformacja - prognozy przed wyborami w USA w 2020 roku

Deep fake może być jednym z najpotężniejszych narzędzi w rękach twórców dezinformacji przed nadchodzącymi wyborami prezydenckimi w Stanach Zjednoczonych. Według raportu opublikowanego przez Uniwersytet Nowojorski, technologia może zostać wykorzystana w kampanii wyborczej, by przypisać kandydatom nieprawdziwe słowa lub zachowania. Raport wskazuje, że źródłami dezinformacji oprócz Rosji mogą być Chiny oraz Iran. Najwięcej sfałszowanych treści będzie jednak pochodziło nie z zagranicy, a z samych Stanów Zjednoczonych.

Tweety, których nie napisali Dominika Wielowieyska i Marcin Gortat

Na Twitterze pojawił się wpis podpisany nazwiskiem Dominiki Wielowieyskiej. Bardziej uważni użytkownicy serwisu bez trudu wychwycili, że jego autorką wcale nie jest dziennikarka "Gazety Wyborczej". Tweet zamieszczono na koncie, które tymczasowo zmieniło nazwę użytkownika. Podobnie wykorzystano nazwisko Marcina Gortata. Wielu komentujących, krytykujących treść wpisu, było jednak przekonanych, że uczestniczy w dyskusji właśnie ze sportowcem.

Chińska aplikacja do podmieniania twarzy podbija rynek. I budzi obawy

Chińska aplikacja ZAO pozwala użytkownikom na "podmienienie" twarzy aktora w klipie z serialu lub filmu na swoją twarz. Efekt jest realistyczny i dostępny w ciągu chwili. Program budzi kontrowersje - nie tylko ze względu na swoje możliwości, ale i na politykę prywatności. Jednocześnie bije jednak rekordy popularności w Azji - w ciągu kilku dni od premiery stała się najczęściej ściąganą aplikacją.

Wyścig zbrojeń XXI wieku. Technologie deepfake coraz lepsze i groźniejsze

O deepfake jest głośno wraz z każdym takim materiałem wstawionym do sieci. Na początku sierpnia zaskoczenie zaawansowaniem tej technologii wywołał filmik, w którym komik Bill Hader zamienia się w Toma Cruise'a. Zastosowanie takich manipulacyjnych rozwiązań staje się jednak coraz groźniejsze - jedna z firm w USA miała stracić z tego powodu kilka milionów dolarów. Rząd Stanów Zjednoczonych chce stworzyć zaawansowane narzędzia do identyfikowania sfałszowanych treści pojawiających się w sieci.