Korzystając ze sztucznie wygenerowanego głosu prezesa dużej firmy, przestępcy zadzwonili do dyrektora jednej z jej spółek zależnych i poprosili o wykonanie przelewu. Udało im się wyłudzić w ten sposób 243 tys. dolarów. To prawdopodobnie pierwszy opisany przykład oszustwa z wykorzystaniem dźwięku stworzonego w technologii deepfake.

Dyrektor brytyjskiej firmy z branży energetycznej był przekonany, że odebrał telefon od prezesa spółki-matki. Głos mężczyzny nie wzbudzał podejrzeń, rozpoznał nawet charakterystyczny niemiecki akcent swojego zwierzchnika.

Jak relacjonuje "The Wall Street Journal", rozmówca poprosił o pilny przelew 243 tys. dolarów na konto węgierskiego partnera. Naciskał na pośpiech. Prosił, by pieniądze zostały przelane w ciągu godziny. Obiecywał, że firma szybko dostanie zwrot przelanych pieniędzy.

Podrobiony głos

Gdy dyrektor zrobił przelew, odebrał kolejny telefon z zapewnieniem, że spółka-matka przetransferowała na konto jego firmy pieniądze, wyrównanie za przekazane środki.

Tego samego dnia dyrektor odebrał jeszcze trzeci telefon. Przestępcy podszywający się pod prezesa poprosili o kolejny przelew. Dyrektor nabrał w końcu podejrzeń, ponieważ zapowiedziany transfer ze zwrotem pieniędzy nie dotarł, a telefon został wykonany z austriackiego numeru.

Według ustaleń WSJ, wydarzenie może być pierwszym opisanym cyberprzestępstwem, w którym zastosowano oprogramowanie wykorzystujące sztuczną inteligencję i technologię deepfake.

Pierwszym opisanym, ale prawdopodobnie nie pierwszym w ogóle. Według firmy technologicznej Symantec, w tym roku już trzy duże firmy stały się ofiarami oszustów, wykorzystujących technologię deepfake do manipulacji dźwiękiem. W jednym z przypadków, jak podaje "Financial Times", firma przelała 10 mln dolarów przestępcom, którzy wykorzystując sztuczną inteligencję, udawali przez telefon jednego z dyrektorów firmy.

Deepfake to w największym skrócie fałszywka, do stworzenia której wykorzystano sztuczną inteligencję. W bardziej skomplikowanym tłumaczeniu to rozwiązanie opierające się na algorytmach tzw. generative adversarial networks (GAN), bazujących na dwóch sieciach. Jedna identyfikuje, analizuje i uczy się schematów w zbiorach danych. Na przykład cech powtarzających się w nagraniach dźwiękowych - intonacji, wady wymowy - tak, by móc odtworzyć np. wypowiedź celebryty brzmiącą jak autentyczna. Drugi element GAN porównuje prawdziwe i fałszywe materiały i sprawdza, czy efekt brzmi realistycznie. Jeśli nie, model robiony jest tak długo, aż zostanie uznany za realistyczny. O technologiach deepfake mówiło się dotychczas głównie w odniesieniu do materiałów wideo.

Podejrzanych brak

Według relacji Ruedigera Kirscha, eksperta firmy ubezpieczeniowej, która wypłaciła odszkodowanie poszkodowanemu przedsiębiorstwu, pieniądze, które trafiły na węgierskie konto zostały później przelane na rachunek w Meksyku. - Służby zajmujące się sprawą nie zidentyfikowały żadnych podejrzanych - mówi Kirsch, cytowany przez WSJ.

Według eksperta, przestępcy wykorzystali oprogramowanie sztucznie generujące głos. Nie jest jasne, w jaki sposób przeprowadzili atak - czy korzystali z przygotowanych wcześniej nagrań, czy stosowali narzędzie zmieniające głos "na żywo".

WSJ zwraca uwagę, że przestępcy mogli zmontować fragmenty autentycznych nagrań głosu prezesa firmy. Wykorzystanie tej techniki zostało zaprezentowane m.in. na ubiegłorocznej konferencji Black Hat. Naukowcy pokazali wówczas, że już dostępne narzędzia dają możliwość zrekonstruowania głosu dowolnej osoby, by przełamać zabezpieczenie identyfikacji głosowej wykorzystywanej np. przez banki. Ich zdaniem, dla takich zabezpieczeń, jakość dźwięku nie musi być idealna, by je oszukać. Udowodnili, że są w stanie takiego oszustwa dokonać w 10 minut.

Sztuczna inteligencja

Nad możliwością tworzenia wypowiedzi, które nie padły, pracowała m.in. firma Adobe. Na jednej z konferencji w 2016 r. zaprezentowała VoCo, oprogramowanie, któremu wystarczy 20 minut nagrania głosu, by stworzyć jakąkolwiek nową wypowiedź danej osoby na dowolny temat, jakiejkolwiek długości. Prezentacja wzbudziła zachwyt możliwościami, ale i obawy o etyczność takich rozwiązań. Do sierpnia 2019 r. nie ma informacji, by zostało ono wprowadzone na rynek.

W maju tego roku o opracowaniu podobnej technologii poinformowała Dessa, firma tworząca rozwiązania wykorzystujące sztuczną inteligencję. System RealTalk pozwala na wygenerowanie głosu na podstawie wpisanego tekstu. By pokazać możliwości technologii, firma zaprezentowała nagranie sfabrykowanego głosu popularnego autora podcastów Joe Rogana. Większość wypowiedzi brzmi płynnie i niezwykle wiarygodnie. Fałszywy ton pojawia się, gdy Rogan rzekomo wypowiada angielskie łamańce językowe.

W artykule opublikowanym na stronie Medium, Dessa chwali się możliwościami stworzonego narzędzia, podkreślając możliwość jego wykorzystania w systemach asystenta głosowego czy w dubbingu.

Autor artykułu zwraca jednak uwagę na ryzyko wykorzystania technologii przez przestępców. Wśród potencjalnych metod wymieniono podszywanie się pod bliskie osoby w celu wyłudzenia informacji, czy stworzenie sfabrykowanego nagrania głosu polityka.

Jak się chronić? Tradycyjnie - sprawdzać

Opisując sprawę wyłudzenia 243 tys. dolarów od brytyjskiej firmy, portal The Next Web przypomina wydane w lipcu ostrzeżenie Israel National Cyber Directorate (Izraelski Narodowy Zarząd ds. Cyberbezpieczeństwa). Wskazano w nim na możliwe wykorzystanie sztucznej inteligencji w celu podszycia się pod kadrę zarządzającą przedsiębiorstwami.

Wśród zaleceń, które mają na celu ochronę przed przestępstwami, wymieniono m.in. szkolenie pracowników, weryfikowanie przez nich przekazywanych im instrukcji przekazywanych i stosowanie technologii zabezpieczających.

W wypowiedzi dla portalu Cyber Security Hub, dr Rebecca Wynn, szefowa działu bezpieczeństwa  informacji i ochrony danych w firmie Matrix Medical Network, także zaleca weryfikowanie poleceń służbowych związanych z obrotem dużymi kwotami. "Sam fakt, że wiadomość pochodzi od kogoś z tytułem dyrektorskim, nie powinien wywoływać pośpiesznych reakcji pracowników w kwestii naruszania firmowych procedur" - powiedziała Wynn.

"Weryfikujcie, jeśli odbierzecie e-mail lub telefon z określonymi żądaniami, natychmiast zadzwońcie na wyznaczony numer telefonu w celu zweryfikowania polecenia i poproszenia o potwierdzenie mailem, lub cokolwiek innego, co zakłada polityka bezpieczeństwa waszej firmy" - podkreśla Wynn, cytowana przez CSHub. Podkreśla również, że osoby, które naciskają na weryfikację, nie powinny być w firmach z tego powodu dyskryminowane.

Autor:  kjab
Źródło:  Konkret24, wsj.com, cshub.com; zdjęcie tytułowe: Clint Patterson, Unsplash

Pozostałe

Dezinformacja - prognozy przed wyborami w USA w 2020 roku

Deep fake może być jednym z najpotężniejszych narzędzi w rękach twórców dezinformacji przed nadchodzącymi wyborami prezydenckimi w Stanach Zjednoczonych. Według raportu opublikowanego przez Uniwersytet Nowojorski, technologia może zostać wykorzystana w kampanii wyborczej, by przypisać kandydatom nieprawdziwe słowa lub zachowania. Raport wskazuje, że źródłami dezinformacji oprócz Rosji mogą być Chiny oraz Iran. Najwięcej sfałszowanych treści będzie jednak pochodziło nie z zagranicy, a z samych Stanów Zjednoczonych.

Tweety, których nie napisali Dominika Wielowieyska i Marcin Gortat

Na Twitterze pojawił się wpis podpisany nazwiskiem Dominiki Wielowieyskiej. Bardziej uważni użytkownicy serwisu bez trudu wychwycili, że jego autorką wcale nie jest dziennikarka "Gazety Wyborczej". Tweet zamieszczono na koncie, które tymczasowo zmieniło nazwę użytkownika. Podobnie wykorzystano nazwisko Marcina Gortata. Wielu komentujących, krytykujących treść wpisu, było jednak przekonanych, że uczestniczy w dyskusji właśnie ze sportowcem.

Chińska aplikacja do podmieniania twarzy podbija rynek. I budzi obawy

Chińska aplikacja ZAO pozwala użytkownikom na "podmienienie" twarzy aktora w klipie z serialu lub filmu na swoją twarz. Efekt jest realistyczny i dostępny w ciągu chwili. Program budzi kontrowersje - nie tylko ze względu na swoje możliwości, ale i na politykę prywatności. Jednocześnie bije jednak rekordy popularności w Azji - w ciągu kilku dni od premiery stała się najczęściej ściąganą aplikacją.

Wyścig zbrojeń XXI wieku. Technologie deepfake coraz lepsze i groźniejsze

O deepfake jest głośno wraz z każdym takim materiałem wstawionym do sieci. Na początku sierpnia zaskoczenie zaawansowaniem tej technologii wywołał filmik, w którym komik Bill Hader zamienia się w Toma Cruise'a. Zastosowanie takich manipulacyjnych rozwiązań staje się jednak coraz groźniejsze - jedna z firm w USA miała stracić z tego powodu kilka milionów dolarów. Rząd Stanów Zjednoczonych chce stworzyć zaawansowane narzędzia do identyfikowania sfałszowanych treści pojawiających się w sieci.

Motocyklowy kask na drodze - pech czy międzynarodowy znak ostrzegawczy?

Internetowy wpis o tym, że kask położony na ziemi za motocyklem jest znakiem ostrzegawczym, wywołał sporą dyskusję w polskim internecie. Polemizował branżowy portal, replikowało jedno z motocyklowych stowarzyszeń. Pomysł na takie wykorzystanie kasku nie jest nowy, ale budzi w środowisku i wątpliwości, i kontrowersje — przesądni uważają, że kask na ziemi przynosi pecha.

Prześlij dalej wiadomość, to zachowasz swoje facebookowe konto. Uwaga na fałszywy łańcuszek

Użytkownicy Facebooka w Polsce przesyłają sobie w wiadomościach prywatnych kilkuzdaniowy apel. W związku z z ostatnią awarią serwisu, aby zachować swoje konto, wiadomość należy przesłać dalej. To nieprawda - Facebook zapewnia, że komunikuje się z użytkownikami w inny sposób. Sam tekst pojawił się dwa lata temu w rosyjskojęzycznym internecie, a wiadomość zawiera zagraniczny numer telefonu, co może sugerować, że nowy łańcuszek jest próbą oszustwa.

Manipulacja nagraniem Marka Zuckerberga i zaskakująca decyzja Facebooka

W sieci można znaleźć nagranie Marka Zuckerberga, napawającego się władzą, jaką daje mu posiadanie danych miliardów ludzi. Założyciel Facebooka w rzeczywistości nigdy nie wypowiedział takich słów, ale wideo powstało po to, żeby wywołać dyskusję o usuwaniu treści przez największy serwis społecznościowy świata. Mimo że wideo opublikowano na początku czerwca, do dzisiaj nie zostało zdjęte z serwisu, a Facebook wytłumaczył, dlaczego podjął taką decyzję.