Uśmiechnięta szatynka z włosami założonymi za ucho. Starsza pani z siwymi włosami i w okularach, sfotografowana w połowie wypowiadanego słowa. Kilkuletni uśmiechnięty rudzielec z burzą kręconych włosów. Wyglądają jak ludzie, których codziennie mijamy na ulicach. Tyle tylko, że nie istnieją.

W grudniu naukowcy pracujący dla firmy Nvidia opublikowali efekty swojej pracy nad stworzeniem - przy wykorzystaniu sztucznej inteligencji - zdjęć ludzi, którzy nigdy nie istnieli. Porterów całkowicie zmyślonych osób. Efekty są zaskakujące, bo niezwykle realistyczne. Kilka dni temu, na bazie pracy naukowców, w sieci pojawiło się pierwsze ogólnodostępne narzędzie, które generuje fałszywe portrety.

Portrety nieistniejących ludzi, stworzone przez naukowców Nvidia
Portrety nieistniejących ludzi, stworzone przez naukowców Nvidia Foto: Nvidia

Naukowcy pracujący dla Nvidia - Tero Karrass, Samuli Laine i Timo Aila - do stworzenia fałszywych obrazów wykorzystali algorytmy głębokiego uczenia (czyli ogólnie rzecz ujmując - sztuczną inteligencję) GAN - generative adversarial networks, bazujące na dwóch sieciach. Jedna identyfikuje, analizuje i uczy się schematów w zbiorach danych. Schematami w tym przypadku są np. proporcje twarzy, ustawienie oczu, włosy, a zbiorami danych - zdjęcia realnie istniejących osób. Na bazie tej analizy sieć ta generuje nowe obrazy - zdjęcia osób, które nigdy nie istniały.

Druga sieć porównuje prawdziwe i fałszywe obrazy i sprawdza, czy efekt wygląda realistycznie. Jeśli nie, model twarzy robiony jest tak długo, aż zostanie uznany za realistyczny.

Szanse czy wyzwania?

Do tworzenia nowych twarzy algorytm wykorzystywał mieszanie cech osób realnie istniejących, takich jak wiek, rasa, płeć, kolor włosów, a nawet liczba i rozmieszczenie piegów.

Model Nvidia budował mieszał cechy osób ze zdjęć z górnego i z lewego rzędu
Model Nvidia budował mieszał cechy osób ze zdjęć z górnego i z lewego rzędu Foto: Nvidia

Po co to wszystko? Zdaniem ekspertów, takie technologie będą niezwykle przydatne przy tworzeniu gier komputerowych czy rozwoju efektów specjalnych w filmach. Będzie dzięki nim można tworzyć bohaterów "na zawołanie", dokładnie takich, jakich wymarzy sobie np. reżyser

Takie zdjęcia fałszywych ludzi mogą przynieść także dużo korzyści wszelkiego rodzaju bankom zdjęć czy agencjom reklamowym, choć stanowczo nie fotografom dla nich pracującym. Niosą jednak ze sobą także olbrzymie ryzyko oszustw i nowego poziomu tworzenia różnego rodzaju internetowych (i nie tylko) fałszywek, udawanych tożsamości, a nawet fałszerstwa dokumentów.

Chip ze sztuczną inteligencją w ludzkim mózgu (arch. 2017)

Przechytrzyć sztuczną inteligencję

Efekty są świetne, ale nie idealne. Kyle McDonald - artysta, który do swoich prac (głównie efektów specjalnych) wykorzystuje kodowanie - zwraca uwagę na różne niedoskonałości dotychczas tworzonych obrazów, które mogą być wskazówką na co zwracać uwagę, by nie dać się oszukać. Oczywiście do czasu, aż i sztuczna inteligencja nie nadrobi tych swoich niedoskonałości.

Zdaniem McDonalda, najtrudniej jest stworzyć fałszywe włosy. Warto przy tym podkreślić, że pisał to przed grudniową publikacją Nvidia. I choć niewątpliwie technologia została od tego czasu bardzo ulepszona, nadal zdarza się, że włosy bywają na zdjęciach nieregularne i nienaturalne, czasem jakby namalowane (zwłaszcza długie proste włosy), czasem są niezbyt ostre, a wręcz wtapiają się w twarz (np. na czołach czy pod kością policzkową przy uchu).

Algorytmy najgorzej radzą sobie z włosami przy generowaniu sztucznych portretów
Algorytmy najgorzej radzą sobie z włosami przy generowaniu sztucznych portretów Foto: Nvidia

Ciągle "spod ręki" sztucznej inteligencji wychodzą także np. asymetryczne elementy twarzy. Zdarza się, że umieszczają uszy na różnych poziomach czy też każdemu oku dają inny kolor bądź też oczy patrzą w różnych kierunkach. Algorytmy gubią się także, gdy np. w tle osoby portretowanej są liczby albo tekst - zazwyczaj stają się one zbyt rozmazane, by w ogóle były czytelne. Głębokie uczenie jest tak skoncentrowane na twarzy, że nawet dodatkowe elementy, które się przy niej pojawiają - np. kolczyki - też potrafią stać się całkiem nierealne. W przeciwieństwie do samej twarzy, zdjęcia generowane w ten sposób, miewają problem z tłem.

Kilka elementów portretu, które się sztucznej inteligencji nie udały
Kilka elementów portretu, które się sztucznej inteligencji nie udały Foto: www:thispersondoesnotexis

Sztuczna inteligencja ma też problem... z ludzkimi zębami. Zdarza się, że gdy są widoczne w uśmiechu, na przykład zachodzą na siebie albo tworzą kilka rzędów.

Sztuczna inteligencja Microsoftu została fanką Hitlera i Donalda Trumpa (arch.)

Wiele ze zdjęć jest jednak na tyle dobrych, że trudno wyłapać niedoskonałości. A sportretowani na nich "ludzie" wyglądają niezwykle realistycznie.

Udoskonalanie trwa

To nie pierwszy raz, gdy ci sami naukowcy Nvidia opublikowali takie zaskakujące postępy algorytmów GAN. W kwietniu 2018 r. pokazali światu zdjęcia fałszywych celebrytów, których stworzyli dzięki generatorowi bazującemu na podobnych mechanizmach. Były jednak niewielkie i niskiej rozdzielczości. Te twarze, które pokazano po raz pierwszy w grudniu, nawet na dużym zbliżeniu bywają trudne do rozpoznania jako nieprawdziwe.

Nieistniejący celebryci
Nieistniejący celebryci Foto: Nvidia

Badacze z Nvidia nie zgodzili się na odpowiedź na pytania Konkret24 na temat ich pracy. Ich publikacja obecnie oczekuje na recenzję naukową, dlatego nie mogą jej komentować.

Widać jednak już jej pierwsze zastosowania. Phillip Wang stworzył stronę internetową, która generuje fałszywe portrety, powstałe właśnie na bazie algorytmu opracowanego przez badaczy. Jak tłumaczy Wang na Facebooku w jednej z grup poświęconych sztucznej inteligencji, zrobił to, by "podnieść publiczną świadomość na temat tej technologii".

Ten mężczyzna nie istnieje, wygenerowała go strona Phillipa Wanga
Ten mężczyzna nie istnieje, wygenerowała go strona Phillipa Wanga Foto: ThisPersonDoesNotExist
Autor:  beata biel
Źródło:  Konkret24; Nvidia https://arxiv.org/pdf/1812.04948.pdf; zdjęcie tytułowe: ThisPersonDoesNotExist (www)

Pozostałe

Ojciec prezydenta o "zaraźliwym zjawisku homoseksualizmu". Sprawdzamy, co na to nauka

Czy homoseksualizm może być zaraźliwy? Czy tylko nikły procent homoseksualistów jest nimi z powodów genetycznych, a reszta z powodów hormonalnych lub kulturowych? Tak sugeruje prof. Jan Duda, ojciec prezydenta, w wywiadzie dla "Newsweeka". Swoje tezy podpiera raportem naukowym z magazynu "Science". Na prośbę Konkret24 eksperci sprawdzili, czy prof. Duda prawidłowo interpretuje ustalenia naukowców.

Mamy "zimne ocieplenie"? Zimny sierpień pokazał, że klimat a pogoda to co innego

"Będziemy walczyć z globalnym oziębieniem" - kpił jeden z uczestników internetowej dyskusji, w której przekonywano, że tegoroczny zimny sierpień pokazał, iż tezy o globalnym ociepleniu są przesadzone. Tymczasem wszystkie najnowsze dane ekspertów potwierdzają, że zmagamy się z negatywnymi skutkami ocieplenia klimatu.

Korwin-Mikke: "na Antarktydzie przyrasta lodu". Teza nie do obrony

Na Antarktydzie przybywa lodu - twierdzi Janusz Korwin-Mikke. Jego zdaniem masę lodu na tym kontynencie odnawia para wodna przenosząca się z innych rejonów globu. Według posła podnoszenie się poziomu wód nie jest więc poważnym problemem. Poproszony przez Konkret24 o opinię badacz lodowców tłumaczy, czemu ta teza jest nie do obrony i dlaczego na Antarktydzie lodu ubywa.

"Z tym magnesem, co się przyczepia po szczepieniu, to ściema"? Tak. Akcja #magnetchallenge jest manipulacją

"Co jest w tych szczepionkach i jaki ma cel, że to się magnesuje?" - pytają internauci, rozsyłając w sieci filmy, na których widać, jak magnes przylega do miejsca szczepienia przeciwko COVID-19. Akcja #magnetchallenge prowadzona w sieci podsyca strach przed szczepieniami. Prawda jest taka, że w szczepionkach przeciw COVID-19 nie ma żadnych metali, a sztuczkę z magnesem może zrobić każdy.

Plastik, kreda, klej w jedzeniu? "Testy" żywności wprowadzające w błąd

Podpalanie topionego sera, podgrzewanie tabletek z witaminami, skrapianie lodów cytryną i inne tego typu "testy" pokazane w popularnym wideo mają udowadniać, które produkty są naturalne, a które przetworzone. Lecz jedyne, co ten film udowadnia, to fakt, że mieszając trochę prawdy z nieprawdą, łatwo wprowadzić w błąd.

Maska i dym. To nie jest dowód, że maseczki nie chronią przed COVID-19

Kłęby dymu wydobywające się spod maseczki na twarzy - pokazujący to film na YouTube i nagrania udostępniane w mediach społecznościowych mają udowadniać, że maski nie chronią przed rozprzestrzenianiem się wirusa. Eksperci tłumaczą, dlaczego te filmy wprowadzają w błąd.