Uśmiechnięta szatynka z włosami założonymi za ucho. Starsza pani z siwymi włosami i w okularach, sfotografowana w połowie wypowiadanego słowa. Kilkuletni uśmiechnięty rudzielec z burzą kręconych włosów. Wyglądają jak ludzie, których codziennie mijamy na ulicach. Tyle tylko, że nie istnieją.

W grudniu naukowcy pracujący dla firmy Nvidia opublikowali efekty swojej pracy nad stworzeniem - przy wykorzystaniu sztucznej inteligencji - zdjęć ludzi, którzy nigdy nie istnieli. Porterów całkowicie zmyślonych osób. Efekty są zaskakujące, bo niezwykle realistyczne. Kilka dni temu, na bazie pracy naukowców, w sieci pojawiło się pierwsze ogólnodostępne narzędzie, które generuje fałszywe portrety.

Portrety nieistniejących ludzi, stworzone przez naukowców Nvidia
Portrety nieistniejących ludzi, stworzone przez naukowców Nvidia Foto: Nvidia

Naukowcy pracujący dla Nvidia - Tero Karrass, Samuli Laine i Timo Aila - do stworzenia fałszywych obrazów wykorzystali algorytmy głębokiego uczenia (czyli ogólnie rzecz ujmując - sztuczną inteligencję) GAN - generative adversarial networks, bazujące na dwóch sieciach. Jedna identyfikuje, analizuje i uczy się schematów w zbiorach danych. Schematami w tym przypadku są np. proporcje twarzy, ustawienie oczu, włosy, a zbiorami danych - zdjęcia realnie istniejących osób. Na bazie tej analizy sieć ta generuje nowe obrazy - zdjęcia osób, które nigdy nie istniały.

Druga sieć porównuje prawdziwe i fałszywe obrazy i sprawdza, czy efekt wygląda realistycznie. Jeśli nie, model twarzy robiony jest tak długo, aż zostanie uznany za realistyczny.

Szanse czy wyzwania?

Do tworzenia nowych twarzy algorytm wykorzystywał mieszanie cech osób realnie istniejących, takich jak wiek, rasa, płeć, kolor włosów, a nawet liczba i rozmieszczenie piegów.

Model Nvidia budował mieszał cechy osób ze zdjęć z górnego i z lewego rzędu
Model Nvidia budował mieszał cechy osób ze zdjęć z górnego i z lewego rzędu Foto: Nvidia

Po co to wszystko? Zdaniem ekspertów, takie technologie będą niezwykle przydatne przy tworzeniu gier komputerowych czy rozwoju efektów specjalnych w filmach. Będzie dzięki nim można tworzyć bohaterów "na zawołanie", dokładnie takich, jakich wymarzy sobie np. reżyser

Takie zdjęcia fałszywych ludzi mogą przynieść także dużo korzyści wszelkiego rodzaju bankom zdjęć czy agencjom reklamowym, choć stanowczo nie fotografom dla nich pracującym. Niosą jednak ze sobą także olbrzymie ryzyko oszustw i nowego poziomu tworzenia różnego rodzaju internetowych (i nie tylko) fałszywek, udawanych tożsamości, a nawet fałszerstwa dokumentów.

Chip ze sztuczną inteligencją w ludzkim mózgu (arch. 2017)

Przechytrzyć sztuczną inteligencję

Efekty są świetne, ale nie idealne. Kyle McDonald - artysta, który do swoich prac (głównie efektów specjalnych) wykorzystuje kodowanie - zwraca uwagę na różne niedoskonałości dotychczas tworzonych obrazów, które mogą być wskazówką na co zwracać uwagę, by nie dać się oszukać. Oczywiście do czasu, aż i sztuczna inteligencja nie nadrobi tych swoich niedoskonałości.

Zdaniem McDonalda, najtrudniej jest stworzyć fałszywe włosy. Warto przy tym podkreślić, że pisał to przed grudniową publikacją Nvidia. I choć niewątpliwie technologia została od tego czasu bardzo ulepszona, nadal zdarza się, że włosy bywają na zdjęciach nieregularne i nienaturalne, czasem jakby namalowane (zwłaszcza długie proste włosy), czasem są niezbyt ostre, a wręcz wtapiają się w twarz (np. na czołach czy pod kością policzkową przy uchu).

Algorytmy najgorzej radzą sobie z włosami przy generowaniu sztucznych portretów
Algorytmy najgorzej radzą sobie z włosami przy generowaniu sztucznych portretów Foto: Nvidia

Ciągle "spod ręki" sztucznej inteligencji wychodzą także np. asymetryczne elementy twarzy. Zdarza się, że umieszczają uszy na różnych poziomach czy też każdemu oku dają inny kolor bądź też oczy patrzą w różnych kierunkach. Algorytmy gubią się także, gdy np. w tle osoby portretowanej są liczby albo tekst - zazwyczaj stają się one zbyt rozmazane, by w ogóle były czytelne. Głębokie uczenie jest tak skoncentrowane na twarzy, że nawet dodatkowe elementy, które się przy niej pojawiają - np. kolczyki - też potrafią stać się całkiem nierealne. W przeciwieństwie do samej twarzy, zdjęcia generowane w ten sposób, miewają problem z tłem.

Kilka elementów portretu, które się sztucznej inteligencji nie udały
Kilka elementów portretu, które się sztucznej inteligencji nie udały Foto: www:thispersondoesnotexis

Sztuczna inteligencja ma też problem... z ludzkimi zębami. Zdarza się, że gdy są widoczne w uśmiechu, na przykład zachodzą na siebie albo tworzą kilka rzędów.

Sztuczna inteligencja Microsoftu została fanką Hitlera i Donalda Trumpa (arch.)

Wiele ze zdjęć jest jednak na tyle dobrych, że trudno wyłapać niedoskonałości. A sportretowani na nich "ludzie" wyglądają niezwykle realistycznie.

Udoskonalanie trwa

To nie pierwszy raz, gdy ci sami naukowcy Nvidia opublikowali takie zaskakujące postępy algorytmów GAN. W kwietniu 2018 r. pokazali światu zdjęcia fałszywych celebrytów, których stworzyli dzięki generatorowi bazującemu na podobnych mechanizmach. Były jednak niewielkie i niskiej rozdzielczości. Te twarze, które pokazano po raz pierwszy w grudniu, nawet na dużym zbliżeniu bywają trudne do rozpoznania jako nieprawdziwe.

Nieistniejący celebryci
Nieistniejący celebryci Foto: Nvidia

Badacze z Nvidia nie zgodzili się na odpowiedź na pytania Konkret24 na temat ich pracy. Ich publikacja obecnie oczekuje na recenzję naukową, dlatego nie mogą jej komentować.

Widać jednak już jej pierwsze zastosowania. Phillip Wang stworzył stronę internetową, która generuje fałszywe portrety, powstałe właśnie na bazie algorytmu opracowanego przez badaczy. Jak tłumaczy Wang na Facebooku w jednej z grup poświęconych sztucznej inteligencji, zrobił to, by "podnieść publiczną świadomość na temat tej technologii".

Ten mężczyzna nie istnieje, wygenerowała go strona Phillipa Wanga
Ten mężczyzna nie istnieje, wygenerowała go strona Phillipa Wanga Foto: ThisPersonDoesNotExist
Autor:  beata biel
Źródło:  Konkret24; Nvidia https://arxiv.org/pdf/1812.04948.pdf; zdjęcie tytułowe: ThisPersonDoesNotExist (www)

Pozostałe

"Kolejny przykład szkodliwości 5G"? To nie jest grafen ze szczepionek

Tysiące odtworzeń w mediach społecznościowych ma wideo, na którym rzekomo widać, co się dzieje w organizmie człowieka po przyjęciu szczepionki na COVID-19: że na znajdujący się w niej grafen działają fale 5G. Tylko że nagranie nie pokazuje ani cząsteczek grafenu, ani działania 5G, a samej obecności grafenu w szczepionkach do dziś nie udowodniono.

"Cud poczęcia"? To zdjęcie nie przedstawia prawdy

"Cudne zdjęcie", "najpiękniejsze co może być w życiu" - komentują internauci fotografię brzucha ciężarnej kobiety, na którym zarysowuje się stopa płodu. Gdyby to była prawda, oznaczałoby to zagrożenie zdrowia płodu i matki - ale zdjęcie nie jest autentyczne.