Uśmiechnięta szatynka z włosami założonymi za ucho. Starsza pani z siwymi włosami i w okularach, sfotografowana w połowie wypowiadanego słowa. Kilkuletni uśmiechnięty rudzielec z burzą kręconych włosów. Wyglądają jak ludzie, których codziennie mijamy na ulicach. Tyle tylko, że nie istnieją.

W grudniu naukowcy pracujący dla firmy Nvidia opublikowali efekty swojej pracy nad stworzeniem - przy wykorzystaniu sztucznej inteligencji - zdjęć ludzi, którzy nigdy nie istnieli. Porterów całkowicie zmyślonych osób. Efekty są zaskakujące, bo niezwykle realistyczne. Kilka dni temu, na bazie pracy naukowców, w sieci pojawiło się pierwsze ogólnodostępne narzędzie, które generuje fałszywe portrety.

Portrety nieistniejących ludzi, stworzone przez naukowców Nvidia
Portrety nieistniejących ludzi, stworzone przez naukowców Nvidia Foto: Nvidia

Naukowcy pracujący dla Nvidia - Tero Karrass, Samuli Laine i Timo Aila - do stworzenia fałszywych obrazów wykorzystali algorytmy głębokiego uczenia (czyli ogólnie rzecz ujmując - sztuczną inteligencję) GAN - generative adversarial networks, bazujące na dwóch sieciach. Jedna identyfikuje, analizuje i uczy się schematów w zbiorach danych. Schematami w tym przypadku są np. proporcje twarzy, ustawienie oczu, włosy, a zbiorami danych - zdjęcia realnie istniejących osób. Na bazie tej analizy sieć ta generuje nowe obrazy - zdjęcia osób, które nigdy nie istniały.

Druga sieć porównuje prawdziwe i fałszywe obrazy i sprawdza, czy efekt wygląda realistycznie. Jeśli nie, model twarzy robiony jest tak długo, aż zostanie uznany za realistyczny.

Szanse czy wyzwania?

Do tworzenia nowych twarzy algorytm wykorzystywał mieszanie cech osób realnie istniejących, takich jak wiek, rasa, płeć, kolor włosów, a nawet liczba i rozmieszczenie piegów.

Model Nvidia budował mieszał cechy osób ze zdjęć z górnego i z lewego rzędu
Model Nvidia budował mieszał cechy osób ze zdjęć z górnego i z lewego rzędu Foto: Nvidia

Po co to wszystko? Zdaniem ekspertów, takie technologie będą niezwykle przydatne przy tworzeniu gier komputerowych czy rozwoju efektów specjalnych w filmach. Będzie dzięki nim można tworzyć bohaterów "na zawołanie", dokładnie takich, jakich wymarzy sobie np. reżyser

Takie zdjęcia fałszywych ludzi mogą przynieść także dużo korzyści wszelkiego rodzaju bankom zdjęć czy agencjom reklamowym, choć stanowczo nie fotografom dla nich pracującym. Niosą jednak ze sobą także olbrzymie ryzyko oszustw i nowego poziomu tworzenia różnego rodzaju internetowych (i nie tylko) fałszywek, udawanych tożsamości, a nawet fałszerstwa dokumentów.

Chip ze sztuczną inteligencją w ludzkim mózgu (arch. 2017)

Przechytrzyć sztuczną inteligencję

Efekty są świetne, ale nie idealne. Kyle McDonald - artysta, który do swoich prac (głównie efektów specjalnych) wykorzystuje kodowanie - zwraca uwagę na różne niedoskonałości dotychczas tworzonych obrazów, które mogą być wskazówką na co zwracać uwagę, by nie dać się oszukać. Oczywiście do czasu, aż i sztuczna inteligencja nie nadrobi tych swoich niedoskonałości.

Zdaniem McDonalda, najtrudniej jest stworzyć fałszywe włosy. Warto przy tym podkreślić, że pisał to przed grudniową publikacją Nvidia. I choć niewątpliwie technologia została od tego czasu bardzo ulepszona, nadal zdarza się, że włosy bywają na zdjęciach nieregularne i nienaturalne, czasem jakby namalowane (zwłaszcza długie proste włosy), czasem są niezbyt ostre, a wręcz wtapiają się w twarz (np. na czołach czy pod kością policzkową przy uchu).

Algorytmy najgorzej radzą sobie z włosami przy generowaniu sztucznych portretów
Algorytmy najgorzej radzą sobie z włosami przy generowaniu sztucznych portretów Foto: Nvidia

Ciągle "spod ręki" sztucznej inteligencji wychodzą także np. asymetryczne elementy twarzy. Zdarza się, że umieszczają uszy na różnych poziomach czy też każdemu oku dają inny kolor bądź też oczy patrzą w różnych kierunkach. Algorytmy gubią się także, gdy np. w tle osoby portretowanej są liczby albo tekst - zazwyczaj stają się one zbyt rozmazane, by w ogóle były czytelne. Głębokie uczenie jest tak skoncentrowane na twarzy, że nawet dodatkowe elementy, które się przy niej pojawiają - np. kolczyki - też potrafią stać się całkiem nierealne. W przeciwieństwie do samej twarzy, zdjęcia generowane w ten sposób, miewają problem z tłem.

Kilka elementów portretu, które się sztucznej inteligencji nie udały
Kilka elementów portretu, które się sztucznej inteligencji nie udały Foto: www:thispersondoesnotexis

Sztuczna inteligencja ma też problem... z ludzkimi zębami. Zdarza się, że gdy są widoczne w uśmiechu, na przykład zachodzą na siebie albo tworzą kilka rzędów.

Sztuczna inteligencja Microsoftu została fanką Hitlera i Donalda Trumpa (arch.)

Wiele ze zdjęć jest jednak na tyle dobrych, że trudno wyłapać niedoskonałości. A sportretowani na nich "ludzie" wyglądają niezwykle realistycznie.

Udoskonalanie trwa

To nie pierwszy raz, gdy ci sami naukowcy Nvidia opublikowali takie zaskakujące postępy algorytmów GAN. W kwietniu 2018 r. pokazali światu zdjęcia fałszywych celebrytów, których stworzyli dzięki generatorowi bazującemu na podobnych mechanizmach. Były jednak niewielkie i niskiej rozdzielczości. Te twarze, które pokazano po raz pierwszy w grudniu, nawet na dużym zbliżeniu bywają trudne do rozpoznania jako nieprawdziwe.

Nieistniejący celebryci
Nieistniejący celebryci Foto: Nvidia

Badacze z Nvidia nie zgodzili się na odpowiedź na pytania Konkret24 na temat ich pracy. Ich publikacja obecnie oczekuje na recenzję naukową, dlatego nie mogą jej komentować.

Widać jednak już jej pierwsze zastosowania. Phillip Wang stworzył stronę internetową, która generuje fałszywe portrety, powstałe właśnie na bazie algorytmu opracowanego przez badaczy. Jak tłumaczy Wang na Facebooku w jednej z grup poświęconych sztucznej inteligencji, zrobił to, by "podnieść publiczną świadomość na temat tej technologii".

Ten mężczyzna nie istnieje, wygenerowała go strona Phillipa Wanga
Ten mężczyzna nie istnieje, wygenerowała go strona Phillipa Wanga Foto: ThisPersonDoesNotExist
Autor:  beata biel
Źródło:  Konkret24; Nvidia https://arxiv.org/pdf/1812.04948.pdf; zdjęcie tytułowe: ThisPersonDoesNotExist (www)

Pozostałe

To nie jest dezynfekcja ulic w czasach koronawirusa. Ale tęcza jest prawdziwa

Nagranie samochodu rozpylającego wodę na ulicy, za którym tworzy się półkolista tęcza, wygląda niewiarygodnie. W polskim internecie pojawiło się w związku z koronawirusem oraz z trwającymi atakami na środowisko LGBT. Komentarze internautów nie są zgodne z prawdą. Tęcza na filmie jest autentyczna.

Jak rozmawiać ze zwolennikami teorii spiskowych: 10 podstawowych zasad

W rozmowach ze zwolennikami teorii spiskowych warto zadawać pytania i pozwolić rozmówcom na samodzielne zweryfikowanie głoszonych przekonań. Jeśli partner deklaruje, że zdania nie zmieni - nie ma co przekonywać go na siłę. MIT Technology Review opracował 10 zasad dialogu ze zwolennikami teorii spiskowych.

Kultura przede wszystkim. Jak zwalczać fałszywe informacje

Medioznawca z Uniwersytetu w Kapsztadzie Herman Wasserman przekonuje, że nie ma panaceum na zwalczanie fake newsów. Oraz że pojawianie się dezinformacji w mediach ma podłoże nie tylko polityczne, ale przede wszystkim kulturowe. Dlatego poznanie kultury danej społeczności może ułatwić przekonanie jej członków do wiarygodnych źródeł, także tych na temat koronawirusa.

Bezpieczny dystans społeczny: metr czy dwa? Co mówi nauka

Z powodu pandemii w Chinach, Danii i Francji zalecono zachowanie dystansu społecznego o długości 1 metra. W Australii, Niemczech i Włoszech zalecają 1,5 metra, a w Polsce - 2 metry. Która odległość jest wystarczająco bezpieczna? Tak naprawdę w przypadku koronawirusa wciąż nie wiadomo - decyduje o tym wiele czynników, ale cztery z nich są najważniejsze.

Czy jeśli mam przeciwciała, jestem już odporny na SARS-CoV-2? Ekspert odpowiada

Jednym z najczęściej zadawanych dziś pytań z związku z COVID-19 jest to, czy wcześniejsza infekcja chroni przed kolejną. Według pracującego nad szczepionką profesora z Uniwersytetu Wirginii obecność przeciwciał w organizmie wcale nie daje gwarancji, że dana osoba jest już niepodatna na koronawirusa SARS-CoV-2.