Uśmiechnięta szatynka z włosami założonymi za ucho. Starsza pani z siwymi włosami i w okularach, sfotografowana w połowie wypowiadanego słowa. Kilkuletni uśmiechnięty rudzielec z burzą kręconych włosów. Wyglądają jak ludzie, których codziennie mijamy na ulicach. Tyle tylko, że nie istnieją.
W grudniu naukowcy pracujący dla firmy Nvidia opublikowali efekty swojej pracy nad stworzeniem - przy wykorzystaniu sztucznej inteligencji - zdjęć ludzi, którzy nigdy nie istnieli. Porterów całkowicie zmyślonych osób. Efekty są zaskakujące, bo niezwykle realistyczne. Kilka dni temu, na bazie pracy naukowców, w sieci pojawiło się pierwsze ogólnodostępne narzędzie, które generuje fałszywe portrety.
Naukowcy pracujący dla Nvidia - Tero Karrass, Samuli Laine i Timo Aila - do stworzenia fałszywych obrazów wykorzystali algorytmy głębokiego uczenia (czyli ogólnie rzecz ujmując - sztuczną inteligencję) GAN - generative adversarial networks, bazujące na dwóch sieciach. Jedna identyfikuje, analizuje i uczy się schematów w zbiorach danych. Schematami w tym przypadku są np. proporcje twarzy, ustawienie oczu, włosy, a zbiorami danych - zdjęcia realnie istniejących osób. Na bazie tej analizy sieć ta generuje nowe obrazy - zdjęcia osób, które nigdy nie istniały.
Druga sieć porównuje prawdziwe i fałszywe obrazy i sprawdza, czy efekt wygląda realistycznie. Jeśli nie, model twarzy robiony jest tak długo, aż zostanie uznany za realistyczny.
Szanse czy wyzwania?
Do tworzenia nowych twarzy algorytm wykorzystywał mieszanie cech osób realnie istniejących, takich jak wiek, rasa, płeć, kolor włosów, a nawet liczba i rozmieszczenie piegów.
Po co to wszystko? Zdaniem ekspertów, takie technologie będą niezwykle przydatne przy tworzeniu gier komputerowych czy rozwoju efektów specjalnych w filmach. Będzie dzięki nim można tworzyć bohaterów "na zawołanie", dokładnie takich, jakich wymarzy sobie np. reżyser
Takie zdjęcia fałszywych ludzi mogą przynieść także dużo korzyści wszelkiego rodzaju bankom zdjęć czy agencjom reklamowym, choć stanowczo nie fotografom dla nich pracującym. Niosą jednak ze sobą także olbrzymie ryzyko oszustw i nowego poziomu tworzenia różnego rodzaju internetowych (i nie tylko) fałszywek, udawanych tożsamości, a nawet fałszerstwa dokumentów.
Przechytrzyć sztuczną inteligencję
Efekty są świetne, ale nie idealne. Kyle McDonald - artysta, który do swoich prac (głównie efektów specjalnych) wykorzystuje kodowanie - zwraca uwagę na różne niedoskonałości dotychczas tworzonych obrazów, które mogą być wskazówką na co zwracać uwagę, by nie dać się oszukać. Oczywiście do czasu, aż i sztuczna inteligencja nie nadrobi tych swoich niedoskonałości.
Zdaniem McDonalda, najtrudniej jest stworzyć fałszywe włosy. Warto przy tym podkreślić, że pisał to przed grudniową publikacją Nvidia. I choć niewątpliwie technologia została od tego czasu bardzo ulepszona, nadal zdarza się, że włosy bywają na zdjęciach nieregularne i nienaturalne, czasem jakby namalowane (zwłaszcza długie proste włosy), czasem są niezbyt ostre, a wręcz wtapiają się w twarz (np. na czołach czy pod kością policzkową przy uchu).
Ciągle "spod ręki" sztucznej inteligencji wychodzą także np. asymetryczne elementy twarzy. Zdarza się, że umieszczają uszy na różnych poziomach czy też każdemu oku dają inny kolor bądź też oczy patrzą w różnych kierunkach. Algorytmy gubią się także, gdy np. w tle osoby portretowanej są liczby albo tekst - zazwyczaj stają się one zbyt rozmazane, by w ogóle były czytelne. Głębokie uczenie jest tak skoncentrowane na twarzy, że nawet dodatkowe elementy, które się przy niej pojawiają - np. kolczyki - też potrafią stać się całkiem nierealne. W przeciwieństwie do samej twarzy, zdjęcia generowane w ten sposób, miewają problem z tłem.
Sztuczna inteligencja ma też problem... z ludzkimi zębami. Zdarza się, że gdy są widoczne w uśmiechu, na przykład zachodzą na siebie albo tworzą kilka rzędów.
Wiele ze zdjęć jest jednak na tyle dobrych, że trudno wyłapać niedoskonałości. A sportretowani na nich "ludzie" wyglądają niezwykle realistycznie.
Udoskonalanie trwa
To nie pierwszy raz, gdy ci sami naukowcy Nvidia opublikowali takie zaskakujące postępy algorytmów GAN. W kwietniu 2018 r. pokazali światu zdjęcia fałszywych celebrytów, których stworzyli dzięki generatorowi bazującemu na podobnych mechanizmach. Były jednak niewielkie i niskiej rozdzielczości. Te twarze, które pokazano po raz pierwszy w grudniu, nawet na dużym zbliżeniu bywają trudne do rozpoznania jako nieprawdziwe.
Badacze z Nvidia nie zgodzili się na odpowiedź na pytania Konkret24 na temat ich pracy. Ich publikacja obecnie oczekuje na recenzję naukową, dlatego nie mogą jej komentować.
Widać jednak już jej pierwsze zastosowania. Phillip Wang stworzył stronę internetową, która generuje fałszywe portrety, powstałe właśnie na bazie algorytmu opracowanego przez badaczy. Jak tłumaczy Wang na Facebooku w jednej z grup poświęconych sztucznej inteligencji, zrobił to, by "podnieść publiczną świadomość na temat tej technologii".
Autor: beata biel / Źródło: Konkret24; Nvidia https://arxiv.org/pdf/1812.04948.pdf; zdjęcie tytułowe: ThisPersonDoesNotExist (www)
Źródło zdjęcia głównego: www:ThisPersonDoesNotExist | Sztuczna Inteligencja