Kłęby dymu po wybuchu nad centrum miasta. Matka z dzieckiem w zadumie spoglądają na ruiny. Wbrew pozorom, nie są to prawdziwe zdjęcia z wojny w Izraelu. Ale media i organizacje pozarządowe wykorzystują je, by relacjonować aktualny konflikt. Według ekspertki prof. Aleksandry Przegalińskiej może to skutkować dezinformacją.
Internetowe banki zdjęć mają setki obrazów ilustrujących konflikt pomiędzy Żydami a Palestyńczykami, w tym ostatnią jego odsłonę rozgrywającą się od 7 października na terenie Izraela przy granicy ze Strefą Gazy i w samej strefie. W niektórych z nich aż roi się od obrazów wygenerowanych przez sztuczną inteligencję lub edytowanych przy użyciu sztucznej inteligencji (ang. artificial intelligence, AI). Najlepsze obrazy są nie do rozróżnienia z prawdziwymi zdjęciami reporterskimi. Przynajmniej dla niewprawnego oka.
Zdarza się, że obrazy wygenerowane przez AI trafiają do mediów, które relacjonują konflikt izraelsko-palestyński. Obrazy wykorzystują również think tanki czy organizacje pozarządowe. "Generalnie wykorzystywanie zdjęć wygenerowanych przez AI do ilustrowania materiałów prasowych, szczególnie tych dotyczących konfliktów, rodzi poważne pytania o transparentność i odpowiedzialność" - komentuje dr hab. Aleksandra Przegalińska, filozofka zajmująca się badaniem sztucznej inteligencji.
"Takie praktyki mogą prowadzić do dezinformacji"
Internetowe banki zdjęć zwykle prawidłowo oznaczają obrazy jako wygenerowane maszynowo. Dziennikarze korzystający z nich w swoich serwisach często jednak o tym zapominają. "Takie praktyki mogą prowadzić do dezinformacji, gdyż brak jasnego oznaczenia, że materiały są wygenerowane przez AI, może wprowadzać odbiorców w błąd co do autentyczności i pochodzenia zdjęć" - komentuje doktor Przegalińska. Według niej to szczególnie niebezpieczne w kontekście wrażliwych tematów, takich jak konflikty zbrojne, gdzie kontekst i rzetelność informacji są kluczowe.
"Firma Adobe sprzedaje za pośrednictwem swojego serwisu obrazy stockowe oblężenia Gazy wygenerowane przez sztuczną inteligencję. Używają ich różne serwisy informacyjne, bez oznaczeń" - zauważył 8 listopada na platformie X dr Łukasz Olejnik, badacz i konsultant cyberbezpieczeństwa. Doktor Olejnik załączył zrzut ekranu z wyszukiwarki obrazów Google. Widać na nim wiele przykładów wykorzystania obrazu czarnej chmury dymu i pyłu nad jakimś miastem. Obraz ilustrował m.in. teksty z informacjami o aktualnych wydarzeniach w Strefie Gazy.
Zdjęcie czarnej chmury zostało prawidłowo oznaczone na stronie Adobe Stock jako wygenerowane za pomocą AI. Wyszukiwanie obrazów w Google rzeczywiście podpowiada przykłady jego wykorzystania w tekstach informacyjnych o wydarzeniach powiązanych z konfliktem w Izraelu - również w języku polskim. Na przykład w artykule serwisu Burbonik.pl z 17 października zdjęcie to ilustrowało tekst o wykorzystaniu aktualnego konfliktu przez oszustów specjalizujących się w wyłudzaniu danych. I wcale nie było oznaczone jako wygenerowane przez sztuczną inteligencję.
Ale to niejedyny taki przykład z ostatnich dni.
Matka z dzieckiem patrzą na zrujnowane miasto - to nie jest prawdziwe zdjęcie
Podobny obraz chmur czarnego pyłu unoszących się nad miastem - ale w ciemniejszych barwach i jakby przy zachodzącym słońcu - również pochodzi z internetowego banku zdjęć Adobe i jest w nim prawidłowo oznaczony jako wygenerowany za pomocą AI. Obraz wykorzystano w artykule internetowego serwisu Pulsmedycyny.pl z 7 listopada o pracownikach medycznych, którzy zginęli w Strefie Gazy podczas wykonywania obowiązków. Obraz podpisano nazwą banku zdjęć, ale bez wyraźnego oznaczenia, że został wygenerowany dzięki sztucznej inteligencji.
Zdjęcie matki z dzieckiem patrzących w zadumie na zrujnowane miasto pojawiło się w publikacji Komisji Gospodarczo-Społecznej do Spraw Azji Zachodniej z 4 listopada. To jedna z komisji działających w ramach Rady Gospodarczo-Społecznej Organizacji Narodów Zjednoczonych. Publikacja "Wojna w Strefie Gazy: gdzie wszyscy zostają porzuceni" zwraca uwagę na szczególne cierpienie przebywających w Strefie Gazy kobiet, dzieci i osób z niepełnosprawnościami.
Na stronie banku zdjęć obraz matki i dziecka jest prawidłowo oznaczony jako wygenerowany przez AI. W publikacji komisji ONZ nie zostało to oznaczone.
Podobnie jest w przypadku artykułu ze strony European Parliamentary Research Service (EPRS), think tanku Parlamentu Europejskiego. Opublikowany 30 października tekst "Ataki terrorystyczne sprowadzają wojnę na Izrael i Strefę Gazy [Co myślą think tanki]" zilustrowano obrazem zniszczonej ulicy bliskowschodniego miasta. Na stronie banku zdjęć obraz oznaczono jako wygenerowany maszynowo. W publikacji na stronie EPRS, oprócz nazwy banku zdjęć i nicka artysty, nie znaleźliśmy podobnej adnotacji.
Ekspertka: Potrzebne są jasne wytyczne i praktyki dotyczące oznaczania oraz dystrybucji zdjęć
Poprosiliśmy dwie firmy zarządzające bankami zdjęć Adobe Stock i Freepik o wyjaśnienie, dlaczego zdecydowały się sprzedawać zdjęcia stworzone przy użyciu sztucznej inteligencji - w tym te dotyczące wrażliwych tematów, takich jak wojna. Zapytaliśmy również, jak reagują na pojawiające się w mediach zarzuty, że banki zdjęć stają się źródłem dezinformacji.
Do czasu publikacji tekstu dostaliśmy odpowiedź z agencji PR obsługującej firmę Adobe. Autorka odpowiedzi podkreśliła, że Adobe Stock to platforma handlowa, która wymaga, aby wszystkie treści stworzone przy użyciu sztucznej inteligencji były oznaczone jako takie, gdy są przesyłane do licencjonowania. "Uważamy, że ważne jest, aby klienci wiedzieli, jakie obrazy Adobe Stock zostały utworzone przy użyciu narzędzi sztucznej inteligencji" - czytamy w stanowisku firmy. Podkreślono w nim ponadto, że Adobe angażuje się w walkę z dezinformacją i w ramach inicjatywy Content Authenticity Initiative współpracuje z wydawcami czy producentami aparatów fotograficznych, aby przyspieszyć wdrażanie tzw. poświadczeń zawartości. Chodzi o nowy rodzaj metadanych pozwalających ustalić autorstwo, czy sposób powstania danego obrazu - w tym informację o ewentualnym wykorzystaniu sztucznej inteligencji.
Do czasu publikacji nie uzyskaliśmy odpowiedzi z banku fotografii Freepik.
Według dr hab. Aleksandry Przegalińskiej, banki zdjęć powinny wdrożyć jasne wytyczne i praktyki dotyczące oznaczania i dystrybucji zdjęć wygenerowanych za pomocą AI. "Transparencja w tej sferze jest konieczna, aby utrzymać zaufanie publiczne i integralność informacyjną" - zaznacza ekspertka i dodaje, że w osiągnięciu tego celu mogą pomóc takie regulacje jak kanadyjska ustawa o sztucznej inteligencji i danych (Artificial Intelligence and Data Act, AIDA), rozporządzenie Unii Europejskiej ws. sztucznej inteligencji (AI Act), czy powstałe na jego wzór niedawne rozporządzenie prezydenta Stanów Zjednoczonych Joe Bidena.
"Poza tym, organizacje medialne i NGO powinny być bardziej świadome tego zagadnienia i zawsze weryfikować źródła swoich materiałów ilustracyjnych, aby uniknąć niechcianego współudziału w rozpowszechnianiu dezinformacji" - podsumowuje doktor Przegalińska.
Źródło: Konkret24
Źródło zdjęcia głównego: epthinktank.eu; unescwa.org; Adobe Stock