Twarze wygenerowane przez SI bardziej godne zaufania od prawdziwych
Nowoczesne technologie zacierają granicę pomiędzy tym, co prawdziwe a sztuczne. Od momentu pojawienia się deepfake'ów problem autentyczności treści znajdowanych w internecie stał się szczególnie palący.
Popularna hipoteza doliny niesamowitości głosi, że im bardziej sztuczny wytwór przypomina prawdziwego człowieka, tym większą on wzbudzi w odbiorcy niechęć i niepokój. Niedawno opublikowane wyniki badań naukowców z Uniwersytetu Kalifornijskiego w Berkeley rzucają temu twierdzeniu rękawicę. Z artykułu opublikowanego w „Proceedings of the National Academy of Sciences USA” dowiadujemy się, że uczestnicy przeprowadzonego testu większym zaufaniem byli skłonni obdarzać twarze sztucznie wygenerowane przez sztuczną inteligencję od tych, które przedstawiały autentycznego człowieka.
– Odkryliśmy, że nie tylko sztuczne twarze są wysoce realistyczne, ale wręcz uważane za bardziej godne zaufania od prawdziwych – mówi współautor badania prof. Hany Farid. To szczególnie istotne z punktu widzenia cyberbezpieczeństwa i powstawania coraz bardziej wysublimowanych sposobów oszukiwania użytkowników internetu.
Sztuczne twarze prezentowane uczestnikom omawianego badania zostały wygenerowane z wykorzystaniem sieci neuronowych typu GAN, czyli generatywnych sieci przeciwstawnych. Ich działanie polega na tym, że jedna z sieci, tzw. generator, korzystając z bazy wzorcowych danych tworzy możliwie nieodróżnialny od pierwowzoru obraz, podczas gdy druga sieć, czyli dyskryminator, wyłapuje niedoskonałości w wytworach generatora. Obydwa systemy uczą się wzajemnie, korygując swoje działania w oparciu o nowe dane.
Sieci trenowano na fotografiach osób reprezentujących różne grupy etniczne. Do tej pory podobne badania w większości odbywały się wyłącznie w oparciu o twarze białych mężczyzn. Po skompilowaniu 400 prawdziwych twarzy i przyporządkowaniu ich do 400 sztucznych naukowcy kazali grupie 315 uczestników testu rozpoznać autentyczne osoby na 128 zaprezentowanych obrazach. 219 innych ochotników została przed przystąpieniem do zadania przeszkolona w rozpoznawaniu podróbek. Trzecia grupa 223 uczestników miała ocenić wszystkie 128 obrazów w skali zaufania, gdzie 1 oznaczało niegodny zaufania, a 7 – bardzo godny zaufania.
Celność pierwszej grupy wynosiła 48,2%. Druga, wcześniej przygotowana do próby, notowała 59% poprawnych wyników. Uczestnicy posługujący się skalą wskazywali średnio nieco wyższe zaufanie w przypadku sztucznych twarzy – 4.82, w porównaniu z 4.48 dla prawdziwych ludzi. Naukowcy byli zaskoczeni uzyskanymi danymi. Współautorka badania, Sophie Nightingale, komentując efekty prac, powiedziała: – Nie twierdzimy, że każdy jeden obraz sztucznie wygenerowany jest nieodróżnialny od prawdziwej twarzy, ale spora ich liczba tak. – Badaczka zwróciła uwagę, że dziś każdy może stworzyć podobnie wiarygodne „fałszywki” nie posiadając specjalistycznej wiedzy, a jedynie korzystając z powszechnie dostępnych programów do obróbki materiałów graficznych.
Wael Abd-Almageed z Visual Intelligence and Multimedia Analytics Laboratory na Uniwersytecie Południowej Kalifornii obawia się, że podobne badania mogą prowadzić do upowszechniania się przekonania, że deepfake’i staną się kompletnie niewykrywalne, a co za tym idzie, starania w tworzeniu coraz lepszych narzędzi do ich wyłapywania mogą zostać zarzucone. Tymczasem, jak zauważa naukowiec, są one coraz realniejszym wyzwaniem dla kryminalistyki.
Sam Gregory, dyrektor ds. strategii programów i innowacji w organizacji WITNESS, zajmującej się prawami człowieka, a także sposobami odróżniania deepfake’ów, zwraca uwagę na potrzebę inwestowania w tworzenie narzędzi skutecznie wychwytujących takie podróbki. Wskazuje również na możliwe rozwiązania problemu, jak choćby zamieszczanie trwałych znaków wodnych na generowanych przez sztuczną inteligencję obrazach.
Autorzy badania swój artykuł zakończyli konkluzją, że w przyszłości deepfake będzie stanowić coraz większe zagrożenie: – Dlatego zachęcamy rozwijających te technologie, do rozważenia, czy wiążące się z nimi zagrożenia nie są większe od korzyści. Jeśli tak, odradzamy rozwijanie takiej technologii, tylko dlatego, że jest ona możliwa.
Opracowano na podstawie artykułu „Scientific American”.