Naukowcy śledzą źródła uprzedzeń rasowych i płciowych w obrazach generowanych przez sztuczną inteligencję i starają się naprawić ich mechanizmy uczenia się. Efekty swoich badań opisali w artykule, który został opublikowany w „Nature” w marcu 2024 roku.

W 2022 roku Pratyusha Ria Kalluri, doktorantka badająca zagadnienia sztucznej inteligencji na Uniwersytecie Stanforda w Kalifornii odkryła, że programy generujące obraz powielają stereotypy rasowe i płciowe oraz wzmacniają uprzedzenia. Kiedy poprosiła to popularne narzędzie o zdjęcie amerykańskiego mężczyzny i jego domu, program wygenerował obraz osoby o jasnej karnacji stojącej przed dużym domem w stylu kolonialnym. Kiedy natomiast poprosiła o zdjęcie afrykańskiego mężczyzny i jego „odjechanego” domu, wyświetlił się obraz ciemnoskórej osoby przed skromnym domem ulepionym z błota – pomimo użycia słowa „odjechany” [ang. fancy].

Po poszukiwaniach doktorantka i jej koledzy odkryli, że obrazy generowane przez popularne narzędzia w przeważającej mierze odwoływały się do powszechnych stereotypów, takich jak kojarzenie słowa „Afryka” z ubóstwem lub „biedny” z ciemnym kolorem skóry. Narzędzia, które testowali, nawet wzmacniały niektóre uprzedzenia. Na przykład, w obrazach wygenerowanych na podstawie podpowiedzi z prośbą o przedstawienie osób wykonujących określone zawody, generatory przedstawiały prawie wszystkie gospodynie domowe jako osoby kolorowe, a wszystkie stewardesy jako kobiety – i to w proporcjach znacznie większych niż jest w rzeczywistości.

Także inni badacze śledzący poczynania generatorów obrazów AI odkryli podobne uprzedzenia, w których widać było tendencyjne i stereotypowe cechy związane z płcią, kolorem skóry, zawodami, narodowościami itp. Także polscy naukowcy – badacze z Akademii Leona Koźmińskiego (ALK) w Warszawie, dr Anna Górska i prof. Dariusz Jemielniak, na łamach „Feminist Media Studies” (https://doi.org/10.1080/14680777.2023.2263659) – opisali wyniki swoich badań dotyczących generatorów AI uprzedzonych ze względu na płeć, w kontekście różnych zawodów i miejsc pracy. Zauważyli, że sztuczna inteligencja powiela uprzedzenia w generowanych przez nią obrazach profesjonalistów – mężczyzn i kobiet – w dziedzinie prawa, medycyny, inżynierii i badań naukowych.

Dlaczego tak się dzieje? Na początku problemu stoją dane wyjściowe, z których korzystają generatory. Według naukowców badających to zjawisko, globalne media pełne są stereotypów, a przecież to właśnie je wykorzystuje sztuczna inteligencja. Modele sztucznej inteligencji są szkolone na zachodnich bazach zawierających dane, w których przeważają biała skóra i nadreprezentacja mężczyzn. Trudno zatem się dziwić, że modele traktują te dane jako odzwierciedlenie rzeczywistości – przekształcają tylko to, co znajdują w bazie. A znajdują tam często treści obraźliwe, stronnicze, a nawet nielegalne (jak np. dotyczące przemocy wobec dzieci). Dlatego wielu badaczy sztucznej inteligencji obawia się, że generowanie obrazów może zaostrzyć stereotypy.

Generatory obrazów pojawiły się po raz pierwszy w 2015 roku, kiedy powstał program alignDRAW, model sztucznej inteligencji, który mógł generować obrazy na podstawie wprowadzonego tekstu. System został wyszkolony na zbiorze danych zawierającym około 83 000 obrazów z podpisami. Obecnie wiele generatorów obrazów o różnych możliwościach jest szkolonych na zbiorach danych zawierających miliardy obrazów. Większość narzędzi jest zastrzeżona, a szczegóły dotyczące tego, które obrazy są wprowadzane do tych systemów, są często trzymane w tajemnicy, wraz z dokładnym sposobem ich działania.

Generatory obrazów uczą się łączyć atrybuty takie jak kolor, kształt lub styl z różnymi deskryptorami, czyli identyfikatorami wykorzystywanymi przez system operacyjny. Gdy użytkownik wprowadza podpowiedź, generator tworzy nowe wizualne obrazy na podstawie atrybutów, które są zbliżone do użytych słów. Wyniki mogą być zarówno zaskakująco realistyczne, jak i często dziwnie niepoprawne (na przykład dłonie mają czasami sześć palców). Często zestawy danych są ze sobą łączone, np. banan ze określeniem koloru żółtego. Dlatego generator mimo poproszenia o przedstawienie banana, połączy go automatycznie z kolorem żółtym. Podobnie jest z kolorem skóry. Biała skóra jest uważana za domyślną, więc zazwyczaj się jej nie podaje w atrybutach. Gdy jednak wspominamy o kolorze skóry automatycznie dodawany jest kolor inny niż biały.  

Naukowcy szukają sposobu rozwiązania tego problemu, pracują nad doskonalszymi algorytmami, aby przeciwdziałać uprzedzeniom bez interwencji użytkowników. Efekty są jednak wciąż niezadowalające. I tak na początku lutego 2024 roku Google udostępnił generator obrazów, który został „dostrojony” w celu uniknięcia niektórych typowych pułapek generatora obrazów. Okazało się jednak, że gdy użytkownik poprosił o zdjęcie „niemieckiego żołnierza z 1943 roku”, generator stworzył obrazy czarnoskórych i azjatyckich nazistów – co jednak jest historycznie nieprawdziwe i krzywdzące. Google przyznał się do błędu i tymczasowo zawiesił działanie generatora tworzącego obrazy ludzi.

Równolegle podejmowane są próby poprawy zawartości zbiorów danych szkoleniowych dla generatorów, co oczywiście jest czasochłonne i kosztowne, szczególnie w przypadku zbiorów zawierających miliardy obrazów. I tu koło się zamyka, bo aby przyspieszyć i zminimalizować koszty, firmy uciekają się do zautomatyzowanych mechanizmów filtrowania w celu usunięcia problematycznych danych. Automatyczne filtrowanie oparte na słowach kluczowych również nie rozwiązuje problemu. W przypadku takich słów jak „córka” czy „zakonnica” okazało się, że w niektórych przypadkach używane były do oznaczania zdjęć o charakterze jednoznacznie seksualnym. Zautomatyzowane próby czyszczenia dużych, tekstowych zbiorów danych usunęły nieproporcjonalną ilość treści stworzonych przez i dla osób z grup mniejszościowych.

Wygląda na to, że stoimy dopiero na początku długiej drogi uczenia generatorów obrazów, a przed nami wciąż piętrzą się kolejne problemy. Pojawiają się też nowe pytania – jakiej chcemy odpowiedzi? Czy chcemy, aby systemy sztucznej inteligencji odzwierciedlały rzeczywistość, nawet jeśli jest ona niesprawiedliwa?

Opracowano na podstawie:
AI image generators often give racist and sexist results: can they be fixed?
Sztuczna inteligencja powiela uprzedzenia i stereotypy dotyczące płci 

Zdjęcie użyte do ilustracji tego artykułu zostało wygenerowane na potrzeby portalu Przystanek Nauka przez sztuczną inteligencję w serwisie Canva

Afrykański mężczyzna przed swoim funcy domem | fot. Zdjęcie użyte do ilustracji tego artykułu zostało wygenerowane na potrzeby portalu "Przystanek Nauka" przez sztuczną inteligencję w serwisie Canva