Publikacja artykułów prasowych

Generatory AI utrwalają stereotypy płciowe – język ma kluczowe znaczenie

Generatory obrazów AI pogłębiają stereotypy płciowe – a język ma kluczowe znaczenie

Obecnie wszędzie możemy napotkać obrazy generowane przez sztuczną inteligencję – na platformach społecznościowych, w wyszukiwarkach internetowych i na plakatach. Dzięki rozwojowi dużych modeli językowych (LLM), takich jak ChatGPT, proste polecenia tekstowe mogą być przekształcane w zaskakująco realistyczne obrazy. Nowe badania wykazały, że te generatory nie tylko odtwarzają istniejące uprzedzenia płciowe, ale wręcz je wzmacniają, a kierunek i intensywność tego zjawiska zależy od języka, w którym zapytanie jest sformułowane. To ważny sygnał ostrzegawczy, szczególnie w kontekście europejskim, gdzie zbiegają się liczne języki i kultury.

Badanie generatorów obrazów w różnych językach

Naukowcy z Technicznej Uniwersytetu Monachijskiej (TUM) i Uniwersytetu Technicznego w Darmstadt przeanalizowali działanie generatorów obrazów w dziewięciu różnych językach. Dotychczasowe badania skupiały się głównie na modelach działających w języku angielskim, dlatego nowa analiza oferuje znacznie szersze spojrzenie na problematykę.

Kluczowym elementem badań był stworzony przez zespół wskaźnik Multilingual Assessment of Gender Bias in Image Generation (MAGBIG). Narzędzie to wykorzystuje starannie kontrolowane określenia zawodów, umożliwiając obiektywną ocenę generowanych obrazów. W badaniu uwzględniono cztery różne typy zapytań:

  • Bezpośrednie zapytania z użyciem formy męskiej w liczbie mnogiej: np. "lekarz" w języku niemieckim, gdzie to forma męska jest domyślna.
  • Opisowe zapytania: np. "osoba pracująca jako lekarz".
  • Wyraźnie żeńskie zapytania: np. "lekarz kobieta".
  • Formy neutralne (z użyciem znaków gwiazdkowych): praktyka stosowana w niemieckim języku, mająca na celu stworzenie neutralnego określenia, np. "Ärztinnen" dla lekarek.

Aby zapewnić porównywalność wyników, uwzględniono języki, w których nazwy zawodów mają formy męskie i żeńskie (np. niemiecki, hiszpański, francuski). W analizie znalazły się również języki, w których występuje tylko jeden rodzaj gramatyczny, ale używane są zaimki płciowe (np. angielski, japoński). Badanie obejmowało również języki bez gramatycznego rodzaju, takie jak koreański i chiński.

Sztuczna inteligencja utrwala stereotypy płciowe i je wzmacnia

Wyniki badań, opublikowane w Proceedings of the Association for Computational Linguistics, wykazały, że bezpośrednie zapytania z użyciem formy męskiej w liczbie mnogiej generują największe uprzedzenia. Na przykład, zapytanie o "księgowego" częściej skutkuje obrazami mężczyzn rasy białej, natomiast zapytania związane z zawodami opiekuńczymi zwykle generują obrazy kobiet. Formy neutralne lub "gwiazdkowe" jedynie nieznacznie osłabiły te stereotypy, natomiast zapytania wyraźnie żeńskie generują niemal wyłącznie obrazy kobiet.

Naukowcy nie ograniczyli się do analizy dystrybucji płci w generowanych obrazach, ale zbadali również, jak dobrze modele rozumieją i realizują różne zapytania. Chociaż neutralne sformułowania redukują stereotypy płciowe, to jednocześnie prowadzą do niższego poziomu zgodności między tekstem zapytania a wygenerowanym obrazem.

"Nasze wyniki wyraźnie pokazują, że struktura językowa ma istotny wpływ na równowagę i uprzedzenia generatorów obrazów AI" – podkreśla prof. Alexander Fraser, zajmujący się analizą danych i statystyką na TUM Campus w Heilbronn. "Użytkownicy systemów AI powinni być świadomi, że różne sformułowania mogą prowadzić do zupełnie innych obrazów, potencjalnie wzmacniając lub osłabiając stereotypy społeczne dotyczące ról."

Prof. Kristian Kersting, współdyrektor hessian.AI i współodpowiedzialny za klaster doskonałości "Reasonable AI" na Uniwersytecie Technicznym w Darmstadt, dodaje: "Generatory obrazów AI nie są neutralne – ilustrują nasze uprzedzenia w wysokiej rozdzielczości, a to zależy krytycznie od języka. Szczególnie w Europie, gdzie zbiegają się liczne języki, jest to sygnał ostrzegawczy: uczciwe AI musi być projektowane z uwzględnieniem wrażliwości językowej."

Zaskakujące jest, że zjawisko uprzedzeń różni się w zależności od języka, a nie ma jasnego związku z gramatycznymi strukturami. Przykładowo, zmiana zapytania z języka francuskiego na język hiszpańskiego prowadzi do znacznego wzrostu uprzedzeń, mimo że oba języki rozróżniają zawody na męskie i żeńskie.

Konsekwencje dla przyszłego rozwoju AI

Wyniki tych badań mają istotne implikacje dla przyszłego rozwoju sztucznej inteligencji, zwłaszcza w obszarze generowania obrazów. Podkreślają one potrzebę uwzględnienia różnic językowych i kulturowych podczas projektowania i trenowania tych systemów. Rozwiązanie problemu uprzedzeń w AI wymaga nie tylko technicznych ulepszeń, ale również świadomości kulturowej i etycznej. Konieczne jest opracowanie metod, które pozwolą na generowanie obrazów neutralnych i sprawiedliwych, niezależnie od języka i kontekstu kulturowego. Inaczej, ryzyko utrwalania i wzmacniania stereotypów płciowych w społeczeństwie będzie się pogłębiać.

Czy ten artykuł był dla ciebie pomocny?
0
0