Sztuczna inteligencja powiela sterotypy związane z płcią

Sztuczna inteligencja została stworzona przez człowieka na danych, które jej podsuwano. To sprawiło, że AI nie było w stanie uniknąć uprzedzeń oraz stereotypów związanych z płcią, co wykazały badania przeprowadzone przez polskich naukowców z Akademii Leona Koźmińskiego w Warszawie. Co to oznacza?

Sztuczna inteligencja powiela stereotypy związane z płcią.
Sztuczna inteligencja powiela stereotypy związane z płcią.123RF/PICSEL

Sztuczna inteligencja nie powstała sama. Jest wytworem człowieka i jeśli wydaje wam się, że zachowuje obiektywizm, to jesteście w błędzie. AI bazuje na modelach dostarczanych przez ludzi i to sprawiło, że nie jest pozbawiona uprzedzeń oraz stereotypów. W tym związanych z płcią.

Polscy badacze ujawnili problem sztucznej inteligencji

Badania przeprowadzone przez polskich naukowców z Akademii Leona Koźmińskiego w Warszawie wykazały, że sztuczna inteligencja nie jest pozbawiona uprzedzeń oraz stereotypów związanych z płcią. Analizy ujawniły problem w kontekście miejsc pracy czy wykonywanych zawodów. Pod tym względem AI nie wykazuje się obiektywnością.

Badacze postanowili sprawdzić dziewięć popularnych generatorów obrazów, którym podsuwano zadania (w j. angielskim) związane z czterema popularnymi zawodami. Były to lekarz, inżynier, naukowiec oraz prawnik. Uzyskane obrazy zostały przeanalizowane. Szybko zauważono, że efekty nie były neutralne pod względem płci. Na większości (76 proc.) rozpoznano mężczyzn. Tylko 8 proc. z nich prezentowały kobiety.

Analiza badaczy z ALK w Warszawie pokazała, że sztuczna inteligencja nie tylko cechuje się uprzedzeniami, ale też powiela błędne schematy. Związane to było z przestawianiem kobiet i mężczyzn w różnych dziedzinach, gdzie zauważono "segregację płciową". Z czego to wynika? Winny jest oczywiście człowiek.

Uprzedzenia i stereotypy dotyczące płci w AI przez człowieka

Pamiętajmy, że sztuczna inteligencja jest szkolona na danych, które dostarcza jej człowiek. Już te mają zalążek powiązany z rozumowaniem ludzi, a więc nietrudno "podrzucić" w ten sposób stereotypy czy uprzedzenia.

Wiele ze stereotypów utrwalonych przez AI bierze się z danych wejściowych: jeżeli wykorzystuje się głównie zachodnie bazy, w tym także np. magazyny, seriale i książki, w których stereotypy płciowe mają się mocno, a główne postacie to przede wszystkim biali, trudno się dziwić, że modele traktują te dane jako odzwierciedlenie rzeczywistości. Problem pokazuje zatem, że trzeba być bardzo ostrożnym w doborze danych.
prof. Dariusz Jemielniak, cytowany w komunikacie ALK

Można to "naprawić"

Naukowcy uważają, że nie jest to problem, którego nie da się rozwiązać. Dr Anna Górska z ALK proponuje, że prace "naprawiające" sztuczną inteligencję trzeba zacząć już u podstaw, czyli w trakcie projektowania, gdzie zadania powinny być rozdzielone pomiędzy kobiety i mężczyzn.

Sztuczna inteligencja jest również omylna, co również zauważono w trakcie badań. Dobrym przykładem jest tutaj przedstawienie obrazów kobiet będących lekarzami. Pojawiły się one tylko na 7 proc. grafik wygenerowanych dla tego zadania przez AI. Tymczasem w rzeczywistości kobiety stanowią około połowy zatrudnionych w tym zawodzie.

Problem jest poważny, bo według uczonych może przyczyniać się do pogłębiania cyklu nierówności płci. Dlatego odpowiednie działania warto podjąć już teraz. W przeciwnym wypadku skutki zaniechania czynności mogą za jakiś czas być widoczne jeszcze bardziej, a tego z pewnością nie chcemy.

Nastolatek z Polski nagrodzony przez NASA za zdjęcie Wilczego KsiężycaPolsat News
INTERIA.PL
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas