Sztuczna inteligencja powiela sterotypy związane z płcią
Sztuczna inteligencja została stworzona przez człowieka na danych, które jej podsuwano. To sprawiło, że AI nie było w stanie uniknąć uprzedzeń oraz stereotypów związanych z płcią, co wykazały badania przeprowadzone przez polskich naukowców z Akademii Leona Koźmińskiego w Warszawie. Co to oznacza?
Sztuczna inteligencja nie powstała sama. Jest wytworem człowieka i jeśli wydaje wam się, że zachowuje obiektywizm, to jesteście w błędzie. AI bazuje na modelach dostarczanych przez ludzi i to sprawiło, że nie jest pozbawiona uprzedzeń oraz stereotypów. W tym związanych z płcią.
Polscy badacze ujawnili problem sztucznej inteligencji
Badania przeprowadzone przez polskich naukowców z Akademii Leona Koźmińskiego w Warszawie wykazały, że sztuczna inteligencja nie jest pozbawiona uprzedzeń oraz stereotypów związanych z płcią. Analizy ujawniły problem w kontekście miejsc pracy czy wykonywanych zawodów. Pod tym względem AI nie wykazuje się obiektywnością.
Badacze postanowili sprawdzić dziewięć popularnych generatorów obrazów, którym podsuwano zadania (w j. angielskim) związane z czterema popularnymi zawodami. Były to lekarz, inżynier, naukowiec oraz prawnik. Uzyskane obrazy zostały przeanalizowane. Szybko zauważono, że efekty nie były neutralne pod względem płci. Na większości (76 proc.) rozpoznano mężczyzn. Tylko 8 proc. z nich prezentowały kobiety.
Analiza badaczy z ALK w Warszawie pokazała, że sztuczna inteligencja nie tylko cechuje się uprzedzeniami, ale też powiela błędne schematy. Związane to było z przestawianiem kobiet i mężczyzn w różnych dziedzinach, gdzie zauważono "segregację płciową". Z czego to wynika? Winny jest oczywiście człowiek.
Uprzedzenia i stereotypy dotyczące płci w AI przez człowieka
Pamiętajmy, że sztuczna inteligencja jest szkolona na danych, które dostarcza jej człowiek. Już te mają zalążek powiązany z rozumowaniem ludzi, a więc nietrudno "podrzucić" w ten sposób stereotypy czy uprzedzenia.
Wiele ze stereotypów utrwalonych przez AI bierze się z danych wejściowych: jeżeli wykorzystuje się głównie zachodnie bazy, w tym także np. magazyny, seriale i książki, w których stereotypy płciowe mają się mocno, a główne postacie to przede wszystkim biali, trudno się dziwić, że modele traktują te dane jako odzwierciedlenie rzeczywistości. Problem pokazuje zatem, że trzeba być bardzo ostrożnym w doborze danych.
Można to "naprawić"
Naukowcy uważają, że nie jest to problem, którego nie da się rozwiązać. Dr Anna Górska z ALK proponuje, że prace "naprawiające" sztuczną inteligencję trzeba zacząć już u podstaw, czyli w trakcie projektowania, gdzie zadania powinny być rozdzielone pomiędzy kobiety i mężczyzn.
Sztuczna inteligencja jest również omylna, co również zauważono w trakcie badań. Dobrym przykładem jest tutaj przedstawienie obrazów kobiet będących lekarzami. Pojawiły się one tylko na 7 proc. grafik wygenerowanych dla tego zadania przez AI. Tymczasem w rzeczywistości kobiety stanowią około połowy zatrudnionych w tym zawodzie.
Problem jest poważny, bo według uczonych może przyczyniać się do pogłębiania cyklu nierówności płci. Dlatego odpowiednie działania warto podjąć już teraz. W przeciwnym wypadku skutki zaniechania czynności mogą za jakiś czas być widoczne jeszcze bardziej, a tego z pewnością nie chcemy.
Zobacz również: Sztuczna inteligencja po raz pierwszy pokonała człowieka!