Autonomiczne pojazdy są rasistowskie. „Osób czarnoskórych nie traktują jak ludzi”

Ostatnimi czasy w mediach internetowych modne stało się wzajemne okładanie się użytkowników oskarżeniami o mowę nienawiści, rasizm i antysemityzm, tymczasem z tego powodu zagrożony stał się rozwój motoryzacji.

Technologie autonomiczne to przyszłość podróżowania. Pozwolą one o wiele bardziej bezpieczniej i komfortowo przemieszczać się milionom ludzi nie tylko po metropoliach, ale również po całym świecie. W końcu rozwiązany zostanie też problem korków. Niestety, teraz dowiadujemy się, że organizacje walczące o prawa człowieka uznały technologie autonomiczne za rasistowskie.

Cała afera wybuchła po publikacji badań przeprowadzonych przez naukowców z Georgia Institute of Technology. Przeprowadzili oni wnikliwe testy wszystkich systemów autonomicznych, na co dzień rozwijanych przez największe koncerny technologiczne i motoryzacyjne. Okazuje się, że wszystkie borykają się z gigantycznymi problemami związanymi z poprawną identyfikacją ludzi.

Reklama

Chodzi tutaj o osoby czarnoskóre. Systemy sztucznej inteligencji, przetwarzające dane na podstawie przede wszystkim kamer, w niepokojącej skali nie potrafią poprawnie rozpoznać twarzy u osób o ciemnej karnacji, co kończy się nie zidentyfikowaniem ich jako ludzi. Konsekwencje tego mogą być tragiczne, bo system może nie zwrócić uwagi na człowieka znajdującego się na przejściu dla pieszych, uznać go za naturalny element otoczenia i w niego wjechać.

Autonomiczne pojazdy są rasistowskie. „Osoby czarnoskóre nie traktują jak ludzi”. Fot. Waymo.

Chociaż problemy AI z poprawną identyfikacją twarzy osób czarnoskórych są znane od dawna, bo nawet występują one w systemach monitoringu miejskiego, to jednak naukowcy nie widzą kompletnie żadnej poprawy sytuacji w tej materii. Niedawno Amazon przyznał, że jego system Rekognition, m.in. stworzony do wykrywania na ulicach przestępców na potrzeby policji, FBI i CIA, ma ogromne problemy z wykrywaniem osób o ciemnej karnacji, przez co staje się on mało precyzyjny, a jak wiemy ze statystyk, np. w USA to właśnie takie osoby popełniają najwięcej przestępstw.

Naukowcy z Georgia Institute of Technology sugerują, by koncerny pomyślały o karmieniu swoich systemów sztucznej inteligencji większą ilością danych dotyczących osób o ciemnej karnacji. Wtedy może uda się pokonać ten problem, przez który tego typu systemy mogą wciąż mogą stanowić wielkie zagrożenie dla dużej części amerykańskiego społeczeństwa.

Źródło: GeekWeek.pl/ / Fot. MaxPixel/Waymo

Geekweek
Reklama
Reklama
Reklama
Reklama
Reklama