Błędnie aresztowani przez AI. Ujawnili problemy amerykańskiej policji

Daniel Górecki

Daniel Górecki

emptyLike
Lubię to
Lubię to
like
0
Super
relevant
0
Hahaha
haha
0
Szok
shock
0
Smutny
sad
0
Zły
angry
0
Lubię to
like
Zły
angry
113
Udostępnij

Jak pokazuje śledztwo przeprowadzone przez The Washington Post, oprogramowanie do rozpoznawania twarzy bywa przyczyną niesłusznych aresztowań i osadzeń amerykańskich obywateli. Wszystko przez funkcjonariuszy, którzy zbytnio wierząc w jego nieomylność, nie dopełniają swoich obowiązków. Jaka jest skala zjawiska? Trudno to nawet zweryfikować.

Systemy rozpoznawania twarzy są coraz powszechniejsze. Czy to powód do obaw?
Systemy rozpoznawania twarzy są coraz powszechniejsze. Czy to powód do obaw?123RF/PICSEL

Obawy związane z oprogramowaniem do rozpoznawania twarzy towarzyszą nam praktycznie od pierwszych iteracji tej technologii, zwłaszcza że regularnie docierały do nas informacje o nielegalnym wykorzystywaniu do szkolenia algorytmów zdjęć z mediów społecznościowych czy groźnych wyciekach danych. Co więcej, eksperci wskazywali też na potencjalną możliwość zakupu takiego oprogramowania przez osoby prywatne, co rodzi ryzyko prześladowań czy innych wątpliwych moralnie zastosowań, jak "sprawdzanie" potencjalnych klientów czy pracowników.

Nie wspominając nawet o wielokrotnych ostrzeżeniach, że tego typu rozwiązania są zawodne i bywają uprzedzone na tle rasy czy płci, co może prowadzić do dyskryminacji i wielu pomyłek. I trudno chyba o lepsze potwierdzenie ich słów niż wyniki śledztwa przeprowadzonego przez The Washington Post, które ujawnia przypadki osób niesłusznie aresztowanych po błędach popełnionych przez algorytmy AI.

Policjanci korzystający z AI chodzą na skróty

Jak możemy przeczytać w nowej publikacji, chociaż policjantów ostrzega się, że wyniki zastosowania tej technologii mają charakter "nienaukowy" i "nie powinny stanowić jedynej podstawy podejmowania żadnych decyzji", to funkcjonariusze często chodzą na skróty. Zamiast zachowywać ustalone standardy, zbyt polegają na możliwościach sztucznej inteligencji, a cierpią niewinni ludzie.

Jak sugeruje gazeta, całkowita liczba przypadków niesłusznych aresztowań spowodowanych przez błędne wyniki wyszukiwania AI jest niemożliwa do ustalenia, bo prokuratorzy rzadko informują opinię publiczną, kiedy użyli tego typu narzędzi, a prawnie wymaga się od nich tego tylko w siedmiu stanach. Niemniej, analizując dostępne dane i rozmawiając z prawnikami, policjantami i poszkodowanymi, dziennikarze dotarli do ośmiu takich przypadków nadużyć.

Co więcej, wiele wskazuje na to, że gdyby policjanci zachowali standardy swojej pracy, tzn. nie chodzili na skróty i do rozpoznawania twarzy dołożyli jeszcze sprawdzenie alibi, znaków szczególnych czy odcisków palców, wszystkich tych niesłusznych aresztowań można byłoby uniknąć.

Absurd goni absurd

A w niektórych z nich mówimy o naprawdę absurdalnych sytuacjach jak aresztowanie w sprawie kradzieży samochodu ciężarnej kobiety, chociaż świadkowie kradzieży nie wspominali o kobiecie w ciąży, czy mężczyzny oskarżonego o kradzież zegarka, którego tożsamość potwierdził ochroniarz nieobecny w pracy w dniu zdarzenia!

Nie wspominając nawet o aresztowaniu i skazaniu 29-letniego ojca czwórki dzieci, który nie miał żadnych związków z miejscem zbrodni czy kryminalnej przeszłości, a któremu oczyszczenie imienia zajęło ponad dwa lata.

Mówiąc krótko, niewinni ludzie idą siedzieć, bo policjanci polegają na AI, zamiast sumiennie wykonywać swoje obowiązki. A jak sugerują eksperci, rozpoznawanie twarzy faktycznie działa coraz lepiej, ale nawet w warunkach laboratoryjnych, karmione zdjęciami wysokiej rozdzielczości, nie jest nieomylne, a co dopiero, kiedy działa na zamazanych i niewyraźnych nagraniach z kiepskiej jakości monitoringu.

Jak zauważa cytowana przez WP Katie Kinsey, badaczka wydziału prawa NYU, nie przeprowadzono niezależnych testów sprawdzających dokładność technologii stosowanej do odczytania niewyraźnych zdjęć z monitoringu, więc trudno jest nawet ocenić, jak często myli się AI, doprowadzając do osobistych tragedii.

interia© 2025 Associated Press
Przejdź na