Samochód przyszłości będzie chciał Cię zabić

Słynny dylemat wagonika w etyce stawia nas w takiej sytuacji - wagonik pędzi po torach w kierunku grupy pięciu przywiązanych do nich osób, a jedyne co możemy zrobić to przestawić zwrotnicę i skierować go na inny tor, do którego z kolei przywiązany jest jeden człowiek. Czy powinniśmy to zrobić? Czy mamy ku temu moralne prawo? Przed takimi właśnie dylematami stać będą autonomiczne samochody.

Słynny dylemat wagonika w etyce stawia nas w takiej sytuacji: wagonik pędzi po torach w kierunku grupy pięciu przywiązanych do nich osób, a jedyne co możemy zrobić to przestawić zwrotnicę i skierować go na inny tor, do którego z kolei przywiązany jest jeden człowiek. Czy powinniśmy to zrobić? Czy mamy ku temu moralne prawo? Przed takimi właśnie dylematami stać będą autonomiczne samochody.

Bo wyobraźmy sobie sytuację, w której taki autonomiczny samochód pędzi po autostradzie, dochodzi do kolizji i traci on kontrolę nad kierownicą, jedyne co może zrobić to zdecydować czy powinien zderzyć się z busem przewożącym dzieci czy z mini-vanem, w którym może znajdować się cała rodzina.

W przypadku człowieka za kółkiem taka sytuacja w największej mierze zależy od przypadku i szczęścia - nikt nie ma bowiem takiego refleksu aby dostrzec z kim przyjdzie mu się zderzyć, nie mówiąc już o zareagowaniu w taki sposób aby wybrać jeden z potencjalnych "celów". Komputer jednak działa dużo szybciej i widzi więcej, a od zaprogramowanych mu przez człowieka algorytmów będzie zależało co w takiej sytuacji wybierze.

Czy przyświecać mu będzie minimalizacja strat - wybierze pojazd, w którym znajduje się mniej osób? Czy też dojdzie do wniosku, że autobusowi z dziećmi mniej grozi w przypadku kolizji? A jeśli stanie przed wyborem zderzenia z pojazdem przewożącym ludzi, co może skutkować ich obrażeniami lub nawet śmiercią, a zderzeniem ze ścianą, co z kolei najprawdopodobniej oznaczało będzie śmierć osób znajdujących się we wnętrzu autonomicznego pojazdu? Czy postawi on na życie własnych pasażerów kosztem życia innych uczestników ruchu? A może zdecyduje on żeby nas zabić byle tylko ocalić innych?

Pojazdy autonomiczne Google poruszają się już po drogach publicznych i po pokonaniu prawie 3 milionów kilometrów brały udział w kilku zdarzeniach drogowych - były to drobne kolizje, których winnym zawsze był człowiek, nie można jednak wykluczyć, że gdy samochodów bez kierowcy na drogach będzie więcej to dalej statystyka będzie tak korzystna.

Według podejścia utylitarnego pojazd taki powinien zawsze dążyć do minimalizacji strat, a więc jeśli alternatywą będzie zabicie nas czy stworzenie zagrożenia dla większej ilości osób to wybierze on pierwsze rozwiązanie. Jeśli jednak podejdzie do programu deontologicznie to wybór będzie odmienny (w przypadku przedstawionego na początku problemu z wagonikiem oznacza to, że może nie uratujemy pięciu osób, ale też nie przyczynimy się aktywnie do jednego morderstwa).

A to dopiero początek problemów, bo co jeśli autobusem jadą na przykład skazani, a w drugim pojeździe znajduje się młode małżeństwo? Czyje życie jest więcej warte? Czy można lekką ręką skazać na śmierć 20 więźniów aby uratować dwójkę niewinnych ludzi?

W przypadku utylitaryzmu są dalsze dwa wyjścia - albo każdy przypadek będzie rozpatrywany indywidualnie, biorąc pod uwagę wszystkie towarzyszące okoliczności, albo też po prostu zawsze decydowała będzie liczba - komputer będzie decydował żeby zabić dwie osoby zamiast dwudziestu, niezależnie od tego kim one są.

Tak czy siak nie ma tu łatwego wyjścia, a jest to problem, którego po prostu nie da się uniknąć wprowadzając autonomiczne samochody na drogi. Będzie on także coraz powszechniejszy wraz ze zwiększającą się liczbą robotów dookoła nas.

Dlatego nie tylko inżynierowie i programiści będą mieli masę problemów, równie ważne (jeśli nie ważniejsze) dylematy staną przed etykami i filozofami.

Źródła: ,

Geekweek
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas