Autonomiczny Mercedes stawia na bezpieczeństwo kierowcy

Mercedes-Benz również pracuje nad autonomicznymi pojazdami i nie można się temu dziwić - niemiecki producent nie chce nagle, po ponad stu latach obecności na rynku wypaść z wyścigu. A okazuje się, że jego samochody będą stawiały bezpieczeństwo kierowcy na pierwszym miejscu, nawet jeśli trzeba będzie zabijać pieszych.

Mercedes-Benz również pracuje nad autonomicznymi pojazdami i nie można się temu dziwić - niemiecki producent nie chce nagle, po ponad stu latach obecności na rynku wypaść z wyścigu. A okazuje się, że jego samochody będą stawiały bezpieczeństwo kierowcy na pierwszym miejscu, nawet jeśli trzeba będzie zabijać pieszych.

Mercedes-Benz również pracuje nad autonomicznymi pojazdami i nie można się temu dziwić - niemiecki producent nie chce nagle, po ponad stu latach obecności na rynku wypaść z wyścigu. A okazuje się, że jego samochody będą stawiały bezpieczeństwo kierowcy na pierwszym miejscu, nawet jeśli trzeba będzie zabijać pieszych.

Informację tę potwierdził Christoph von Hugo z Mercedesa - menedżer działu zajmującego się właśnie autonomicznymi pojazdami, który całkiem słusznie zauważył, że spece tej firmy pracujący nad AI doszli do wniosku, że w przypadku tak złożonych, zależnych w dużej mierze od czynników losowych sytuacjach jak wypadki, trzeba skupić się na ratowaniu żyć, które na pewno uda się uratować, a więc właśnie na kierowcy i pasażerach, choć dodał (również bardzo słusznie), że przede wszystkim należy skupić się na całkowitym uniknięciu wypadków i 99% całej pracy jego zespół poświęca właśnie temu zagadnieniu.

Reklama

Problemy etyczne autonomicznych samochodów nie są zagadnieniem całkowcie nowym - giganci zza oceanu w celu ich rozwiązania zatrudnili nawet filozofów i etyków.

Słynny dylemat wagonika w etyce stawia nas w takiej sytuacji: wagonik pędzi po torach w kierunku grupy pięciu przywiązanych do nich osób, a jedyne co możemy zrobić to przestawić zwrotnicę i skierować go na inny tor, do którego z kolei przywiązany jest jeden człowiek. Czy powinniśmy to zrobić? Czy mamy ku temu moralne prawo? Przed takimi właśnie dylematami stać będą autonomiczne samochody i ich AI.

Bo wyobraźmy sobie sytuację, w której taki autonomiczny samochód pędzi po autostradzie, dochodzi do kolizji i traci on kontrolę nad kierownicą, jedyne co może zrobić to zdecydować czy powinien zderzyć się z busem przewożącym dzieci czy z mini-vanem, w którym może znajdować się cała rodzina.

W przypadku człowieka za kółkiem taka sytuacja w największej mierze zależy od przypadku i szczęścia - nikt nie ma bowiem takiego refleksu aby dostrzec z kim przyjdzie mu się zderzyć, nie mówiąc już o zareagowaniu w taki sposób aby wybrać jeden z potencjalnych "celów". Komputer jednak działa dużo szybciej i widzi więcej, a od zaprogramowanych mu przez człowieka algorytmów będzie zależało co w takiej sytuacji wybierze.

Czy przyświecać mu będzie minimalizacja strat - wybierze pojazd, w którym znajduje się mniej osób? Czy też dojdzie do wniosku, że autobusowi z dziećmi mniej grozi w przypadku kolizji? A jeśli stanie przed wyborem zderzenia z pojazdem przewożącym ludzi, co może skutkować ich obrażeniami lub nawet śmiercią, a zderzeniem ze ścianą, co z kolei najprawdopodobniej oznaczało będzie śmierć osób znajdujących się we wnętrzu autonomicznego pojazdu? Czy postawi on na życie własnych pasażerów kosztem życia innych uczestników ruchu? A może zdecyduje on żeby nas zabić byle tylko ocalić innych?

Według podejścia utylitarnego pojazd taki powinien zawsze dążyć do minimalizacji strat, a więc jeśli alternatywą będzie zabicie nas czy stworzenie zagrożenia dla większej ilości osób to wybierze on pierwsze rozwiązanie. Jeśli jednak podejdzie do programu deontologicznie to wybór będzie odmienny (w przypadku przedstawionego na początku problemu z wagonikiem oznacza to, że może nie uratujemy pięciu osób, ale też nie przyczynimy się aktywnie do jednego morderstwa).

A to dopiero początek problemów, bo co jeśli autobusem jadą na przykład skazani, a w drugim pojeździe znajduje się młode małżeństwo? Czyje życie jest więcej warte? Czy można lekką ręką skazać na śmierć 20 więźniów aby uratować dwójkę niewinnych ludzi?

W przypadku utylitaryzmu są dalsze dwa wyjścia - albo każdy przypadek będzie rozpatrywany indywidualnie, biorąc pod uwagę wszystkie towarzyszące okoliczności, albo też po prostu zawsze decydowała będzie liczba - komputer będzie decydował żeby zabić dwie osoby zamiast dwudziestu, niezależnie od tego kim one są.

Tak czy siak nie ma tu łatwego wyjścia, a jest to problem, którego po prostu nie da się uniknąć wprowadzając autonomiczne samochody na drogi. Będzie on także coraz powszechniejszy wraz ze zwiększającą się liczbą robotów dookoła nas.

Pewnym jednak jest, że autonomiczne samochody ograniczą liczbę wypadków i to znacznie, o całe rzędy wielkości, dlatego też pomimo wszystkich problemów etycznych nie można sie ich bać.

Źródło: , Zdj.: PD

Geekweek

Reklama

Reklama

Reklama

Reklama

Strona główna INTERIA.PL

Polecamy