Czy autonomiczny samochód będzie mógł popełnić morderstwo?

Znajdujesz się w autonomicznym samochodzie. Nagle na jego drodze pojawia się grupa ludzi. Sytuacja jest bez wyjścia, ponieważ ocalenie ich życia oznacza poświęcenie twojego – np. uderzenie w betonową ścianę. Co zrobi komputer sterujący maszyną? Czyje życie ocali? Ta luźna interpretacja dylematu wagonika ma ogromne znaczenie dla przyszłości motoryzacji.

Jeden z autonomicznych samochodów Google
Jeden z autonomicznych samochodów GoogleAFP

Autonomiczne samochody Google przejechały ponad 1,7 mln km bez żadnej poważniej kolizji. Niezależnie nad podobną technologią pracuje Tesla, której modele mają zyskać pewną autonomię jeszcze w tym roku. Są również Audi i Volvo, przy czym to ostatnie obiecuje, że sterowane przez komputer samochody wyjadą na szwedzkie drogi w 2017 roku.

Będą one kontrolowane przez komputery, które zadbają o możliwie najwyższe bezpieczeństwo na drodze. Nie będą przekraczały prędkości i łamały zasad ruchu drogowego. Maszyna zawsze będzie trzeźwa i wolna od wpływu substancji odurzających. Nie zagapi się, nie zamyśli, nie zaśnie, nie popełni samobójstwa. Wszystkiego dopełnią liczne systemy chroniące pieszych i rowerzystów. Zostaniemy zamknięci w maszynie, która sama nie będzie miała prawa stworzyć zagrożenia. To będzie mogło nas spotkać wyłącznie ze strony innych, na co oczywiście nie można mieć wpływu.

Nie ma jednak dwóch identycznych sytuacji. Nie wszystko można przewidzieć. Co się stanie w momencie, kiedy katastrofa będzie nieunikniona, a wszystkie wyjścia - jeśli takowe będą - oznaczają śmierć pasażera, pieszego lub innego uczestnika ruchu?

Taką sytuację opisuje przywołany wyżej dylemat wagonika - czy w razie niebezpieczeństwa zdecydujesz się uratować 5 osób czy jedną. A może uratujesz te 5 osób poświęcając jednocześnie życie kogoś niewinnego? Co zrobić w takiej sytuacji? Co w takiej sytuacji zrobi samochód - czy poświęci życie pieszych czy swojego właściciela?

Autonomiczny samochód Google
Autonomiczny samochód GoogleAFP

W tym miejscu można przywołać dwa sposoby rozumienia moralności. Utylitaryzm mówi, że najważniejsze jest dobro jak największej liczby osób. W naszym przypadku oznacza, że samochód poświęci nasze życie dla dobra większej grupy ludzi. Deontologia twierdzi natomiast, że niektóre wartości są absolutnie najważniejsze, co oznacza np., że morderstwo jest złe i nic go nie usprawiedliwia. W tym kontekście komputer nie wyda wyroku śmierci na kierowcę, niezależnie od tego, ile osób mógłby uratować.

Sytuacji może być wiele i każdą należałoby rozpatrywać indywidualnie. Wiadomo jednak, że komputer nie będzie zaprogramowany w ten sposób.

Autonomicznym samochodom mogliśmy przyjrzeć się z bliska na targach CES 2015. Przeczytacie o tym tutaj.

INTERIA.PL
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas