Sztuczna inteligencja nauczyła się wybierać, kogo zabić, a kogo pozostawić przy życiu

Cztery lata temu naukowcy z MIT rozpoczęli bardzo kontrowersyjny eksperyment, w którym ludzie mieli pomóc AI w podejmowaniu decyzji na wagę życia lub śmierci, a teraz poznaliśmy jego rezultaty.

Sztuczna inteligencja nauczyła się wybierać, kogo zabić, a kogo pozostawić przy życiu
Sztuczna inteligencja nauczyła się wybierać, kogo zabić, a kogo pozostawić przy życiuGeekweek

A wszystko po to, by jak najlepiej przygotować się na autonomiczne auta poruszające się po naszych drogach, bo choć te wciąż są jeszcze w powijakach, to w końcu staną się zapewne przyszłością komunikacji. I nawet jeśli teraz regularnie słyszymy o wypadkach z ich udziałem, to specjaliści przekonują, że docelowo będzie to najbezpieczniejsza forma transportu - przez jakiś czas na drogach będą jednak oba typy aut, samojeżdżące i z ludzkimi kierowcami, więc do incydentów będzie dochodziło, a to sprawia pewne problemy natury… etycznej.

Czasami trzeba będzie bowiem zdecydować, czy chronić swoich pasażerów, czy może pieszego, który właśnie wbiegł nam na drogę? A może do podjęcia będzie decyzja o ocaleniu kogoś młodego lub staruszka? Oczywiście decyzje te są bardzo trudne, ale sztuczna inteligencja w końcu będzie musiała je podejmować - czy będą one zgodne z tym, co sami byśmy wybrali?

Badacze postanowili to sprawdzić w przytoczonym wcześniej eksperymencie o globalnym zasięgu, w którym wzięło udział ponad 2 miliony osób z ponad 200 różnych krajów. Posłużyli się w tym celu tzw. dylematem wagonika, który w swojej podstawowej wersji wygląda następująco: - Wagonik kolejki wyrwał się spod kontroli i pędzi w dół po torach. Na jego drodze znajduje się pięciu ludzi przywiązanych do torów przez szalonego filozofa. Ale możesz przestawić zwrotnicę i w ten sposób skierować wagonik na drugi tor, do którego przywiązany jest jeden człowiek. Co powinieneś zrobić?

Naukowcy z MIT postanowili go jednak nieco zmodyfikować, m.in. zabierając osobom na torach anonimowość i wymieniając je na ludzi sukcesu, nastolatków, osoby starsze oraz zmieniając scenariusz tak, by „wagonik” miał pasażerów, o których życiu też trzeba decydować - chronimy ich, a może pieszych na drodze? W ten sposób uzyskali sytuacje drogowe, które faktycznie mogą się zdarzyć.

Odpowiedzi ankietowych prezentują się zaś następująco - wolimy ratować ludzi niż zwierzęta, staramy się ratować jak największą ilość osób, mając możliwość wyboru ratujemy ludzi młodych, chętniej kobiety niż mężczyzn, pieszych niż pasażerów i bogatych niż biednych. Co ciekawe, na nasze wyboru nie ma wpływu wiek, wyznanie czy płeć, więc można założyć, że są to normy typowe dla ogółu.

Mówiąc krótko, eksperyment miał charakter czysto naukowy, ale MIT ma nadzieję zainicjować za jego sprawą powszechną dyskusję na temat dylematów moralnych, które pojawią się na drodze wraz z upowszechnianiem się autonomicznych pojazdów. Jak twierdzą: - Nigdy w historii ludzkości nie pozwoliliśmy, aby maszyna w sposób autonomiczny decydowała, kto powinien żyć, a kto powinien umrzeć, w ułamku sekundy, bez nadzoru w czasie rzeczywistym. Zanim pozwolimy naszym samochodom podejmować etyczne decyzje, musimy przeprowadzić globalną dyskusję, aby pokazać nasze preferencje firmom, które opracują algorytmy oraz decydentom, którzy będą je regulować prawnie.

Źródło: GeekWeek.pl/chip

Geekweek
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas