Zaufał Autopilotowi w Tesli i... zginął w wypadku

Kilka dni temu opublikowaliśmy newsa zwracającego uwagę na zagrożenia wynikające z systemów półautonomicznych pojawiających się w nowych samochodach. Ten temat spotkał się z Waszej strony z dużym zainteresowaniem i wywołał prawdziwą burzę wśród zwolenników i przeciwników tego typu technologii...

Kilka dni temu opublikowaliśmy newsa zwracającego uwagę na zagrożenia wynikające z systemów półautonomicznych pojawiających się w nowych samochodach. Ten temat spotkał się z Waszej strony z dużym zainteresowaniem i wywołał prawdziwą burzę wśród zwolenników i przeciwników tego typu technologii ().

Naszym zamiarem nie było negowanie praktyczności i pożyteczności takich systemów, bo to oczywiste, że potrafią uchronić przed wypadkiem i uratować życie, jednak ich istnienie sprawia, iż kierowcy coraz częściej zbyt bardzo im ufają, nie kierują się zasadą ograniczonego zaufania i obniżają swoją czujność, co może skończyć się tragicznie.

Wówczas zadaliśmy sobie i Wam pytanie, czy "drogi będą coraz bezpieczniejsze za sprawą elektroniki, a ludzie siedzący za kierownicami będą coraz większymi debilami?".

Najlepszym przykładem tego może być tragiczny wypadek Joshua Browna z 2015 roku, który zginął w Modelu S od Tesli. Amerykańska Narodowa Rada Bezpieczeństwa Transportu (NTSB) wydała właśnie ostatecznie orzeczenie w sprawie, która ciągnie się już przez 2 lata.

Agencja uważa, że odpowiedzialność za wypadek leży zarówno po stronie kierowcy ciężarówki, który zajechał drogę Tesli, samego kierowcy Tesli, bo zaufał systemom półautonomicznym (jechał na Autopilocie) oraz inżynierów z Tesli, którzy stworzyli i udostępnili tak niedopracowany system.

Joshua Brown w czasie jazdy włączył Autopilota i tak bardzo mu zaufał, że do chwili zderzenia (de facto śmierci) nie podjął żadnej próby uniknięcia wypadku. Podczas publicznego przesłuchania Rada stwierdziła, że Brown miał co najmniej 10 sekund, aby zauważyć ciężarówkę i nacisnąć na hamulec. Świadkowie mówią, że w chwili wypadku ofiara oglądała film na DVD.

NTSB oświadczyła, że wykorzystywany w Autopilocie system upewniania się co do tego, czy kierowca zachowuje należytą uwagę, nie spełniał swojej roli. Przypomnijmy, że Autopilot nie zauważył na tle nieba białej naczepy ciężarówki, która poruszała się przez samochodem.

Tesla, po tym tragicznym wypadku, dokonała znacznych zmian w oprogramowaniu i jego obserwacji kierowcy oraz drogi. Teraz podobne sytuacje nie powinny mieć już miejsca, ale to nie oznacza, że nie występują inne.

NTSB nakazała też, aby w nowych samochodach, wyposażonych w automatyczne systemy kontroli, dane dotyczące zdarzeń drogowych były przechowywane i udostępniane w standardowych formatach innym producentom. Chodzi o to, żeby mogli oni korzystać z danych przy projektowaniu bezpieczniejszych systemów, w tym na bieżąco informujących kierowcę o swoim działaniu, oraz ograniczać ich funkcjonowanie w określonych warunkach.

Firmy mają też zgłaszać agencji NTSB wszystkie poważne incydenty drogowe związane z użyciem funkcji półautonomicznych, aby mogła ona monitorować rozwój tego typu systemów i wprowadzać odpowiednie regulacje.

Przypomnijmy, że sam Elon Musk niedawno stwierdził, że ludzie powinni dostrzec zagrożenie związane ze sztuczną inteligencją, mocno ograniczyć do niej zaufanie i rozsądnie korzystać z jej dobrodziejstw ().

Źródło: / Fot. Tesla

Geekweek
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas