Wystarczy dron z projektorem, by zmusić autonomiczną Teslę do jazdy pod prąd

Podróże pojazdami autonomicznymi są o wiele bezpieczniejsze od tych tradycyjnych. Systemy takie bazują bowiem na doświadczeniu milionów kierowców, zatem popełniają znacznie mniej błędów. Jest jednak jedno ale.

Wystarczy dron z projektorem, by zmusić autonomiczną Teslę do jazdy pod prąd
Wystarczy dron z projektorem, by zmusić autonomiczną Teslę do jazdy pod prądGeekweek - import

Niestety, nie są idealne, co w dość prosty sposób udowodnili właśnie inżynierowie ze słynnego Cyber Security Labs i Ben Gurion University. Co jakiś czas poddają oni testom m.in. pojazdy wyposażone w technologie autonomiczne. Chcą w ten sposób sprawdzić możliwości najnowszych technologii, a przy tym wykryć błędy i ułatwić koncernom samochodowym im szybką naprawę. Wszystko to w imię zapewnienia większego bezpieczeństwa podróżujących. Jeśli pojazdy autonomiczne mają być przyszłością, to musimy zwiększyć nasze wysiłki na rzecz lepszego ich dopracowania.

Inżynierowie postanowili wykorzystać drona, projektor i wskaźniki laserowe, w celu oszukania systemów wizyjnych technologii autonomicznych, zainstalowanych na pokładach Tesla Model X i Renault Captur. Bezzałogowiec rzutował obraz w wysokiej rozdzielczości na drzewa, lampy, budynki i drogę, wyświetlając na nich znaki drogowe. Tymczasem za pomocą wskaźnika laserowego wyświetlano/symulowano na drodze fałszywe oznakowanie poziome, w tym pasy ruchu.

Efekt takiego eksperymentu przeszedł najśmielsze oczekiwania ekspertów od bezpieczeństwa. Otóż, oba pojazdy w dziecinnie prosty sposób można nie tylko zmusić do zmiany pasa na przeciwny i doprowadzić do poważnego wypadku, ale również wymusić na nich zwiększenie lub zmniejszenie prędkości, a nawet wjazd na chodnik czy drogę z zakazem wjazdu.

Naukowcy testowali zarówno system Mobileye 630 Pro znany z pojazdów Renault, jak i Autopilot, który przeznaczony jest dla pojazdów Tesli. Okazuje się, że ten pierwszy jest mniej dopracowany od technologii Elona Muska. W przypadku Mobileye, można na wiele sposobów oszukać zaawansowany system wspomagania kierowcy (ADAS), zmuszając go do wyświetlania fałszywych powiadomień, które mogą wprowadzić w błąd kierowcę i doprowadzić do niebezpiecznej sytuacji na drodze.

Inżynierowie z Cyber Security Labs i Ben Gurion University w trakcie swoich eksperymentów zebrali cenne dane na temat określonych zachowań systemów autonomicznych i poważnych w nich luk, a następnie przekazali je już obu firmom, by jak najszybciej postarały się je usunąć. Takie testy pokazują dobitnie, że żaden system nigdy nie będzie doskonały i trzeba go stale poprawiać. Mimo wszystko, już teraz technologie AI w pojazdach popełniają znacznie mniej błędów od ludzkich kierowców. Dlatego warto w nie inwestować.

Źródło: GeekWeek.pl/Cyber Security Labs / Fot. Cyber Security Labs

Geekweek
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas