W ten sposób będą widzieć roboty? Stworzono pionierską metodę obrazowania

Naukowcy opracowali pionierską metodę obrazowania, która pozwoli sztucznej inteligencji na rozumienie fizycznych cech osób i otoczenia oraz pozwoli na rozróżnienie tekstury i głębi scen. Specjaliści wskazują, że AI będzie „widziała w ciemności”.

Inżynierowie stworzyli pionierską metodę obrazowania, która ma być przyszłością robotyki
Inżynierowie stworzyli pionierską metodę obrazowania, która ma być przyszłością robotykiZrzut ekranu/Pico-electrodynamics Theory Network/ Purdue HADARYouTube

Naukowcy z Purdue University stworzyli innowacyjną metodę, która zdecydowanie rozszerza percepcję i typowe widzenie maszynowe. Ma to być przyszłością robotyki i systemów autonomicznych. Specjaliści opracowali metodę HADAR (Heat-Assisted Detection and Ranging), która obecnie czeka na zatwierdzenie patentowe.

Jak stwierdził prof. Zubin Jacob z Birck Nanotechnology Center, School of Electrical and Computer Engineering, Purdue University, do 2030 roku będzie 20 mln robotów-pomocników, którzy na różne sposoby będą pomagać ludziom. Dodał także, że jeden na dziesięć pojazdów będzie w pełni zautomatyzowany.

Wskazał również, że: - Każde z tych urządzeń będzie zbierało informacje o otaczającym go obszarze za pomocą zaawansowanych czujników, aby podejmować decyzje bez interwencji człowieka. Jednak jednoczesne postrzeganie obszaru przez wiele urządzeń jest zasadniczo zaporowe.

Innowacyjna metoda obrazowania. Czym jest GADAR?

Według naukowców metoda HADAR łączy obrazowanie w podczerwieni, fizykę termiczną i uczenie maszynowe w celu stworzenia w pełni pasywnej i "świadomej percepcji maszynowej".

Jacob stwierdził: - Nasza praca buduje informacyjne podstawy teorii percepcji termicznej, aby pokazać, że ciemność niesie taką samą ilość informacji jak światło dzienne. Ewolucja sprawiła, że istoty ludzkie są nastawione na dzień. Maszynowe postrzeganie w przyszłości przezwycięży tę długotrwałą dychotomię między dniem a nocą.

Z kolei dr Fanglin Bao z Birck Nanotechnology Center, School of Electrical and Computer Engineering, Purdue University powiedział: - HADAR na żywo odzyskuje teksturę z zaburzonego sygnału ciepła i dokładnie rozplątuje temperaturę, emisyjność i teksturę lub TeX wszystkich obiektów w scenie. Widzi teksturę i głębię w ciemności, jakby to był dzień, a także postrzega fizyczne atrybuty poza RGB, widzialnym obrazowaniem lub konwencjonalnym wykrywaniem termicznym. Zaskakujące jest to, że dzięki temu można widzieć w ciemności jak w biały dzień.

Naukowcy podkreślają, że nowa metoda jest w stanie zrekonstruować teksturę zmarszczek na wodzie, czy korze, a także potrafi stworzyć niezwykle szczegółowy obraz trawiastego terenu. Stworzenie jednej sceny zajmuje jedną sekundę.

Specjaliści zauważają, że obecny czujnik obsługujący algorytmy HADAR jest duży i ciężki - spowodowane jest to złożonością urządzenia. Jednocześnie stwierdzają, że konieczne jest zmniejszenie wagi i rozmiarów czujnika, tak aby można było zamontować go w robotach, czy w samochodach.

Naukowcy są zgodni, że konieczne jest dalsze rozwijanie tego projektu, by stworzyć urządzenia, które będą wchodzić w interakcje z ludźmi w złożonych środowiskach. Uważają, że w przyszłości technologia ta może być wykorzystana w naukach o Ziemi, rolnictwie, wojskowości, opiece zdrowotnej oraz przy monitorowaniu dzikiej przyrody. Wyniki badań zostały opublikowane w czasopiśmie naukowym Nature.

INTERIA.PL
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas