Sztuczna inteligencja Nvidii stworzyła pierwszą w historii grę z grafiką z realnego świata

Uczestnicy tegorocznej konferencji NeurIPS 2018, poświęconej sztucznej inteligencji, mieli okazję na własnej skórze przekonać się o potencjale i możliwościach najnowszego dziecka Zielonych.

Nvidia zaprezentowała bowiem sztuczną inteligencję, która jest w stanie zmienić wideo dokumentujące prawdziwe krajobrazy w wirtualne otoczenie, a wszystko za sprawą nowych technologii maszynowego uczenia oraz superkomputera - osoby odwiedzające wspomniane wydarzenie mogły nawet pojeździć przez chwilę w tym interaktywnym świecie, jak w typowej grze wideo.

Nowe AI firmy potrafi wyodrębnić z udostępnionych materiałów obiekty i scenerię, żeby zbudować z nich wirtualne środowisko. I nie chodzi tu tylko o popis możliwości koncernu, ale znaczące ułatwienie pracy artystom i deweloperom, którzy często kreują swoje światy kompletnie od podstaw. Zamiast więc projektować i wypełniać środowisko kamyk po kamyku czy drzewko po drzewku, mogliby udostępnić sztucznej inteligencji nagranie z prawdziwymi i pozwolić jej zrobić swoje.

Reklama

Jak twierdzi Bryan Catanzano, wiceprezydent Nvidii ds. Maszynowego uczenia: - Sieci neuronowe, szczególnie te generujące, zmienią sposób, w jaki tworzymy grafikę. Umożliwią one deweloperom, gamingowym oraz z branży automotive, tworzyć sceny za ułamek tradycyjnej ceny.

Catanzano wyjaśnił dziennikarzom, że naukowcy wytrenowali sztuczną inteligencję z pomocą nagrań wykonanych przez autonomiczne samochody na jazdach próbnych. W międzyczasie zespół, wykorzystując silnik Unreal Engine 4, stworzył tzw. semantyczną mapę sceny, czyli w praktyce przypisał etykietę do każdego piksela na ekranie. Część trafiła do grupy „samochód”, inne do „drzewa”, jeszcze inne do „budynki” i tak dalej. Następnie te kępki pikseli dostały krawędzie, więc silnik mógł stworzyć szkic całej sceny.

I tu do akcji wkracza nowe AI, które podmienia grupy pikseli na obrazy wyodrębnione z nagrań i choć całość może wydawać się żmudna, to tak naprawdę dzieje się szybciej niż można się spodziewać - zdaniem Catanzano symulacja samochodowa z pokazu działała w 25 klatkach na sekundę, a sztuczna inteligencja była w stanie renderować to w czasie rzeczywistym.

Zespół Nvidii w ten sam sposób stworzył zabawny filmik, na którym jeden z jego członków wygląda jakby tańczył charakterystyczny układ Gangnam Style - tym razem sztuczna inteligencja została poproszona o wyodrębnienie konkretnych ruchów, stworzenie z nich prymitywnych ludzików, a następnie renderowanie na nich wizerunku innej osoby.

Mówiąc krótko, efekty mówią same za siebie i chociaż graficznie nie jest to jeszcze poziom typowych scen z największych gier AAA, to w przyszłości może być znacznie lepiej. Co więcej, Nvidia udostępniła swoje rozwiązanie jako open-source, ale nie ukrywa, że minie pewnie jeszcze trochę czasu zanim deweloperzy po nie sięgną, bo ma jeszcze swoje problemy - na przykład z renderowaniem skręcających samochodów, bo ich mapie brakuje wtedy wielu ważnych informacji. Tak czy inaczej, z zainteresowaniem będziemy obserwować rozwój nowej technologii i czekać na kolejne pokazy możliwości.

Źródło: GeekWeek.pl/engadget

Geekweek
Reklama
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy