Nowe AI Google uczy się jak zwierzęta

Firma DeepMind, która niedawno została przejęta przez Google, od paru lat pracuje nad bardzo interesującą sztuczną inteligencją. Uczy się ona bowiem grając w stare gry wideo, bez żadnego dodatkowego wsparcia ze strony inżynierów, którzy jedynie stosują triki używane przy tresurze zwierząt.

Firma DeepMind, która niedawno została przejęta przez Google, od paru lat pracuje nad bardzo interesującą sztuczną inteligencją. Uczy się ona bowiem grając w stare gry wideo, bez żadnego dodatkowego wsparcia ze strony inżynierów, którzy jedynie stosują triki używane przy tresurze zwierząt.

Firma DeepMind, która niedawno została przejęta przez Google, od paru lat pracuje nad bardzo interesującą sztuczną inteligencją. Uczy się ona bowiem grając w stare gry wideo, bez żadnego dodatkowego wsparcia ze strony inżynierów, którzy jedynie stosują triki używane przy tresurze zwierząt.

DeepMind zostało założone przez Demisa Hassabisa - młodego brytyjskiego geniusza o cypryjskim pochodzeniu, który w wieku 13 lat osiągnął poziom mistrzowski w szachach (2300 punktów w rankingu Elo), a następnie zajął się programowaniem - brał udział między innymi w tworzeniu kultowego Theme Park, a także projektował poziomy do Syndicate.

Reklama

Później opuścił on jednak tworzenie gier aby zająć się neurologią i tam szukał inspiracji do tworzenia AI. Jest on autorem kilku naukowych prac z tej dziedziny, a jego najczęściej cytowaną pracą jest ta, w której dowiódł on, że pacjenci z uszkodzonym hipokampem nie są w stanie wyobrażać sobie siebie w nowych sytuacjach.

Wszystkie swoje doświadczenia wykorzystał on w tworzeniu DeepMind Technologies - firma wystartowała w 2011 roku, a w zeszłym roku Google nabyło ją za 400 milionów funtów. Czy tak wysoka cena była uzasadniona? Hassabis w tworzeniu AI DeepMind wykorzystał całą swoją wiedzę z dziedziny programowania i neurologii, a efekt jest dość oryginalny.

DeepMind uczy się bowiem grając w gry retro z konsoli Atari 2600. Ma ono do dyspozycji kilkadziesiąt tytułów, a jego ojcowie w żaden sposób nie wyjaśnili mu ich zasad - komputer musi się nauczyć ich sam. Jednak dostaje on od nich wsparcie w podobny sposób w jaki nagradzane są psy podczas tresury - dobre osiągnięcia są nagradzane.

Metoda ta okazała się dość trafiona - DeepMind szybko nauczyło się grać w gry, w tych prostszych osiągając poziom mistrzowski. Rozgryzienie tych bardziej skomplikowanych, wymagających bardziej abstrakcyjnego myślenia i strategii ma być tylko kwestią czasu.

Potem jego twórcy będą chcieli aby AI nauczyło się grać w StarCrafta.

Na razie jest to zatem dość wydajny system uczenia maszynowego, ale może się on bardzo przydać w przyszłości w tworzeniu AI z prawdziwego zdarzenia.

Źródło:

Geekweek
Reklama
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy