Kolejny przełom w pracach nad AI
Należącej do Google (Alphabet) firmie DeepMind, słynnej głównie dzięki AI, któremu udało się pobić człowieka w grę go, udało się właśnie dokonać kolejnego przełomu na polu sztucznej inteligencji. Teraz system uczenia maszynowego nie tylko potrafi uczyć się samodzielnie grać w gry (i osiągać w nich lepsze wyniki niż ludzie), ale dodatkowo zapamiętuje jak to zrobił.
Należącej do Google (Alphabet) firmie DeepMind, słynnej głównie dzięki AI, któremu udało się pobić człowieka w grę go, udało się właśnie dokonać kolejnego przełomu na polu sztucznej inteligencji. Teraz system uczenia maszynowego nie tylko potrafi uczyć się samodzielnie grać w gry (i osiągać w nich lepsze wyniki niż ludzie), ale dodatkowo zapamiętuje jak to zrobił.
Do tej pory dla każdej z gier DeepMind musiało tworzyć osobną sieć neuronową, nowy algorytm jednak jest w stanie przenieść informacje zdobyte w jednej grze do pokonania innej. A umiejętność przeniesienia doświadczeń z jednego zadania do drugiego jest podstawową cechą inteligencji naturalnej, a zatem jej posiadanie jest warunkiem koniecznym dla stworzenia AI dorównującego człowiekowi.
Zdj.: DeepMind/PNAS
Aby to było możliwe powstał algorytm nazwany elastyczną konsolidacją wagi (w luźnym tłumaczeniu, oryg. elastic weight consolidation, EWC), który decyduje o tym, jakie kluczowe fragmenty pamięci dotyczące jednej gry, należy zachować i przenieść do prac nad kolejną.
EWC połączono z siecią neuronową Deep Q-Network, która dzięki temu była w stanie nauczyć się grać w kilka różnych gier Atari po sobie - wcześniej było to niemożliwe, dla każdej z gry trzeba było użyć osobnego DQN.
Uniwersalny system nie uzyskuje przy tym tak wysokiej skuteczności jak dedykowany do każdej gry, ale jest to kwestia lepszej jego optymalizacji. To pierwszy krok, drugim jest przeniesienie tej umiejętności maszyn do innych dziedzin, a wtedy będziemy mogli mówić o AI, które potrafi się samodzielnie uczyć wszystkiego.
Źródło: , Zdj.: CC0