Nvidia z kolejnym kamieniem milowym w rozwoju sztucznej inteligencji

Nie da się ukryć, że Nvidia ma ogromny wkład w rozwój sztucznej inteligencji, wszystko przez zaawansowane układy pozwalające w pełni wykorzystać potencjał drzemiący w AI, a dziś dowiedzieliśmy się, że właśnie osiągnęła kolejny cel.

Nvidia z kolejnym kamieniem milowym w rozwoju sztucznej inteligencji
Nvidia z kolejnym kamieniem milowym w rozwoju sztucznej inteligencjiGeekweek - import

Wygląda na to, że Nvidia chce mieć w swojej ofercie rozwiązania dla każdego rodzaju sztucznej inteligencji, niezależnie od jej skali - od maleńkich modułów dla asystentów głosowych do smartfonów, aż po ogromne centra danych. Niestety dotąd oznaczało to wiele różnych technologii, bo jak się okazuje nie było na rynku rozwiązania, które łatwo dałoby się modyfikować w zależności od potrzeb - aż do dziś, bo producent zaprezentował właśnie światu w pełni skalowalne chipy, zachowujące przy tym pełną wydajność.

O swojej technologii Nvidia wspominała już w ubiegłym miesiącu podczas VLSI Symposia w Kioto, opisując maleńki chip testowy, który może pracować samodzielnie przy mniej wymagających zadaniach lub połączony z nawet 36 podobnymi sobie w jednym module, aby sprostać zdecydowanie trudniejszym wyzwaniom, jak głębokie uczenie, w obu przypadkach działając z pełną wydajnością. A jak zmierzyć jego faktyczną wydajność? Inżynierowie najczęściej robią to sprawdzając, ile operacji są w stanie wykonać na dżul energii lub milimetr powierzchni.

W tym przypadku mówimy o nawet 4,01 tera-operacji na sekundę, czyli 1000 miliardach operacji na sekundę i 1,29 TOPS na milimetr. Względem poprzednich prototypów oznacza to 16 razy większą wydajność obszarową i 1,7 raza większą wydajność energetyczną, a po połączeniu osiągamy wynik 127,8 TOPS, czyli 32-krotny wzrost wydajności. Mówiąc krótko, podczas gdy wiele firm specjalizuje się w bardzo niszowych rozwiązaniach dla bardzo wąskiej grupy urządzeń, Nvidia udowadnia, że można posłużyć się jedną technologią, która sprawdzi się świetnie w każdym przypadku.

Jak twierdzi jeden z głównych inżynierów firmy, Bill Dally: - Multichipowa opcja modułowa ma wiele zalet i to nie tylko dla przyszłych skalowalnych akceleratorów dla głębokiego uczenia, ale i tworzenia wersji naszych produktów, które mają akceleratory dla różnych funkcji. Co więcej, Nvidia nie powiedziała jeszcze ostatniego słowa, bo jak twierdzi Dally, już ukończyli prace nad wersją, która dosłownie podwaja współczynnik TOPS/W chipu: - Wierzymy, że możemy jeszcze więcej i celujemy w ciągle skalowalne 200 TOPS/W.

Źródło: GeekWeek.pl/spectrum.ieee.org

Geekweek
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas