Meta i OpenAI budują własne chipy AI. Te od Nvidii nie wystarczą

W ostatnich latach Nvidia stała się potentatem w branży sprzętu IT dzięki temu, że jej układy graficzne na potęgę instalują w centrach danych najwięksi giganci AI, tacy jak OpenAI, Microsoft, Google, xAI czy Meta. Dobra passa może jednak nie potrwać długo. Chipy AI są bardzo drogie, a ich nabywcy powoli tracą cierpliwość. Według ostatnich doniesień kolejny gigant technologii chce uniezależnić się od Nvidii i stworzyć własne układy.

Własne chipy AI zapewnią firmom i użytkownikom większą niezależność
Własne chipy AI zapewnią firmom i użytkownikom większą niezależność123RF/PICSEL

Rozwijanie sztucznej inteligencji wymaga potężnych mocy obliczeniowych na etapach trenowania modeli AI, a później ich uruchamiania. Centra danych, w których się to dzieje, instalują dziesiątki tysięcy chipów AI, z których jeden kosztuje nawet kilkadziesiąt tysięcy dolarów. Wiele firm szuka już oszczędności i pracuje nad własnymi rozwiązaniami, które planuje wdrożyć w ciągu następnych lat. Według najnowszych doniesień do tego trendu dołączyła Meta.

Meta zawdzięcza swój sukces Nvidii

Swój niewyobrażalny wzrost jako producent AI w ciągu ostatniego roku Meta zawdzięcza w dużej mierze układom Nvidii. To praktycznie najbardziej optymalne źródło mocy obliczeniowej dla skali, w jakiej działa trenowanie sztucznej inteligencji. Teraz, jak donosi Reuters, firma Marka Zuckerberga chce zyskać większą niezależność. Według dwóch anonimowych źródeł Meta opracowała już swój własny chip AI i poddaje go testom w celu zaoszczędzenia na kosztach.

"Największa na świecie firma social media zaczęła wdrażanie na niewielką skalę tego chipa i planuje zwiększyć produkcję, aby umożliwić jego szersze wykorzystanie, jeśli testy zakończą się pomyślnie" - donosi Reuters. Według źródeł firma współpracuje z tajwańskim producentem chipów Taiwan Semiconductor Manufacturing Company Limited (TSMC).

Testowe wdrożenie miało się rozpocząć, gdy Meta zakończyła pierwsze testy układu scalonego. Ma to dowodzić, że testy zakończyły się pomyślnie i firma wysłała wstępny projekt do fabryki chipów, co jest typową praktyką. Zwykle proces opracowywania nowego układu ("tape-out") pochłania dziesiątki milionów dolarów i zajmuje 3-6 miesięcy - bez gwarancji sukcesu. Jeśli chip nie spełni oczekiwań, proces trzeba powtórzyć.

Meta i TSMC odmawiają komentarza w tej sprawie, jednak firma Zuckerberga już wcześniej zapowiadała, że planuje w 2026 roku zacząć używa własnych chipów do trenowania systemów AI, czyli mówiąc prostym językiem - karmienia sztucznej inteligencji danymi i uczenia jej, jak ma działać. Meta zamierza używać tych układów do uruchamiania własnych aplikacji opartych na generatywnej sztucznej inteligencji, takich jak np. czatbot Meta AI.

Facebook (jeszcze zanim stał się Metą) prowadził już testowe wdrożenie niestandardowego układu wnioskowania AI na małą skalę. Nie powiodły się one jednak i firma wycofała się z projektu, by następnie zamówić układy GPU od Nvidii za miliardy dolarów w 2022 r. Od tego czasu Meta jest jednym z największych klientów Nvidii.

Microsoft i OpenAI też budują własne chipy AI

Inni czołowi producenci sztucznej inteligencji również pragną się uniezależnić. Według doniesień sprzed 2 lat Microsoft rozwija własny układ AI pod nazwą Athena już od 2019 roku. Firma ma nadzieję, że będzie on bardziej wydajny niż te, które obecnie zamawia od zewnętrznych producentów. Oficjalne ogłoszenie miało już miejsce rok temu. Intel ogłosił wówczas przemianowanie swojego działu produkcji chipów na Intel Foundry. Jego pierwszym klientem został Microsoft, który buduje własne chipy AI oparte na procesie Intel 18A.

Co ciekawe, te układy nie muszą trafić tylko na serwery. Microsoft promuje bowiem ideę uruchamiania sztucznej inteligencji lokalnie - bezpośrednio na komputerach czy nawet smartfonach. Te implementacje nie mają takiej mocy jak duże modele językowe typu GPT, ale mogą działać offline bez przetwarzania w chmurze. Przykładem jest kategoria urządzeń Copilot+ PC z wbudowanym układem NPU, służącym za akcelerator AI.

Przed miesiącem swoje plany w tym kierunku ujawniło też OpenAI. Firma ogłosiła, że planuje rozpocząć masową produkcję chipów AI w 2026 roku. Twórcy ChatGPT i technologii AI wykorzystywanej w produktach Microsoftu opracowują już pierwszą generację własnych układów obliczeniowych. W ciągu następnych miesięcy OpenAI zamierza przesłać projekt do TSMC - tego samego producenta z Tajwanu, z którym współpracuje Meta.

Szacuje się, że układy Nvidia mają ok. 80% udziału w rynku. Choć to prawdopodobnie najlepsze środowisko do pracy AI, to zdaniem niektórych ekspertów może ono przestać wystarczać. Nie chodzi jedynie o koszty. Przyszła wartość tych GPU jest podawana w wątpliwość przez badaczy AI, którzy zastanawiają się, jak wiele postępów można jeszcze zrobić, kontynuując "skalowanie" dużych modeli językowych poprzez dodawanie większych ilości danych i mocy obliczeniowej. Spodziewamy się, że układów nowej generacji OpenAI użyje w ramach Project Stargate.

Jak ugotować idealne jajko? Naukowcy opracowali przepis© 2025 Associated Press