Dzisiejsza sztuczna inteligencja nie dorówna ludziom? "To bańka"
Dzisiejsza sztuczna inteligencja może i czasem zachwyca, ale jej twórcy mają o wiele większe ambicje. Trwa wyścig zbrojeń - kto pierwszy stworzy AGI? Silna sztuczna inteligencja traktowana jest jak Święty Graal w branży IT. Ma ona osiągnąć zdolności rozumowania wykraczające poza ludzkie, a także działać wszechstronnie. Sporo naukowców uważa jednak, że skalowanie dzisiejszej technologii nie wystarczy do osiągnięcia AGI. Jakiego przełomu potrzebujemy?

OpenAI, Microsoft, Google, Meta, DeepSeek czy Anthropic to dziś najwięksi twórcy sztucznej inteligencji - najszybciej rozwijającej się gałęzi IT. Przez kilka ostatnich lat obserwujemy niespotykany wzrost tej nowej technologii. Wkrótce jednak może zderzyć się ze ścianą. Co stoi na przeszkodzie do osiągnięcia upragnionej AGI?
Silna sztuczna inteligencja - co to jest?
Silna sztuczna inteligencja (AGI - Artificial General Intelligence) jest hipotetycznym rodzajem sztucznej inteligencji (AI - Artificial Intelligence) o autonomicznym działaniu i umiejętnościach równych lub przekraczających ludzkie. Jej zastosowanie może być ogólne, czyli wszechstronne, w odróżnieniu od dzisiejszych modeli AI o dość wąskich specjalizacjach.
AGI będzie w stanie wykonywać pracę umysłową o dużej wartości ekonomicznej, rozwiązywać problemy, z którymi nie radzą sobie ludzcy eksperci, czy też projektować nowe technologie, rozwiązania i... nowe wersje samej siebie. Na świecie prowadzonych jest kilkadziesiąt programów badawczych i rozwojowych, których celem jest osiągnięcie AGI. Jednym z nich jest Project Stargate z udziałem OpenAI, którego kwota finansowania opiewa na 500 mld dolarów.
Wielki boom na generatywną sztuczną inteligencję rozpoczął się w 2022 roku, a technologia stała się szerzej znana dzięki pojawieniu się łatwo dostępnych czatbotów, takich jak ChatGPT. Co parę tygodni lub miesięcy pojawiają się nowe modele sztucznej inteligencji o coraz większych możliwościach. Używają one coraz więcej danych, mocy obliczeniowej sprzętu i energii, a także generują więcej ciepła. Rozwój w kierunku większej optymalizacji - a nie skalowania istniejących zasobów - należy do rzadkości. Rodzi się pytanie, gdzie jest granica.
W rozwoju AI zapanowała stagnacja. Trafiła w ślepy zaułek
Dziś, gdy w rozwoju modelów AI panuje stagnacja, większość badaczy zapytanych przez Association for the Advancement of Artificial Intelligence uważa, że duże firmy technologiczne trafiły w ślepy zaułek - a pieniądze nie pozwolą im się z niego wydostać. Leją coraz więcej paliwa, a obroty wciąż te same.
Spośród 475 ankietowanych ekspertów od sztucznej inteligencji aż 76% zgadza się ze stwierdzeniem, iż jest "mało prawdopodobne" lub "bardzo mało prawdopodobne", że skalowanie dużych modeli językowych (LLMs) pozwoli osiągnąć silną sztuczną inteligencję (AGI). Innymi słowy zwiększanie zasobów przy dzisiejszej technologii na nic się nie zda. To jak dokładanie kolejnych kości RAM-u DDR, zamiast przejścia na DDR-5. Tyle że ten ostatni nadal jest gdzieś poza horyzontem.
"Myślę, że stało się to widoczne krótko po wydaniu GPT-4, odkąd korzyści ze skalowania zaczęły być przyrostowe i kosztowne. [Twórcy AI] zainwestowali za dużo i nie mogą sobie pozwolić na przyznanie, że popełnili błąd, i odpadnięcie z rynku na wiele lat, gdyby musieli spłacić inwestorów, którzy ulokowali w nich setki miliardy dolarów. Jedyne więc, co mogą robić, to podwajać wysiłki" - skomentował współtwórca raportu, Stuart Russell z University of California.
Zaczyna brakować nowatorskich czynników rozwoju AI
Spektakularny rozwój dużych modeli językowych (LLMs) w ostatnich latach mógł być spowodowany osiągnięciami na polu architektury IT, na której to oprogramowanie działa. Chodzi konkretnie o "Transformator" (lub "transformer"), rodzaj architektury deep learningowej opracowanej przez naukowców Google w 2017 r., która wzrasta i uczy się, absorbując dane treningowe z treści wprowadzanych przez ludzi.
Umożliwia to modelom AI generowanie wzorców prawdopodobieństwa z ich sieci neuronowych (algorytmów maszynowego uczenia, które mają naśladować działanie ludzkiego mózgu). Dzięki otrzymywaniu nowych danych i ciągłej nauce modele te poprawiają swoje odpowiedzi. Ich skalowanie nie wydaje się jednak dłużej opłacalne. Idą na to ogromne środki, a rozwój nie jest już tak okazały, jak kilka lat temu. W samym tylko 2024 roku przemysł generatywnej sztucznej inteligencji pochłonął 56 mld dolarów od inwestorów, co zostało wykorzystane m.in. na budowę ogromnych kompleksów centrów danych, których emisje dwutlenku węgla potroiły się od 2018 roku.
Przewiduje się też, że dane generowane przez ludzi przestaną wystarczać do dalszego ulepszania się sztucznej inteligencji i nastąpi to pod koniec tej dekady. Alternatywą będzie pozyskiwanie prywatnych danych od użytkowników albo karmienie modeli wygenerowanym przez AI "syntetycznymi" danymi, co jednak stwarza ryzyko upadku z powodu błędów, gdy AI zachłyśnie się własnymi treściami. Zamiast "ludzkiego" oblicza dzisiejszych asystentów AI może stać się ono bardzo dziwaczne.
"Sądzę, że podstawowym problemem dzisiejszych podejść jest to, że wszystkie obejmują one trenowanie dużych obwodów sprzężenia zwrotnego. Obwody te mają fundamentalne ograniczenia w sposobie reprezentowania koncepcji. Implikuje to, że te obwody muszą być ogromne, aby odzwierciedlać te pojęcia nawet w przybliżeniu" - dodaje Russell. "Dlatego na przykład ludzcy gracze mogą łatwo pokonać "nadludzkie" programy do gry w Go".
AGI jak dot-comy? To może być kolejna bańka
Gdy amerykańskie przedsiębiorstwa big tech dokupują na potęgę układy obliczeniowe Nvidia (i produkują swoje własne chipy AI) za miliardy dolarów, chińska firma DeepSeek poszła w innym kierunku. Ich wypuszczone niedawno oprogramowanie o tej samej nazwie osiągnęło, a nawet przekroczyło wydajność modeli AI z Doliny Krzemowej za ułamek ich kosztów i mocy obliczeniowej. Z tego powodu 79% ankietowanych ekspertów uważa, że postrzeganie możliwości AI nie pokrywa się z rzeczywistością.
"Jest wielu ekspertów, którzy uważają, że to bańka. Szczególnie kiedy wysoko wydajne modele są dawane za darmo" - komentuje Russell. Nie znaczy to jednak, że postęp w rozwoju AI (i dążeniu do AGI) zamarł całkowicie. Ostatnio głośno zrobiło się o wnioskujących, rozumujących modelach, takich jak GPT-4o od OpenAI. Myślą one dłużej od przeciętnych czatbotów i zamiast udzielania prostych odpowiedzi na pytania wykonują dogłębny research i analizy, co może zapewnić ich klientom wymierne korzyści. To od jakiegoś czasu obiecujący trend, ale nie oszukujmy się - to nadal nie jest AGI.
Twórcy sztucznej inteligencji nie wiedzą, co mogłoby być tym przełomowym czynnikiem, który mógłby zastąpić skalowanie obecnych zasobów. Gdyby go zidentyfikowali, z pewnością już stałby się częścią tej machiny.