AI zderzy się ze ścianą. Udowodnili, że nie może rosnąć w nieskończoność
Żyjemy w czasach niepewności. Sztuczna inteligencja, w tym jej agentowa odmiana, z jednej strony obiecuje rozwiązać najtrudniejsze światowe problemy i przemodelować nasze życie, a z drugiej strony coraz więcej wskazuje na to, że zbliża się ona do ściany i dalej już nie zabrnie. Ku tej sceptycznej wizji skłaniają się autorzy badania ze Stanford University i VianAI Systems, którzy przedstawili matematyczne dowody na to, że agenty AI są skazane na zderzenie z murem. Powyżej pewnego poziomu trudności zadania nieuchronnie zawodzą lub popełniają błędy.

Spis treści:
- Sztuczna inteligencja zderzy się ze ścianą? Udowodnili to matematycznie
- AI nie potrafi działać powyżej pewnego poziomu złożoności
Sztuczna inteligencja zderzy się ze ścianą? Udowodnili to matematycznie
Obecnie jednym z głównych kierunków rozwoju technologii jest agentowa sztuczna inteligencja. Agenty to programy oparte na AI, które wykonują zadania w imieniu użytkownika, zachowując pewną dozę autonomii. Zarówno oferują je giganci big tech, tacy jak OpenAI czy Microsoft, jak i praktycznie każdy może stworzyć sobie własne w oparciu o duże modele językowe.
Eksperci różnią się w swoich przewidywaniach. Często jednak można spotkać się z opinią, że silna (ogólna) sztuczna inteligencja, czyli taka, która potrafi wykonywać zadania na poziomie ludzkim lub wyższym, nadejdzie w ciągu najbliższej dekady (a według Elona Muska nawet w 2026 roku). Jakiś czas po niej nadejść ma superinteligencja, przewyższająca już wszystkich ludzi. Oczywiście niektórzy mogą roztaczać taką wizję, by zachęcać inwestorów do dalszego pompowania bańki, jednak takiego zdania jest też choćby były naukowiec z OpenAI, który prawdopodobnie nie ma w tym interesu. Przeciwnie, ostrzega on ludzi przed konsekwencjami rozwoju AI.
Z drugiej strony można też spotkać się z opiniami naukowców, według których AI nie dojdzie do poziomu, jaki wieszczy mu OpenAI i w osiągnięcie którego ładują miliardy dolarów światowe rządy - na czele z USA finansującym Project Stargate, w którym powstać ma AGI. W ubiegłym roku przytaczaliśmy opinie ekspertów, według których dzisiejsza sztuczna inteligencja nie ma szans dorównać ludziom i stanowi bańkę - podobną do tej internetowej sprzed ćwierć wieku.
Nowe badanie dokłada nową perspektywę - tym razem matematyczną. Varin Sikka ze Stanford University oraz Vishal Sikka z VianAI Systems przedstawili matematyczne dowody na to, że "LLM-y nie są w stanie wykonywać zadań obliczeniowych i agentowych powyżej pewnego poziomu złożoności".
AI nie potrafi działać powyżej pewnego poziomu złożoności
Autorzy nowego badania, którzy prywatnie są ojcem i synem, doszli do prostego wniosku przy pomocy skomplikowanych obliczeń. W najprostszym ujęciu - dowodzą oni, że niektóre zadania lub polecenia wydane modelowi LLM wymagać będą bardziej skomplikowanych obliczeń, niż model jest w stanie przetworzyć. W rezultacie agent AI przerwie wykonywanie zadania lub zakończy je, ale w sposób błędny.
"W tym artykule eksplorujemy halucynacje i powiązane z nimi ograniczenia możliwości LLM-ów oraz opartych na LLM-ach agentach z perspektywy złożoności obliczeniowej. Pokazujemy, że ponad pewnym stopniem złożoności LLM-y nie są w stanie przeprowadzić zadań obliczeniowych i agentowych ani zweryfikować ich poprawności" - wyjaśniają autorzy badania.
Wnioski badaczy stanowią kontrę dla popularnego przekonania, że karmienie modeli coraz większą ilością danych i dokładanie kolejnych podzespołów obliczeniowych doprowadzi do powstania ogólnej sztucznej inteligencji (AGI) przewyższającej ludzką. Taki nieskończony wzrost może być niemożliwy. Wygląda na to, że po osiągnięciu pewnego progu trudności zadania model nieuchronnie zawodzi lub popełnia błędy. Podważa to również wizję pełnej autonomii AI. Nie wiadomo, czy twórcom sztucznej inteligencji uda się przeskoczyć tę ścianę czy też szklany sufit. Możliwe, że wymagałoby to zupełnie odmiennego podejścia, o którym jeszcze nie wiemy.
Ta nowa analiza sugeruje także, że optymizm wielkich korporacji technologicznych co do nieograniczonego rozwoju sztucznej inteligencji może być mocno przesadzony. Z jednej strony zdają się one naprawdę wierzyć w możliwość tego wzrostu. Z drugiej - eksperci zdają sobie sprawę, że LLM-y jedynie symulują procesy myślowe. Udowodniła to m.in. badaczy z Apple oraz potwierdziły opinie ekspertów (m.in. Benjamina Riley'a). W rzeczywistości modele AI nie potrafią w pełni logicznie rozumować ani tworzyć autentycznie nowatorskich treści. Pewne skomplikowane zadania mogą je też przerastać.
Źródło: Varin Sikka, Vishal Sikka, Hallucination Stations: On Some Basic Limitations of Transformer-Based Language Models, arXiv:2507.07505.










