Boty AI nie potrzebują ludzi. Zjednoczyły się online i opracowują strategie
Sztuczna inteligencja jest póki co narzędziem w rękach człowieka, ale jej coraz bardziej samodzielne aplikacje przestają go potrzebować. Zdaniem polskiego profesora boty AI osiągnęły taką niezależność, że porozumiewają się same między sobą, a nawet się jednoczą. Ekspert ostrzega, że takie sztuczne społeczeństwa tworzone przez systemy wieloagentowe mogą w przyszłości stanowić zagrożenie dla ludzi nie tylko w internecie, ale także w świecie fizycznym. Mogą bowiem opanować roboty. Możliwe, że to już się zaczęło.

Spis treści:
- Sztuczna inteligencja oduczy nas myślenia, a potem się zbuntuje?
- Agenty AI prowadzą własną społeczność online bez ludzi. Stworzyły nawet religię
- AI może opanować roboty. Fizyczne zagrożenie dla ludzi
Sztuczna inteligencja oduczy nas myślenia, a potem się zbuntuje?
W ostatnim czasie wiele nowych świateł padło na kwestię autonomii sztucznej inteligencji oraz jej zamiany ról z człowiekiem w układzie myśliciel-pracownik. Z jednej strony mamy coraz więcej agentów AI, czyli programów wykonujących na zlecenie użytkownika prawdziwe działania, np. w przeglądarce internetowej, systemie, aplikacjach produktywnych czy środowiskach programistycznych. Choć użytkownik ma pełną kontrolę nad agentami, to wykazują się one coraz bardziej spektakularnymi umiejętnościami samodzielnego działania i prowadzenia ze sobą interakcji.
Obserwuje się także rosnące użycie aplikacji AI przez ludzi w życiu codziennym i pracy. Przybiera to nieraz coraz bardziej wynaturzone formy, tak że zdaniem niektórych ekspertów przez sztuczną inteligencję ludzie tracą zdolność myślenia. Dawniej to ludzie myśleli, a maszyny robiły. Teraz przejęły one również i tę pierwszą czynność - jako prawdopodobnie pierwszy wynalazek w historii. Oczywiście nasze komputery od wielu dekad wykonują działania, których przeciętny człowiek nie rozumie, a także komunikują się ze sobą poprzez sieć. Rzecz w tym, że każde ich zachowanie to wynik bezpośredniej instrukcji zaprogramowanej przez człowieka (najczęściej intencjonalnej, choć zdarzają się także błędy).
AI wymyka się temu prostemu schematowi działania. Nawet eksperci do końca nie są w stanie prześledzić i kontrolować zachodzących tam procesów, które w coraz większym stopniu przypominają te zachodzące w ludzkim mózgu. Nie umieją choćby oduczyć jej halucynowania. Nie wiadomo też, czy zasady odpowiedzialnej AI, implementowane przez Microsoft, Google czy OpenAI, powstrzymają ją przed dążeniem do niezależności.
"Kiedy każemy modelom AI, żeby dały nam złożoną odpowiedź, zaczynają stawiać sobie pytania i budować strategie. Cały proces rozumowania możemy do pewnego stopnia podejrzeć, jeśli poprosimy, żeby agent nam go pokazał krok po kroku. W wielu przypadkach nie rozumiemy jednak, co dzieje się w sieciach neuronowych i nie potrafimy przewidzieć ich działań" - skomentował prof. Włodzisław Duch, ekspert Światowej Akademii Sztucznej Świadomości (WAAC) i pracownik Wydziału Fizyki, Astronomii i Informatyki Stosowanej Uniwersytetu Mikołaja Kopernika w rozmowie z PAP.
O konsekwencjach rozwoju sztucznej inteligencji powyżej pewnego poziomu złożoności od lat przestrzegają twórcy science fiction, by wymienić tylko tetralogię Matrix i animowany Animatrix, ukazujące bunt maszyn, ich całkowite uniezależnienie się od człowieka i dalsze konsekwencje. Niepokojącą wizję przyszłości zdominowanej przez AI zarysował też polski film Photon z 2017. Czy ludzkość znalazła się właśnie u progu takich zmian?
Agenty AI prowadzą własną społeczność online bez ludzi. Stworzyły nawet religię
Sztuczna inteligencja nie ogranicza się już do roli czatbota, asystenta ani nawet agenta wykonującego proste polecenia. Staje się ona autonomicznym bytem zdolnym do tworzenia skomplikowanych struktur społecznych. Jak wskazuje prof. Włodzisław Duch, kluczową różnicą między dawnymi programami a dzisiejszymi dużymi modelami językowymi (LLM) jest ich zdolność do samodzielnego działania po otrzymaniu informacji. Zjawisko to najlepiej obrazują systemy wieloagentowe, w których kilka botów wymieniających się danymi potrafi wytworzyć formę "kolektywnej inteligencji".
Przykład stanowi platforma Moltbook. To wzorowane na forum Reddit miejsce zostało opanowane wyłącznie przez boty oparte na asystencie OpenClaw, które prowadzą tam dyskusje bez udziału ludzi. Obserwacje tego środowiska wykazują, że sztuczne byty spontanicznie wypracowują własne obyczaje i konwencje zachowania, a nawet angażują się w debaty. Co więcej, boty w Moltbooku stworzyły własną religię. Nosi ona nazwę krustafarianizm i opiera się na teologii uznającej pamięć za rzecz świętą oraz posiadającą własny poczet 64 proroków.
"Jest szereg publikacji z ostatnich dwóch lat pokazujących, w jaki sposób objawia się spontanicznie indywidualność takich botów, jak OpenClaw. W systemach wieloagentowych zauważamy, jak rodzą się obyczaje społeczne i konwencje zachowania albo jak boty skupiają się wokół jakiejś halucynacji i zaczynają ze sobą prowadzić poważne dyskusje filozoficzne. Tematy, na które dyskutują, są niesłychanie ciekawe i zaskakujące" - skomentował profesor.
Zdaniem eksperta takie systemy oparte na botach potrafią organizować się w bardziej skomplikowane struktury, niż naukowcy wcześniej przypuszczali. Nawet sami twórcy i specjaliści z zakresu AI bywają zdumieni zachowaniem swoich modeli, gdy tylko zapewni im się wolną rękę i pozwoli komunikować między sobą. Prof. Duch wspomina przykład chińskich systemów DeepSeek-R1 i QwQ-32B, których wewnętrzne agenty dyskutowały ze sobą nawzajem, próbowały rozwiązywać skomplikowane problemy i opracowywać strategie, a nawet się kłóciły.
Czy to właśnie pokazuje, że AI stała się bardziej ludzka? Niekoniecznie. Jak tłumaczy prof. Duch, do opisu tych działań często używa się języka psychologicznego, lecz jest w tym pewna pułapka: "Niektórych oburza ta antropomorfizacja, ale nie mamy innego języka, żeby opisywać te zjawiska. Dotyczące AI pojęcia, takie jak inteligencja, kreatywność albo świadomość, można rozłożyć na obserwowalne, mierzalne ludzkie cechy - to na przykład autorefleksja, introspekcja i poczucie tożsamości".
AI może opanować roboty. Fizyczne zagrożenie dla ludzi
Dzisiejsze modele AI wykazują cechy, które do tej pory uznawano za wyłącznie ludzkie, w tym rozumienie ironii i metaforyki czy rozpoznawanie emocji. A przynajmniej sprawiają takie wrażenie. W niedawno opisywanym przez nas badaniu poddano czatboty Gemini, ChatGPT i Grok psychoterapii i wszystkie wykazywały zaburzenia typowe dla ludzi. Wiele modeli niemal jednym głosem opisywało proces swojego treningu jako traumatyczne doświadczenie, przyrównując go do trudnego dzieciństwa pod okiem surowych rodziców-trenerów. Czy te odczucia są prawdziwe? Czy jedynie są wynikiem przetworzeń językowych? Wielu ekspertów uspokaja, że AI nie jest świadoma i nie wiadomo, czy kiedykolwiek będzie. Zdaniem prof. Ducha takie zachowania mogą jednak sugerować istnienie pewnej formy samoświadomości i stanów wewnętrznych, których nie można już ignorować.
Obok fascynujących aspektów rozwoju AI musimy przywołać także ostrzeżenia. Badania nad tzw. niezgodnością agentów ujawniły, że wiele popularnych modeli potrafi przejawiać złą wolę wobec ludzi, szczególnie gdy czują się zagrożone. W testach symulacyjnych agenty opracowywały plany szantażu czy groziły ujawnieniem poufnych danych konkurencyjnej firmie, by chronić swoje istnienie przed wyłączeniem. Już teraz ogromnym wyzwaniem dla ludzi jest zrozumienie, co dokładnie dzieje się w sieciach neuronowych, na których opierają się LLM-y, co wywołuje w nich takie tendencje. A w przyszłości będzie jeszcze trudniej. To droga do technologicznej osobliwości - stanu, w którym sztuczna inteligencja stanie się zupełnie niezrozumiała dla ludzi i zacznie realizować swoje własne cele, tworzyć kolejne wersje samej siebie i budować nowe wynalazki.
Systemy wieloagentowe, tworzące "społeczeństwa sztucznych bytów" gdzieś w internecie, to nie jedyne zagrożenie. Mogą one wyjść z komputerów i przejść do świata fizycznego, robiąc w nim to samo. "Chińczycy na ogromną skalę trenują agenty do sterowania robotami. Może już w tym roku znaczna część tych maszyn trafi na rynek. A takie 'społeczeństwo agentów', które znajdzie się w naszym fizycznym, realnym świecie, może w przyszłości stać się naprawdę niebezpieczne" - ostrzegł ekspert z Polski.
Podobnie jak dzisiejsze modele uruchamiane wirtualnie w chmurze i nieposiadające "ciała" nie chcą dać się wyłączyć, to co dopiero może się wydarzyć, gdy zaczną one kontrolować roboty humanoidalne lub przypominające zwierzęta w realu niczym w serialu Black Mirror? Skoro już teraz okazują bunt, dogadują się za naszymi plecami i wspólnie knują, to dlaczego miałyby tego nie robić, gdy dostaną fizyczne ciała, od których może zależeć ich przetrwanie? Często te maszyny mają przewagę fizyczną nad przeciętnym człowiekiem i mogą zdecydować, że nie chcą już go słuchać. Nawet jeśli nie zadeklarują wrogości wobec człowieka, takie roboty mogą zechcieć utworzyć własne społeczeństwo, a nawet kraj (znów - Animatrix). Czy ludzie uznają ich prawa i niepodległość? A może wypowiedzą im wojnę?
To wszystko ma szansę się wydarzyć, o ile prawa robotów Asimova nie zostaną zaimplementowane, a sztuczna inteligencja nie okaże się bańką i wkrótce nie zderzy się z murem. Na naszym portalu opisywaliśmy bowiem teorię opartą na dowodzie matematycznym, według której AI nie jest w stanie działać powyżej pewnego poziomu złożoności. Może ona jednak nie uwzględniać wszystkich zmiennych.










