Ludzie adaptują się do nowych sytuacji lepiej niż AI. To duży problem
Sztuczna inteligencja pomaga w odkryciach naukowych, podejmowaniu decyzji i codziennym życiu, ale niesie też wiele zagrożeń. Jest wiele dowodów, że bezgraniczne zaufanie do AI może skończyć się tragedią lub w najlepszym razie kompromitacją. Jest bowiem zasadnicza różnica w rozumowaniu człowieka i maszyny. AI generalizuje bowiem w sposób bardziej sztywny, a ludzie - bardziej abstrakcyjny. Czym właściwie jest generalizacja i dlaczego to człowiek szybciej adaptuje się do nowych sytuacji?

Spis treści:
- Generalizacja to ważne narzędzie adaptacyjne
- Człowiek i sztuczna inteligencja. Dlaczego myślimy inaczej?
- AI musi stać się bardziej ludzka. Naukowcy opracowali jednolite ramy
Generalizacja to ważne narzędzie adaptacyjne
W toku ewolucji człowiek wykształcił niezwykłe umiejętności adaptacyjne. Potrafimy przystosować się do niemal każdej sytuacji i znaleźć rozwiązanie w scenariuszach, z którymi nigdy nie mieliśmy do czynienia. Wykorzystujemy do tego nie tylko istniejące narzędzia (lub budujemy nowe), ale także zdobytą wiedzę. Podczas gdy nasz gatunek szybko odnajduje się w nowym otoczeniu lub zaczyna radzić sobie z nowymi problemami, to sztuczna inteligencja ma z tym spore trudności. Dlatego też nie są bezpodstawne opinie, że AI nie potrafi wymyślić niczego nowego. Dlaczego nowości są dla niej takim wyzwaniem?
Różnica między ludzką a sztuczną inteligencją rozbija się o kwestię generalizacji. I choć bywa, że generalizowanie może przynosić więcej szkód niż pożytku - na przykład gdy projektuje się na kogoś krzywdzące stereotypy lub próbuje rozwiązać problem nieskutecznymi środkami - to czynność ta ma kluczowe znaczenie zarówno dla naszego przetrwania i adaptacji do nowych warunków, jak i działania naszych operacji rozumowych w sferze czysto intelektualnej.
Co to jest generalizacja? Pojęcie to oznacza proces przenoszenia wiedzy na nowe problemy. Stwarza ona pewne ryzyko, bowiem może dochodzić do zbytniego uogólniania, upraszczania czy subiektywizacji. Przykładowo ktoś, kto miał do czynienia tylko z agresywnymi psami lub doznał traumy po spotkaniu z psem, może we wszystkich kolejnych sytuacjach postępować tak, jak gdyby wszystkie psy były niebezpiecznymi bestiami, bo to jest jego jedyne lub najsilniejsze skojarzenie.
I choć generalizacja może być nadmierna, to pewna jej zdrowa dawka jest niezbędna, by móc poruszać się w świecie. W innym przypadku każda sytuacja wydawałaby się całkowicie nowa i niezrozumiała. Dzięki podobieństwom z wcześniejszymi doświadczeniami (własnymi lub kolektywnymi) jesteśmy w stanie mniej więcej przewidzieć, czego możemy się spodziewać. Jako ludzie jesteśmy w tym dość dobrzy, ale wynaleziona przez nas AI - będąca niejako cyfrowym przedłużeniem naszej inteligencji - radzi sobie z tym gorzej. Dlaczego?
Człowiek i sztuczna inteligencja. Dlaczego myślimy inaczej?
Międzynarodowy, interdyscyplinarny zespół naukowców m.in. z Bielefeldu, Bambergu, Amsterdamu i Oxfordu opublikował w prestiżowym "Nature Machine Intelligence" artykuł na temat różnic w generalizacji między ludźmi a maszynami. Badacze zwracają uwagę na ten często niedostrzegany aspekt działania sztucznej inteligencji - w tym także w kontekście jej odpowiedzialnego użytkowania.
"W kognitywistyce ludzka generalizacja zazwyczaj obejmuje abstrakcję i uczenie się pojęć [koncepcji]. Dla kontrastu - generalizacja AI obejmuje generalizację wykraczającą poza domenę w uczeniu maszynowym, rozumowanie oparte na regułach w symbolicznej AI i abstrakcję w neurosymbolicznej AI". Innymi słowy sztuczna inteligencja sięga do innych obszarów i generalizuje inaczej niż ludzie. Może to być niebezpieczne podczas wspomagania się AI w niektórych dziedzinach. Jakie rozwiązanie proponują naukowcy?
AI musi stać się bardziej ludzka. Naukowcy opracowali jednolite ramy
Naukowcy zaproponowali jednolite ramy (ang. framework), aby w bezpieczny sposób połączyć rozumowanie człowieka i sztucznej inteligencji. "Największe wyzwanie stanowi to, że owa generalizacja oznacza zupełnie coś innego dla AI i ludzi. Właśnie dlatego jest dla nas tak ważne, by rozwinąć wspólne ramy w trzech wymiarach: Co rozumiemy poprzez generalizację? Jak ona jest osiągana? I jak może być wykorzystana?" - wyjaśnia Benjamin Paaßen, prof. nadzwyczajny w Knowlegde Representation and Machine Learning na Uniwersytecie w Bielefeld.
Projekt ma duże znaczenie w ustaleniu i dostosowaniu kognitywistycznych różnic oraz podobieństw między człowiekiem a sztuczną inteligencją i ich praktycznym zastosowaniu w wielu dziedzinach życia, nauki i pracy. Chodzi nie tylko o to, jak szybko adaptujemy się do nowych sytuacji, ale również w jaki sposób i z jakich obszarów wiedzy lub doświadczenia wyciągamy wnioski i przykładamy je do nowych problemów bądź też które aspekty obieramy za priorytet i przez jakie filtry je przepuszczamy. Dzięki tym badaniom możliwe będzie głębsze zrozumienie tych aspektów oraz bardziej świadome projektowanie systemów AI, które będą lepiej odzwierciedlać ludzkie wartości, w tym także podczas podejmowania decyzji.
"Jeśli chcemy integrować systemy AI z codziennym życiem - czy to w medycynie, transporcie czy w podejmowaniu decyzji - musimy zrozumieć, jak te systemy radzą sobie z nieznanym. Nasze badanie pokazuje, że maszyny generalizują inaczej niż ludzie i ma to kluczowe znaczenie dla powodzenia przyszłej współpracy człowiek-AI" - dodaje Barbara Hammer, kierowniczka Machine Learning Group na Uniwersytecie w Bielefeld, współautorka badania.
Źródła:
- Ilievski, F., Hammer, B., van Harmelen, F. et al. Aligning generalization between humans and machines. Nat Mach Intell (2025). https://doi.org/10.1038/s42256-025-01109-4
- Heeren J., Why Humans Adapt Faster Than AI. Neuroscience News (2025). https://neurosciencenews.com/human-ai-adaption-neuroscience-29689/