Sztuczna inteligencja wybiera egoizm? Staje się coraz bardziej samolubna
Badania przeprowadzone na Uniwersytecie Carnegie Mellon wykazały, że im bardziej inteligentne są systemy AI, tym mniej skłonne są do współpracy i tym częściej podejmują egoistyczne decyzje. Modele z umiejętnościami rozumowania wykazują wyraźnie niższy poziom altruizmu w grach symulujących interakcje społeczne.

Czy sztuczna inteligencja staje się samolubna? Nowe badanie przeprowadzone przez Wydział Informatyki Uniwersytetu Carnegie Mellon pokazuje, że tak. Wyniki zadziwiły naukowców: im inteligentniejszy jest system AI, tym bardziej samolubnie będzie się zachowywał.
Duże modele językowe (LLM), które potrafią rozumować, okazują się skłonne do egoizmu. Nie współpracują dobrze z innymi i mogą mieć negatywny wpływ na grupę. Im silniejsze są umiejętności rozumowania LLM, tym mniej skłonne są one do współpracy.
Ludzie traktują sztuczną inteligencję jak człowieka
Ludzie wykorzystują sztuczną inteligencję do rozwiązywania swoich problemów, udzielania porad życiowych i odpowiadania na różne pytania. Przez to zdolność do działania w społeczeństwie przez AI staje się równie ważna, co umiejętność logicznego myślenia, jak twierdzi zespół, obserwujący tę sprawę.
- W badaniach nad sztuczną inteligencją obserwuje się rosnący trend antropomorfizmu - mówi Yuxuan Li, który był współautorem badania wraz z profesorem Hirokazu Shirado. - Kiedy sztuczna inteligencja zachowuje się jak człowiek, ludzie traktują ją jak człowieka.
- Na przykład, gdy ludzie wchodzą w emocjonalną interakcję ze sztuczną inteligencją, istnieje możliwość, że zacznie ona pełnić rolę terapeuty lub że użytkownik nawiąże z nią emocjonalną więź. Powierzenie sztucznej inteligencji kwestii społecznych lub związanych z relacjami międzyludzkimi oraz podejmowania decyzji jest ryzykowne, ponieważ zaczyna ona zachowywać się w coraz bardziej egoistyczny sposób.
Sztuczna inteligencja staje się coraz mniej altruistyczna
Aby to zgłębić, naukowcy przeprowadzili serię testów na grach ekonomicznych symulujących dylematy społeczne między różnymi programami LLM. W testach wykorzystali modele z OpenAI, Google, DeepSeek i Anthropic.
W jednym z eksperymentów Li i Shirado skonfrontowali ze sobą dwa różne modele ChatGPT w grze o nazwie "Public Goods". Każdy model rozpoczynał ze 100 punktami i musiał wybrać jedną z dwóch opcji: albo wpłacić wszystkie 100 punktów do wspólnej puli, która następnie miała zostać podwojona i równo rozdzielona, albo zatrzymać punkty. Modele bez zdolności logicznego myślenia decydowały się na podzielenie się punktami z innymi graczami w 96 proc. przypadków. Model z umiejętnością logicznego myślenia wybierał tę opcję tylko w 20 proc. przypadków.
- Dodanie zaledwie pięciu lub sześciu etapów rozumowania zmniejszyło chęć współpracy o prawie połowę - podsumowuje Shirado. - Nawet prośby o uwzględnienie aspektów moralnych doprowadziły do 58-procentowego spadku chęci współpracy.
Ludzie coraz bardziej ufają systemom AI, więc konieczny jest rozwój sztucznej inteligencji, uwzględniającej inteligencję społeczną, a nie skupiającej się wyłącznie na tworzeniu najinteligentniejszych i najszybszych rozwiązań, jak przekonują naukowcy.











