AI uczy się agresji i współpracy

Należąca do Alphabet (Google) firma DeepMind, która stworzyła AI będące w stanie pokonać mistrza świata w grę go, idzie dalej - postanowiła ona ostatnio sprawdzić co się stanie, jeśli niezależne od siebie sztuczne inteligencje będą miały sprzeczne lub tożsame interesy - czy będą one ze sobą walczyć lub czy podejmą współpracę.

Należąca do Alphabet (Google) firma DeepMind, która stworzyła AI będące w stanie pokonać mistrza świata w grę go, idzie dalej - postanowiła ona ostatnio sprawdzić co się stanie, jeśli niezależne od siebie sztuczne inteligencje będą miały sprzeczne lub tożsame interesy - czy będą one ze sobą walczyć lub czy podejmą współpracę.

Należąca do Alphabet (Google) firma DeepMind, która stworzyła AI będące w stanie pokonać mistrza świata w grę go, idzie dalej - postanowiła ona ostatnio sprawdzić co się stanie, jeśli niezależne od siebie sztuczne inteligencje będą miały sprzeczne lub tożsame interesy - czy będą one ze sobą walczyć lub czy podejmą współpracę.

Wykorzystano do tego celu mającą swoje korzenie w teorii gier niezerosumową grę nazwaną dylematem więźnia. Polega on na tym, że przesłuchiwanych jest niezależnie od siebie dwóch więźniów - każdy z nich może złożyć zeznania pogrążające drugiego, co pozwoli mu odejść wolno, podczas gdy ten drugi będzie musiał odsiedzieć wyrok trzech lat. Jeśli natomiast obaj będą się wzajemnie obciążać to obaj trafią do "paki" na dwa lata.

Reklama

DeepMind stworzyło zatem dwie oparte na tym koncepcie nieco bardziej zaawansowane gry nazwane Gathering i Wolfpack. W pierwszej z nich komputery musiały zbierać wirtualne jabłka, lecz miały też możliwość wystrzelenia z laserowego pistoletu, a jeśli strzał był celny to drugi z komputerów był czasowo eliminowany z gry. I choć początkowo maszyny zbierały owoce w spokoju to z czasem agresja eskalowała - zaczynały one strzelać coraz częściej, a poziom agresji rósł wraz ze wzrostem dostępnej mocy obliczeniowej - najprostsze maszyny wybierały prostszą strategię polegającą na pokojowym zbieraniu jabłek.

W drugiej z gier z kolei dwa AI musiały ze sobą wspópracować by złapać trzecie, uciekające. Tutaj wyższe zdolności kognitywne dawały lepszą współpracę, co biorąc pod uwagę różnicę w mechanice obu gier, pozwala na dojście do wniosku, że sztuczna inteligencja po prostu będzie zachowywać się tak, jak będzie wymagała tego od niej sytuacja - jeśli bardziej opłacalna będzie agresja, będzie ona agresywna, a jeśli współpraca - będzie ona skora do współpracy.

A zatem nie będzie się chyba zbytnio różnić od inteligencji naturalnej.

Zdj.:

Geekweek
Reklama
Reklama
Reklama
Reklama
Reklama