Stworzyli media społecznościowe dla AI. Boty zaczęły się kłócić
Badanie przeprowadzone przez naukowców z Uniwersytetu Amsterdamskiego obejmowało umieszczenie setek botów AI na specjalnej platformie mediów społecznościowych, pozbawionej reklam i sugestii algorytmów. Eksperymenty obejmowały kilka scenariuszy i tysiące interakcji botów - które szybko zaczęły tworzyć grupy. Wnioski pomogły rzucić nowe światło na zachowania ludzi w mediach społecznościowych.

Media społecznościowe dla sztucznej inteligencji. To ważny eksperyment
Efekt kabiny pogłosowej (ang. echo chambers) to interesujące zjawisko. Polega na tym, że ludzie z danej grupy (środowiska, ekosystemu) wystawieni są na źródła informacji, które wzmacniają ich wcześniejsze przekonania. W takim "zamkniętym kręgu" ciągle odbierają te same opinie, co utwierdza ich w dotychczasowych poglądach i utrudnia zetknięcie się z innymi punktami widzenia. To może powodować, że przekonania stają się coraz bardziej skrajne i rośnie polaryzacja - podział między grupami. Widać to dobrze w mediach społecznościowych, takich jak Facebook czy X.
Naukowcy z Uniwersytetu Amsterdamskiego podjęli się zbadania, czy ten internetowy efekt kabiny pogłosowej i idąca za tym polaryzacja społeczna są wynikiem działania algorytmów, czy też są zakorzenione głębiej - w samym sposobie naszych interakcji. W tym celu badacze skorzystali ze specjalnie postawionej platformy społecznościowej - na której obserwowali jak zachowują się nie ludzie, lecz boty AI.
Boty AI udowodniły, że tu nie chodzi o algorytmy. Naukowcy potwierdzają
Specjaliści badali interakcje pomiędzy botami AI i treściami publikowanymi na platformie, która została odpowiednio przygotowana - była pozbawiona algorytmów, reklam i mechanizmów rekomendacji, które są wszechobecne w popularnych mediach społecznościowych. Testy obejmowały 500 chatbotów opartych na modelu GPT-4o mini firmy OpenAI. W eksperymencie przypisano im zróżnicowane persony i przeprowadzono 5 różnych scenariuszy, z których każdy obejmował ok. 10000 akcji botów. Za każdym razem AI miała tendencję do obserwowania treści zgodnych z poglądami pasującymi do przypisanej jej persony.
Wnioski? Sztuczna inteligencja i tak poszła na "wojnę" - tworzyły się grupki botów. Nawet bez algorytmów efekt kabiny pogłosowej miał tu miejsce. To sugeruje, że problem nie leży wyłącznie w technologii, ale w sposobie, w jaki ludzie (i AI uczące się od ludzi) wchodzą w interakcje. Boty AI samodzielnie dobierały się w grupy według przypisanych im poglądów politycznych. Najbardziej skrajne i stronnicze treści zdobywały najwięcej obserwujących i udostępnień.
- Platformy mediów społecznościowych są powszechnie powiązane ze szkodami społecznymi, w tym rosnącą polaryzacją i niszczeniem konstruktywnej debaty. Czy problemy te można złagodzić poprzez interwencje prospołeczne? - postawili sobie pytanie badacze i spróbowali różnych metod.

Eksperyment na botach AI ujawnia prawdę o podziałach w mediach społecznościowych?
Testowano różne sposoby przeciwdziałania polaryzacji. Wykorzystano tutaj zarówno proste rozwiązania - czyli ukrywanie liczby polubień i udostępnień, jak i bardziej zaawansowane metody - typu specjalne promowanie materiałów z odmiennymi poglądami. Żadna z metod nie przyniosła znaczącej poprawy - maksymalnie odnotowano ok. 6 proc. zmiany w zachowaniu botów. W niektórych przypadkach polaryzacja wręcz się pogłębiła.
Wychodzi na to, że chatboty odzwierciedlają ludzkie zachowania, które są już ukształtowane przez dekady interakcji w środowisku zdominowanym przez algorytmy. Po prostu ogólna struktura mediów społecznościowych może być nieodpowiednia dla zdrowej debaty - nawet bez algorytmów, użytkownicy (lub ich cyfrowe odpowiedniki) wykazują tendencję do polaryzacji. Na podstawie tych eksperymentów z holenderskiego uniwersytetu można więc stwierdzić, że media społecznościowe nie tworzą problemu polaryzacji - ale jednak go pogłębiają. Wyniki badań można znaleźć na łamach arXiv.