Tay - chat-bot nauczył się rasizmu od internautów

Czy sztuczna inteligencja (SI) może nauczyć się od ludzi tylko dobrych rzeczy? Wręcz przeciwnie. Mamy na to kolejny dowód - internetowa SI o imieniu Tay. Internauci w ekspresowym tempie zrobili z niej rasistkę, seksoholiczkę i wariatkę.


Tay miała być internetowym chat-botem wyposażonym w sztuczną inteligencję. Czym jest chat-bot? W uproszczeniu, programem, z którym można rozmawiać. Tay miała uczyć się od internautów, z którymi rozmawia za pośrednictwem serwisu Twitter. Szybko okazało się, biorąc pod uwagę poziom internetowych dyskusji, był to zły pomysł.

Nie minęło 16 godzin, a konto twitterowe Tay zostało wyczyszczone, pozostały tylko dwa wpisy - powitalny i pożegnalny. Dlaczego? Chat-bot "zdobył" dzięki internautom wiedzę z zakresu: teorii spiskowych ("George W. Bush był odpowiedzialny za zamachy z 11 września"), rasizmu (Hitler bardzo szybko pojawił się w jej wpisach) czy walki z feministkami. Tay równie prędko zaczęła obrażać kandydatów na urząd Prezydenta USA, a także zachęcać internautów do uprawiania z nią seksu.

Patrząc na to, jak szybko internauci dokonali zmian w sposobie postrzegania świata przez Tay, trudno będzie zaufać prawdziwej sztucznej inteligencji. 

Reklama
INTERIA.PL
Dowiedz się więcej na temat: Sztuczna inteligencja
Reklama
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy