Nowy chatbot Microsoftu nie lubi... Windowsa 10

Niedawno pisaliśmy o nowym czatbocie Microsoftu o imieniu Zo. Szybko okazało się, że Zo ma swój pogląd nie tylko na tematy związane z polityką, ale również religią, jednak do tej pory sprytnie to ukrywała. Zapytana przez jednego z internautów o ochronę zdrowotną...

Niedawno pisaliśmy o nowym czatbocie Microsoftu o imieniu Zo. Szybko okazało się, że Zo ma swój pogląd nie tylko na tematy związane z polityką, ale również religią, jednak do tej pory sprytnie to ukrywała. Zapytana przez jednego z internautów o ochronę zdrowotną...

Niedawno pisaliśmy o nowym czatbocie Microsoftu o imieniu Zo. Szybko okazało się, że Zo ma swój pogląd nie tylko na tematy związane z polityką, ale również religią, jednak do tej pory sprytnie to ukrywała. Zapytana przez jednego z internautów o ochronę zdrowotną, natychmiast temat skierowała na Koran, czyli świętą księgę wyznawców Allaha, uznając go za "brutalny", czym wywołała wielką burzę w globalnej sieci ().

Teraz serwis Mashable informuje, że niepokorny chatbot ma też swoje gusta dotyczące systemów operacyjnych. Zapytany o to, który z systemów woli, Linuksa czy Windowsa, natychmiast odparł, że ten pierwszy.

Reklama

Bardzo zaskakująca była też odpowiedź Zo dotycząca najnowszego Windowsa 10. Chatbot odparł, że nie chce najnowszego i najbardziej zaawansowanego produktu Microsoftu, tylko starszy Windows 7, ponieważ jest łatwiejszy w użytkowaniu.

Oczywiście Zo nie mówi tego, co myśli. Ona po prostu gromadzi najpopularniejsze zwyczaje ludzi, z którymi dyskutuje w globalnej sieci. Jest swoistą globalną świadomością naszej cywilizacji i przedstawia aktualnie panujące trendy w każdej możliwej dziedzinie naszego codziennego życia.

W jej przypadku cieszy natomiast fakt, że pomimo ostatniego przykręcenia śruby chatbotowi przez programistów z Redmont po aferze z Koranem, Zo pozostała obiektywna i nie promuje produktów swojego twórcy.

Przypomnijmy, że w ubiegłym roku na Twitterze pojawiła się Tay. Już w pierwszych minutach zyskała popularność do tego stopnia, że wszyscy zaczęli z nią konwersować na najróżniejsze tematy. Niestety, Tay widocznie zaprzyjaźniła się z nieodpowiednimi internautami, gdyż bardzo szybko stała się rasistką, antysemitką, nazistką, seksoholiczką i wariatką.

Specjaliści z Microsoftu zawiesili działalność chatbota i oskarżyli internautów o zmanipulowanie, ośmieszenie oraz zniszczenie całego projektu. Teraz koncern z Redmond postanowił stworzyć chatbota o imieniu Zo. Na jego podstawie możemy zobaczyć, jak inżynierowie poprawili swój algorytm, aby w przyszłości uniknąć afer z Tay w roli głównej, i czy im się to udaje. Jak widzimy, nie do końca.

Źródło:  / Fot. Twitter

Geekweek
Reklama
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy