Nowy chatbot od Google robi błędy. Bard to kolejny generator bzdur?
W poniedziałek Google ogłosiło nadchodzącego rywala popularnego ostatnio ChatGPT. Chodzi o chatbota o nazwie Bard, jaki ma być asystentem wyszukiwarki. Narzędzie ma być potężne i znać odpowiedzi na większość pytań. Problem pojawił się już podczas prezentacji technologii. Odpowiedź, jakiej udzielił Bard zaskoczyła wielu.
Webb co prawda wykonał swoją pierwszą fotografię egzoplanety, ale nie była to pierwsza taka w historii. Tweet, który miał pokazywać możliwości technologii, zawierający nieprawidłową odpowiedź został opublikowany 6 lutego i od tego momentu zgromadził ponad milion wyświetleń.
Czaty AI lubią zmyślać
Jak zauważa astrofizyk Grant Tremblay, głównym problemem chatbotów ze sztuczną inteligencją, takich jak ChatGPT czy Bard, jest ich tendencja do podawania błędnych informacji jako faktów. Systemy te często wręcz wymyślają informacje.
Zamiast szukać odpowiedzi w bazie sprawdzonych informacji, boty są trenowane na ogromnych zbiorach tekstów i analizują wzorce, aby określić, które słowo następuje po poprzednim w danym zdaniu. Można powiedzieć, że są one probabilistyczne, a nie deterministyczne. Ta cecha skłoniła jednego z profesorów AI do nazwania ich "generatorami bzdur".
O tym fakcie możemy przeczytać, gdy pragniemy skorzystać z ChatuGPT — na stronie widnieje informacja, że technologia ma pewne ograniczenia. Wśród wymienionych znajdziemy możliwość generowania nieprawdziwych informacji, a także ograniczoną wiedzę na temat świata i wydarzeń po 2021 roku.
Warto zauważyć, że tego typu technologie są na wczesnym etapie rozwoju i potrzeba jeszcze sporo czasu na dopracowanie ewentualnych błędów. Jak poinformowało Google, Bard zostanie udostępniony zaufanym testerom przed większym udostępnieniem technologii, jakie ma nastąpić w najbliższych tygodniach.