Człowiek czy AI? Naukowcy twierdzą, że niezawodne rozróżnienie jest niemożliwe
Ogromne zainteresowanie generatywnymi systemami sztucznej inteligencji skłoniło naukowców do prób zweryfikowania, czy możliwe jest rozróżnienie tekstów napisanych przez człowieka i maszynę. Wnioski? Nie da się tego zrobić w sposób jednoznaczny i niezawodny.
Kiedy największe korporacje technologiczne budują nowe modele biznesowe wokół nowych modnych haseł, jak uczenie maszynowe, ChatpGPT, generatywne AI i duże modele językowe (LLM), naukowcy próbują za wszelką cenę uniknąć przyszłości, w której nie będziemy w stanie rozpoznać tekstów stworzonych przez sztuczną inteligencję od tych będących dziełem ludzkiej. Wyniki ich badań sugerują jednak, że ta niezbyt optymistyczna przyszłość już nadeszła, a wspomniane rozróżnienie może nie być możliwe.
Inżynierowie University of Maryland zadali sobie pytanie: "Czy tekst wygenerowany przez sztuczną inteligencję można wiarygodnie wykryć?", a odpowiedź jest krótka - nie można. Ich zdaniem tekstu wygenerowanego przez LLM nie można wiarygodnie wykryć w praktycznych scenariuszach, zarówno z teoretycznego, jak i praktycznego punktu widzenia. Naukowcy ostrzegają, że tym samym nieuregulowane korzystanie z takich usług jak ChatGPT i Google Bard może prowadzić do "złośliwych konsekwencji", jak plagiat, fałszywe wiadomości, spamowanie itd.