Człowiek czy AI? Naukowcy twierdzą, że niezawodne rozróżnienie jest niemożliwe

Ogromne zainteresowanie generatywnymi systemami sztucznej inteligencji skłoniło naukowców do prób zweryfikowania, czy możliwe jest rozróżnienie tekstów napisanych przez człowieka i maszynę. Wnioski? Nie da się tego zrobić w sposób jednoznaczny i niezawodny.

Ogromne zainteresowanie generatywnymi systemami sztucznej inteligencji skłoniło naukowców do prób zweryfikowania, czy możliwe jest rozróżnienie tekstów napisanych przez człowieka i maszynę. Wnioski? Nie da się tego zrobić w sposób jednoznaczny i niezawodny.
Człowiek czy AI? W przyszłości nigdy nie będzie pewności /123RF/PICSEL

Kiedy największe korporacje technologiczne budują nowe modele biznesowe wokół nowych modnych haseł, jak uczenie maszynowe, ChatpGPT, generatywne AI i duże modele językowe (LLM), naukowcy próbują za wszelką cenę uniknąć przyszłości, w której nie będziemy w stanie rozpoznać tekstów stworzonych przez sztuczną inteligencję od tych będących dziełem ludzkiej. Wyniki ich badań sugerują jednak, że ta niezbyt optymistyczna przyszłość już nadeszła, a wspomniane rozróżnienie może nie być możliwe.

Napisał to człowiek czy AI? Nie można tego sprawdzić

Inżynierowie University of Maryland zadali sobie pytanie: "Czy tekst wygenerowany przez sztuczną inteligencję można wiarygodnie wykryć?", a odpowiedź jest krótka - nie można. Ich zdaniem tekstu wygenerowanego przez LLM nie można wiarygodnie wykryć w praktycznych scenariuszach, zarówno z teoretycznego, jak i praktycznego punktu widzenia. Naukowcy ostrzegają, że tym samym nieuregulowane korzystanie z takich usług jak ChatGPT i Google Bard może prowadzić do "złośliwych konsekwencji", jak plagiat, fałszywe wiadomości, spamowanie itd.

Reklama

Naukowcy przeanalizowali w swoim badaniu najnowocześniejsze metody wykrywania LLM, które są już dostępne na rynku, pokazując, że prosty "atak parafrazujący" wystarczy, aby oszukać ich wszystkich - mówiąc krótko, wystarczy delikatna zmiana układu oryginalnie wygenerowanego tekstu, żeby "złamać całą gamę detektorów".

Niezawodne wykrycie tekstu opartego na LLM niemożliwe jest nawet przy użyciu znaków wodnych, a te niosą ze sobą dodatkowe ryzyko, że złośliwi aktorzy je wykryją i dodadzą do wygenerowanego tekstu lub skanerów opartych na sieciach neuronowych, a osiągane przez te metody wynik na poziomie 57 proc. oznacza, że równie dobrze można rzucić monetą. 


INTERIA.PL
Dowiedz się więcej na temat: Amnesty International | Sztuczna inteligencja | ChatGPT
Reklama
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy