Duże modele językowe już są nie do odróżnienia od ludzkiego pisma?
Duże modele językowe skutecznie naśladują ludzki styl pisania, co utrudnia odróżnienie tekstów stworzonych przez nie od tych napisanych przez człowieka. Narzędzia do wykrywania treści generowanych przez sztuczną inteligencję bazują na specjalnych algorytmach, lecz nie zawsze dają jednoznaczne wyniki. Analizując strukturę oraz potencjalne niespójności tekstu, można próbować samodzielnie rozpoznać, czy autorem jest człowiek, czy maszyna.

Duże modele językowe (LLM) stały się niezwykle skuteczne w naśladowaniu pisma ludzkiego. Do pewnego czasu tekst wygenerowany przez AI wydawał się prosty do rozpoznania - był sztywny, nienaturalny i pełen powtórzeń. Teraz LLM uczą się na miliardach zdań napisanych przez ludzi, przejmują ich styl i sposób argumentacji. Dzięki temu brzmią całkiem po ludzku - poprawnie, logicznie i bez oczywistych błędów.
Czy da się odróżnić tekst pisany przez człowieka od tekstu generowanego przez maszynę?
Problem pojawia się przy próbie identyfikacji takiego tekstu. Kto jest jego autorem? Człowiek czy maszyna? Niektóre analizy próbowały badać, czy ludzie potrafią wykrywać tekst generowany przez sztuczną inteligencję. Okazało się, że osoby korzystające na co dzień z narzędzi do pisania opartych na AI, wykazały się trafnością w rozpoznawaniu tekstu napisanego przez maszynę, jednak nie każdy ma takie zdolności.
Aby sprawdzić, czy dany tekst został wygenerowany przez sztuczną inteligencję, możesz wrzucić go do narzędzia wykrywającego, które analizuje treść i ocenia prawdopodobieństwo, z jakim tekst nie został napisany przez człowieka. Narzędzia te korzystają ze skomplikowanych algorytmów, które pozwalają im znaleźć charakterystyczne dla AI zwroty i cechy zapisu. Nie są jednak w stu procentach skuteczne, często zawyżają udział AI w pisaniu danego tekstu.
Jak samemu rozróżnić tekst wygenerowany przez AI?
Można jednak nauczyć się prostych zasad, które pomagają samodzielnie rozróżnić tekst, który został napisany przez sztuczną inteligencję. W przypadku różnych artykułów kluczowe jest już pierwsze zdanie. Teksty w stylu: "W dzisiejszym dynamicznym świecie…" lub "W tym artykule przyjrzymy się..." regularnie pojawiają się w postach generowanych przez AI.
Jednak przecież mógł to napisać także człowiek. Wystarczy też zalecić sztucznej inteligencji w prompcie, aby wygenerowała tekst bez używania takich zwrotów. Nie da się więc jednoznacznie i z całą pewnością określić, czy artykuł, który czytamy, jest napisany przez realną osobę, czy przez maszynę, ale można próbować.
Zwróć uwagę na zbyt długie zdania, używanie pauz (-) lub emotek w miejscach, gdzie zazwyczaj się ich nie wstawia. A jeśli tekst jest niespójny, a w akapitach są różne informacje, może to wynikać z tzw. halucynacji AI, które polegają na generowaniu całkowicie nieprawdziwych informacji, przedstawionych jako niepodważalny fakt. Chaty bywają bardzo pewne siebie, pisząc takie brednie - a to sprawia, że łatwo je zdemaskować.
Źródło: theconversation.com, toponline.pl












