Coraz więcej artykułów naukowych to dzieło AI. Wydawcy wprowadzili nowe reguły
Sztuczna inteligencja w nauce bywa pomocna, ale często też prowadzi do kompromitacji jej użytkowników i kłopotów dla wydawców. Portal arXiv, na którym naukowcy mogą publikować tzw. preprinty, czyli artykuły naukowe przed publikacją w czasopiśmie, mierzy się teraz z zalewem tekstów wygenerowanych przez AI. Aby odciążyć serwery, wydawca portalu wprowadził nową regułę weryfikacji autorów. To może jednak nie wystarczyć.

Spis treści:
- Sztuczna inteligencja tworzy prace naukowe. Większość to śmieci
- Nie wystarczy uniwersytecki e-mail. Autorzy potrzebują rekomendacji
- "AI slop" zagraża nauce. Wydawcy reagują
Sztuczna inteligencja tworzy prace naukowe. Większość to śmieci
Sztuczna inteligencja bywa pomocna w nauce, pracy i życiu codziennym, jednak jej znane powszechnie niedomagania właściwie skreślają ją dziś jako niezawodne narzędzie. W październiku pisaliśmy choćby o analizie, która wykazała, że sztuczna inteligencja błędnie interpretuje nawet zwykłe wiadomości i przekręca prawie połowę z nich. Wcześniej zaś przytaczaliśmy badania, z których wynika, że od 2024 roku co ósmy artykuł naukowy może zawierać treści wygenerowane przez AI - to miliony publikacji.
Mimo że badania wskazują na to, jak zawodnym "partnerem" jest ChatGPT, Gemini czy Copilot, to wiele osób na progu kariery naukowej zdaje się tym nie przejmować i na potęgę korzystają z generatywnej AI. Bywały już sytuacje, w których poprzez błędną interpretację tekstu źródłowego sztuczna inteligencja wymyśliła nieistniejące terminy, a badacze powielali je w kolejnych publikacjach. Może się również zdarzyć, że praktycznie cały tekst jest dziełem maszyny. Z punktu widzenia nauki to bezwartościowa papka, tzw. AI slop. Niestety, tego typu publikacji jest coraz więcej, a serwery do ich przechowywania uginają się pod ich ciężarem.
Przykładem jest arXiv, portal do publikowania tzw. preprintów, czyli artykułów naukowych przed ich publikacją w czasopismach. Znajduje się na nim blisko 3 miliony publikacji, głównie z domeny nauk ścisłych, fizyki i matematyki. Wraz z upowszechnieniem się darmowych narzędzi AI jego serwery zostały wystawione na ciężką próbę. Nagle tekstów zaczęło spływać więcej, a wśród twórców serwisu zapanowała obawa o jego jakość. W końcu to żadna renoma - uchodzić za internetowe śmietnisko z tekstami tylko udającymi naukowe. Twórcy wprowadzili więc nową regułę.
Nie wystarczy uniwersytecki e-mail. Autorzy potrzebują rekomendacji
Do tej pory naukowcy publikujący w arXiv, zanim ich artykuł trafił do recenzowanego journala, musieli spełnić dość proste wymaganie. Przy pierwszej publikacji należało potwierdzić adres e-mail powiązany z renomowaną instytucją akademicką lub badawczą, np. uniwersytetem. O taki adres akurat nietrudno, więc praktycznie każdy "z ulicy" mógł opublikować swój artykuł na portalu. Wprowadzono zatem bardziej rygorystyczne wymaganie.
Począwszy od 21 stycznia, autorzy publikujący na arXiv po raz pierwszy muszą uzyskać rekomendację od uznanego autora arXiv w danej dziedzinie. Przy kolejnych publikacjach w tej samej kategorii takie poparcie nie będzie już potrzebne. Adres e-mail powiązany z uczelnią lub inną szanowaną instytucją wciąż będzie wymagany. Co się dzięki temu zmieni?
"Ta aktualizacja zasad została wprowadzona, by wspierać społeczność arXiv (autorów, czytelników, moderatorów wolontariuszy i personel) poprzez powstrzymanie napływu niskiej jakości, nienaukowych zgłoszeń do arxiv.org" - tłumaczy wydawca portalu.
Jak powiedział redakcji "Science" przewodniczący rady redakcyjnej arXiv, Ralph Wijers, zmiana ta ma powstrzymać rosnącą falę nieuczciwych publikacji, z których duży odsetek stanowią teksty z generatora AI. Nowa reguła ma "przede wszystkim zniechęcić początkujących, niewykwalifikowanych ludzi do próbowania rozpoczęcia czegoś od wysyłania śmieci na arXiv" - skomentował ekspert.
"AI slop" zagraża nauce. Wydawcy reagują
ArXiv powstał w 1991 roku i od tamtego czasu przeszedł ogromną ewolucję. Współcześnie otrzymuje on blisko 20 tys. tekstów miesięcznie. Nie przechodzą one recenzji naukowej, ale nad zgłoszeniami czuwa 300 ekspertów - wolontariuszy, którzy dbają o to, by publikacje były "odpowiednie i na temat". Większość odrzucanych prac to oczywiste śmieci. W poprzednich latach redakcja odrzucała ok. 4% tekstów. Jednak gdy upowszechniły się aplikacje takie jak ChatGPT i inne oparte na dużych modelach językowych (LLM), ten odsetek wzrósł do 10-12%.
Inne portale tego typu także zmagają się z problemem śmieci wygenerowanych przez AI. Niektóre podejmują nawet bardziej radykalne kroki. OSF Preprints w ogóle przestał przyjmować nowe teksty w sierpniu 2025, ponieważ "większość zgłoszeń była bardzo złej jakości". PsyArXiv, zajmujący się głównie psychologią, przeszedł natomiast z moderacji opublikowanych artykułów na moderację przed opublikowaniem.
Jako że duże modele językowe sztucznej inteligencji stają się coraz lepsze, również wygenerowane przez nie artykuły naukowe będą prawdopodobnie coraz bardziej przekonujące i trudniejsze do odróżnienia od napisanych przez ludzi. To wyzwanie dla wszystkich mediów, w których te teksty się ukazują, wliczając w to czasopisma naukowe.
Źródło: Nicola Jones, ArXiv preprint server clamps down on AI slop, Science (2026). doi: 10.1126/science.z66g9k7










