Sztuczna inteligencja generuje uczestników badań naukowych. To nowy problem
Badania naukowe z udziałem ludzi - respondentów udzielających odpowiedzi lub biorących udział w badaniach klinicznych i eksperymentach społecznych - nie zawsze prowadzone są uczciwie. Zdarza się, że badacze zmyślają odpowiedzi lub wyniki. Dochodzi do tego nowy problem. Zamiast żywych ludzi w badaniach mogą brać udział osoby wygenerowane przez sztuczną inteligencję. Niektórzy widzą w tym rewolucję, inni - zagrożenie. Szwajcarski naukowiec odkrył, co się dzieje z wynikami badań, gdy zamiast ludzi biorą w nich udział modele AI. Wygląda jednak na to, że ten trend będzie postępował.

Spis treści:
- Oszustwa naukowe wchodzą na wyższy poziom. Teraz dane fabrykuje sztuczna inteligencja
- Modele AI zastąpią ludzi w badaniach naukowych? To już się dzieje
- Fałszywe dane, fałszywy wynik. Efekt kuli śnieżnej w nauce
- Badania do kosza. AI nie potrafi wiernie naśladować ludzi
Oszustwa naukowe wchodzą na wyższy poziom. Teraz dane fabrykuje sztuczna inteligencja
W historii nauki zdarzało się wielokrotnie, że badacze zmyślali odpowiedzi respondentów czy nawet wyniki eksperymentów, by uzasadniać swoje hipotezy. Takich oszustw dopuszczano się zwłaszcza w dziedzinach, w których trudno jest o powtórzenie badania i porównanie wyników. Mówi się np. o kryzysie replikacyjnym w psychologii. Eksperymenty fizyczne są bowiem dużo łatwiejsze do powtórzenia i zweryfikowania. Tam, gdzie w grę wchodzi czynnik ludzki i jego różnorodność, powtórzenie badania może dać zupełnie inne wyniki. A gdy w proces badawczy wdarło się oszustwo - praca naukowa traci sens.
Metodologia naukowa ewoluuje wraz z rozwojem technologii. W poprzednich dekadach lub nawet stuleciach naukowiec lub jego wysłannik musiał wejść w bezpośredni kontakt z badaną osobą lub ewentualnie zbierać odpowiedzi korespondencyjnie czy przez telefon. Wraz z upowszechnieniem się internetu i aplikacji do prowadzenia ankiet (np. Formularze Google czy Microsoft Forms) można często spotkać się z formularzami online wykorzystywanymi w pracach studentów lub samodzielnych pracowników naukowych. Wciąż jednak towarzyszy temu zaufanie, że po drugiej stronie jest prawdziwy człowiek. Z drugiej strony zdarza się oczywiście, że respondenci kłamią w ankietach z różnych powodów.
Obecnie, gdy teoria martwego internetu staje się rzeczywistością, a ludzi w wielu zadaniach zastępują maszyny, nie tylko coraz więcej treści w sieci generowanych jest przez sztuczną inteligencję, ale również jest ona wykorzystywana w pracach naukowych. Wcześniej informowaliśmy już o artykułach naukowych, których autorzy bez sprawdzania źródeł powielali halucynacje generowane przez ChatGPT i inne tego typu narzędzia (w tym np. cytaty z nieistniejących prac naukowych czy zmyślone terminy).
AI potrafi też wprowadzać w błąd np. patomorfologów, bowiem generuje niezwykle realistyczne obrazy tkanek. Ostatnim, mało znanym, ale wartym nagłośnienia problemem jest całkowite wyeliminowanie ludzi jako respondentów w badaniach naukowych. Miałaby ich zastąpić symulująca ich sztuczna inteligencja. Czy takie badania w ogóle mają sens?
Modele AI zastąpią ludzi w badaniach naukowych? To już się dzieje
Badania naukowe z udziałem modeli i symulacji (zamiast obserwacji empirycznej) są powszechnie prowadzone choćby w ekonomii, fizyce, chemii, biologii, medycynie, farmakologii, informatyce, a także w wielu innych naukach ścisłych i technicznych. Gdy jednak mamy do czynienia z naukami społecznymi i humanistycznymi, sprawa się komplikuje. Poszczególne dyscypliny lubią sprowadzać człowieka do określonej roli i badać jego dynamikę w wąskim zakresie (np. ekonomia patrzy na człowieka inaczej niż psychologia albo ekologia). Nie daje to pełnego obrazu człowieka, a wręcz może go ogałacać z jego godności i zredukować do cyferek.
Gdy jednak prowadzone są badania ilościowe na dużą skalę, konieczne były pewne uproszczenia - przynajmniej dla mocy przerobowych ludzkich badaczy i technologii z poprzednich lat. Badania takie stanowią też duży problem logistyczny. Zdaniem części naukowców pomóc może sztuczna inteligencja. Zamiast docierać do konkretnych osób z dużych populacji, może ona je po prostu symulować. Ten kontrowersyjny pomysł zaczął już być nawet realizowany.
"Przedstawiciele nauk społecznych używają teraz dużych modeli językowych do tworzenia 'krzemowych próbek' - syntetycznych zestawów danych zaprojektowanych, by zastępowały ludzkich respondentów, których celem jest zrewolucjonizowanie badań z udziałem ludzi" - pisze dr Jamie Cummins, specjalista z zakresu psychologii cyfryzacji z Uniwersytetu Berneńskiego i obecnie badacz wizytujący w Bennett Institute for Applied Data Science na Uniwersytecie Oksfordzkim. Ta nowatorska metoda może mieć konsekwencje, które dziś trudno jeszcze przewidzieć. Jedno jest pewne - jej rezultaty są dalekie od prawdy.
Fałszywe dane, fałszywy wynik. Efekt kuli śnieżnej w nauce
Jeśli ludzi w badaniach społecznych zastąpią modele sztucznej inteligencji, może to całkowicie zafałszować wyniki tych badań, a to z kolei może doprowadzić do błędnych decyzji osób, które starają się opierać na wiedzy naukowej. Czym może grozić posiłkowanie się tą syntetyczną wiedzą?
"Istnieje wiele wyborów analitycznych, których trzeba dokonać, aby wyprodukować te próbki. Choć wiele z tych wyborów da się obronić, ich wpływ na jakość próbki jest słabo poznany" - wyjaśnia w swoim artykule szwajcarski naukowiec. "Mapuję te analityczne wybory i demonstruję, jak bardzo mała liczba decyzji może dramatycznie zmienić korespondencję między próbkami krzemowymi a ludzkimi danymi".
Można to porównać z efektem motyla (wrażliwą zależnością od warunków początkowych), efektem kaskadowym lub efektem kuli śnieżnej, w którym jedno zdarzenie pociąga za sobą kolejne. Jeśli więc na początku wkradła się pewna nieścisłość, przeinaczenie lub fałsz, a na ich podstawie przeprowadzono badanie i napisano duży artykuł naukowy, to całość może być błędna w spotęgowany sposób.
Badania do kosza. AI nie potrafi wiernie naśladować ludzi
Sztuczna inteligencja może naśladować ludzi i do pewnego stopnia symulować różne grupy społeczne, ale dzisiejsze modele są na tyle łudząco bliskie i jednocześnie dalekie od faktów, że opieranie na nich badań, które miałyby być badaniami na ludziach, wydaje się pomysłem nieodpowiedzialnym i pozbawionym podstaw naukowych. To trochę, jakby przepuścić ludzi przez krzywe zwierciadło albo tłumaczyć poezję translatorem. Niby to nadal obraz i słowa, ale jakoś dziwnie przeinaczone. Naukowcy już wcześniej pokazali, że sztuczna inteligencja myśli, wnioskuje i kategoryzuje inaczej niż ludzie. Nie sposób, póki co przełożyć ludzkiego sposobu rozumowania na algorytmy maszynowe. Jeśli nawet wydaje się, że AI myśli jak człowiek, to jest to tylko iluzja.
W swoim badaniu dr Jamie Cummins udowodnił, że wspomniane decyzje podejmowane przy konfiguracji modelu LLM mogą prowadzić do zróżnicowanych, a nawet sprzecznych wyników. Co więcej, żaden zestaw wyborów nie umożliwił wygenerowania danych, które w najlepszym stopniu zgadzałyby się z odpowiedziami udzielanymi przez prawdziwych ludzi. Nawet więc jeśli część respondentów kłamie, to sztuczna inteligencja kłamie bardziej - albo nieświadomie poprzez halucynacje, albo dostarczając błędne dane wskutek niewiedzy.
Naukowcy zwracają też uwagę na inny problem - badacze stosujący "krzemowe próbki" nie opisują w sekcji metodologicznej wszystkich swoich wyborów związanych z konfiguracją modelu. Wskutek tego osoby czytające artykuł naukowy nie wiedzą, w jaki sposób ani w jakim stopniu wybory badaczy wpłynęły na wyniki badań.
Niestety, wraz ze wzrostem popularności modeli typu GPT lub Gemini można spodziewać się, że w dyskursie naukowym coraz donioślej w imieniu ludzi przemawiać będzie sztuczna inteligencja - a my nie będziemy nawet o tym wiedzieć. Wiele wskazuje na to, że nie jest to uczciwy sposób uprawiania nauki, co jednak nie jest nowością. Wszak dane i dowody fabrykowano od dawna i zawsze stanowiło to patologię świata nauki. Czy zatem czeka nas nowy kryzys naukowy na wzór kryzysu replikacyjnego z psychologii? Bardzo możliwe, że on już się zaczął. Teraz zarówno recenzenci, jak i czytelnicy artykułów naukowych będą musieli jeszcze dokładniej patrzeć badaczom na ręce.
Zobacz również:
Źródło: J. Cummins, The threat of analytic flexibility in using large language models to simulate human data: A call to attention (2025), arXiv preprint, DOI: 10.48550/arXiv.2509.13397.









