AI fałszuje zdjęcia RTG. Nawet radiolodzy dają się nabrać
Sztuczna inteligencja osiągnęła kolejny niepokojący poziom realizmu. Nowe badanie opublikowane w czasopiśmie "Radiology" pokazuje, że generowane przez AI obrazy rentgenowskie są tak przekonujące, iż potrafią zmylić nawet doświadczonych radiologów.

W nowym badaniu naukowcy przeanalizowali, czy specjaliści są w stanie odróżnić prawdziwe zdjęcia RTG od tych wygenerowanych przez sztuczną inteligencję, a wyniki są co najmniej niepokojące. Gdy radiolodzy nie wiedzieli, że mają do czynienia z potencjalnymi fałszywkami, poprawnie identyfikowali je jedynie w 41 proc. przypadków.
Deepfake w medycynie przestaje być teorią
Dopiero po uprzedzeniu o obecności deepfaków skuteczność wzrosła do około 75 proc., co jednak nadal oznacza znaczące ryzyko błędu. Co więcej, wyniki poszczególnych specjalistów były bardzo rozbieżne. Jak podkreśla główny autor badania, dr Mickael Tordjman:
Te obrazy są na tyle realistyczne, że potrafią zmylić nawet najlepiej wyszkolonych ekspertów, i to mimo świadomości, że wśród nich znajdują się fałszywki.
AI nie radzi sobie dużo lepiej
Paradoksalnie problem dotyczy nie tylko ludzi. Multimodalne modele językowe, jak GPT-4o, GPT-5, Gemini 2.5 Pro czy Llama 4 Maverick, również miały trudności z wykrywaniem syntetycznych obrazów. Ich skuteczność wahała się od około 57 do 85 proc., a więc była zbliżona do wyników radiologów.
Co ciekawe, nawet model wykorzystany do generowania obrazów nie był w stanie rozpoznać wszystkich własnych "dzieł". To pokazuje, że systemy AI nie tylko tworzą coraz bardziej przekonujące fałszywki, ale też nie posiadają skutecznych mechanizmów ich wykrywania.
Perfekcja, która zdradza fałszerstwo
Choć deepfaki są trudne do wykrycia, badacze wskazali pewne charakterystyczne cechy, które powinny wzbudzić czujność. Fałszywe obrazy często wyglądają "zbyt dobrze" - kości są nienaturalnie gładkie, kręgosłup zbyt prosty, a płuca idealnie symetryczne. Również złamania mogą wyglądać podejrzanie "czysto" i regularnie, co w rzeczywistości zdarza się rzadko.
Problem polega jednak na tym, że takie detale łatwo przeoczyć w praktyce klinicznej, a konsekwencje mogą być poważne. Syntetyczne obrazy mogą zostać wykorzystane w sprawach sądowych, np. jako dowód nieistniejącego urazu, a jeszcze większe zagrożenie dotyczy cyberbezpieczeństwa:
Jeśli hakerzy uzyskają dostęp do systemów szpitalnych i wprowadzą fałszywe obrazy, mogą manipulować diagnozami i podważyć wiarygodność całej dokumentacji medycznej
Naukowcy wskazują, że konieczne jest szybkie wdrożenie mechanizmów ochronnych. Wśród proponowanych rozwiązań znajdują się m.in. niewidoczne znaki wodne w obrazach oraz podpisy kryptograficzne powiązane z momentem ich wykonania.









