Sztuczna inteligencja ma zatwierdzać leki. Dziś wymyśla nieistniejące badania
Sztuczna inteligencja jest dziś wykorzystywana niemal w każdej dziedzinie życia i pracy umysłowej. I choć jest pomocna, to stwarza też ogromne ryzyko. Halucynacje AI, czyli jej skłonność do wymyślania niestworzonych rzeczy, to wciąż nierozwiązany problem. Niestety, ma go nawet narzędzie Elsa, którego używa amerykańska agencja FDA i które ma w przyszłości dopuszczać leki do obrotu. Ta sztuczna inteligencja dosłownie wymyśla badania, które nie istnieją. I to nie pierwszy taki przypadek.

Spis treści:
Uwaga na halucynacje. Sztuczna inteligencja może wprowadzać w błąd
ChatGPT, Gemini i Copilot to dziś popularne narzędzia AI, z którymi możemy prowadzić rozmowy i zadawać im pytania - nawet te bardzo złożone. Niektóre odpowiedzi są imponująco dobre, ale czasem zdarzają się też kompletnie zmyślone. To właśnie halucynacje - przypadłość AI, której brakuje wiedzy na jakiś temat i która generuje na poczekaniu niepoparte niczym informacje.
Twórcy zdają sobie sprawę z problemu i od kilku lat starają się go rozwiązać, choć do tej pory powiodło im się tylko w pewnym stopniu. Stąd też czatboty wyświetlają adnotacje, by użytkownicy sprawdzali samodzielnie dostarczane przez nich odpowiedzi. Nie wszyscy to jednak robią. Zdarzają się wręcz naukowcy publikujący artykuły w recenzowanych czasopismach, którzy powielają zmyślone przez AI terminy.
Kredytem zaufania obdarzają ChatGPT i pokrewne narzędzia także niektórzy profesjonaliści z różnych branż, wliczając w to prawników. Gdy jednak osoby kompetentne (np. sędziowie) rewidują ich materiały, może dojść do kompromitacji. A mowa tu tylko o publicznych, ogólnodostępnych czatbotach. Specjalistyczne narzędzia, wytrenowane na konkretnych zestawach danych i zoptymalizowane do pracy w konkretnych scenariuszach, np. analizowania leków, również halucynują. Tę przypadłość ma choćby sztuczna inteligencja używana przez amerykańską Agencję Żywności i Leków (FDA). Dlaczego to taki problem?
AI miała zatwierdzać leki dla FDA. Wymyśla badania, które nie istnieją
Parę tygodni temu FDA wprowadziła nowe narzędzie sztucznej inteligencji o nazwie Elsa, które ma za zadanie przyspieszyć proces wprowadzania do obrotu nowych leków i urządzeń medycznych. Radzi sobie ono dobrze z tworzeniem podsumowań spotkań czy generowaniem e-maili i szablonów, ale niestety poległo w bardzo wrażliwej domenie związanej z lekami. Elsa przytacza bowiem nieistniejące badania albo przeinacza te faktycznie istniejące. Wyobraźmy sobie teraz, że taka AI wydaje swoją ekspertyzę, która stanowi podstawę do zatwierdzenia nowego leku. To może się skończyć katastrofą.
Sprawę anonimowo skomentowali pracownicy FDA. Słusznie twierdzą oni, że treści wygenerowane przez AI nadal wymagają podwójnego sprawdzenia i bez tego nie można im zaufać. Powód jest prosty - Elsa ma skłonność do halucynowania. "AI miała oszczędzać nam czas, ale gwarantuję, że tracę jeszcze więcej czasu tylko dlatego, że muszę zachować wzmożoną czujność" - mówi jeden z pracowników agencji.
Elsa obecnie jest niemal zupełnie nieefektywna w procesie zatwierdzania nowych leków - w tym w ocenianiu ich bezpieczeństwa i skuteczności. Jednym z powodów jest to, że nie ma dostępu do kluczowych dokumentów, a brak "zakorzenienia" w wiarygodnych źródłach jest częstą przyczyną halucynacji AI.
Szef działu AI w FDA, Jeremy Walsh, potwierdził, że Elsa może halucynować nieistniejące badania i że nie różni się ona od większości dużych modeli językowych (LLMs) i narzędzi generatywnej AI. Powiedział również, że pracownicy agencji nie mają obowiązku korzystania z AI. Nie muszą tego robić, jeśli ich zdaniem narzędzie nie przedstawia dla nich istotnej wartości.
Błędy sztucznej inteligencji. AI bardziej przeszkadza niż pomaga?
W pracy naukowców badających i zatwierdzających leki liczy się każdy szczegół. Jeśli narzędzie AI ma przykładowo streścić 20-stronnicowe badanie, to nie tylko może coś przekręcić i pominąć, ale też nie wie, które szczegóły mogą być dla ludzkiego eksperta najbardziej istotne. Elsa może też cytować nieistniejące badania albo np. mówić, że ktoś pracuje dla FDA, gdy w rzeczywistości tak nie jest. Można odnieść wrażenie, że sztuczna inteligencja nieraz bardziej przeszkadza, niż pomaga.
Pracownicy podali też inne przykłady błędów sztucznej inteligencji. Elsę zapytano o to, ile leków danej klasy dopuszczono do używania przez dzieci albo ile dopuszczono leków z danym oznaczeniem. W obu przypadkach udzieliła błędnych odpowiedzi. Gdy każdy szczegół ma wielkie znaczenie, takie narzędzie nie ma racji bytu. Co ciekawe, kiedy wytknięto jej błąd, Elsa przyznała człowiekowi rację, ale na tym się skończyło. "Nadal nie pomoże ci znaleźć odpowiedzi na pytanie" - skarży się pracownik.
Niezależnie od tego, czy używamy ogólnodostępnych, czy wyspecjalizowanych narzędzi, nie możemy jeszcze w pełni ufać sztucznej inteligencji i powinniśmy sprawdzać, czy to, co mówi, jest zgodne z prawdą - zwłaszcza gdy korzystamy z tych wygenerowanych danych, aby podejmować decyzje, które na szali stawiają czyjeś bezpieczeństwo, zdrowie albo nawet życie.
Zobacz również:
- Sztuczna inteligencja w milionach artykułów naukowych. Nowe badania ujawniają skalę zjawiska
- Sztuczna inteligencja stworzyła leki. Będą testowane na ludziach
- Microsoft zapowiada rewolucję. Chodzi o "medyczną superinteligencję"
- Czy sztuczna inteligencja grozi naszej inteligencji? Odkryli coś niepokojącego