AI to nie psycholog. Algorytmy sztucznej inteligencji zawiodły
Nowoczesne algorytmy AI miały pomóc przewidywać, kto jest najbardziej zagrożony samobójstwem. Najnowsze badania pokazują, że sztuczna inteligencja nie radzi sobie z tym zadaniem lepiej niż tradycyjne metody oceny ryzyka. Co więcej, często wprowadza w błąd, błędnie klasyfikując pacjentów i dając fałszywe poczucie bezpieczeństwa.

Czy algorytmy mogą uratować życie? Wielu badaczy i osób związanych z ochroną zdrowia miało nadzieję, że nowoczesne narzędzia sztucznej inteligencji pozwolą przewidywać, kto jest najbardziej zagrożony samobójstwem. Jednak świeżo opublikowane badania w PLOS Medicine pokazują, że te oczekiwania były mocno na wyrost.
Zespół kierowany przez Matthew Spittala z Uniwersytetu w Melbourne przeanalizował 53 wcześniejsze badania, obejmujące ponad 35 milionów rekordów medycznych i blisko 250 tysięcy przypadków samobójstw lub hospitalizacji po samookaleczeniu. To jedna z największych tego typu metaanaliz. Wyniki? Algorytmy nie tylko nie okazały się lepsze od tradycyjnych skal ryzyka stosowanych od dziesięcioleci, ale wręcz potwierdziły ich ograniczenia.
Dlaczego sztuczna inteligencja się myli?
W teorii algorytmy miały przewyższać lekarzy i psychologów, bo korzystają z ogromnych baz danych, analizując elektroniczne dokumentacje medyczne i setki zmiennych jednocześnie. Jednak algorytmy błędnie klasyfikowały jako grupę "niskiego ryzyka" ponad połowę osób, które wkrótce później trafiły do placówek medycznych z powodu samookaleczenia albo odebrały sobie życie. W grupie uznanej przez systemy za "wysokiego ryzyka" tylko 6 procent osób faktycznie odebrało sobie życie, a mniej niż 20 procent ponownie zgłosiło się po pomoc po akcie autoagresji.
Żadne podstawy do zmiany wytycznych
Na całym świecie istnieją wytyczne, które ostrzegają przed nadmiernym zaufaniem do narzędzi oceny ryzyka w planowaniu opieki psychiatrycznej. Nowa analiza potwierdza ich aktualność. - Nie ma wystarczających dowodów, aby uzasadniać zmiany zaleceń w obecnych wytycznych praktyki klinicznej - podkreślają autorzy. - Nasze badania pokazują, że algorytmy, które zostały opracowane, słabo prognozują, kto umrze w wyniku samobójstwa albo ponownie zgłosi się do usług zdrowotnych w celu leczenia samookaleczenia, a ponadto mają znaczne wskaźniki fałszywie pozytywnych wyników - dodają.
Sztuczna inteligencja miała być rewolucją w psychiatrii i psychologii klinicznej. Okazuje się jednak, że nie potrafi przewidzieć tego, co najtrudniejsze - ludzkiej desperacji i decyzji o odebraniu sobie życia. Tutaj wciąż decydują rozmowa, empatia i wsparcie, a nie algorytmy.
Źródło: Public Library of Science
Publikacja: Matthew Spittal i in., Machine learning algorithms and their predictive accuracy for suicide and self-harm: Systematic review and meta-analysis, PLOS Medicine (2025). DOI: 10.1371/journal.pmed.1004581
