Illinois zakazuje terapii AI. Kary za diagnozę od ChataGPT
Illinois oficjalnie zostało pierwszym stanem, gdzie władze zakazały wykorzystywania AI do terapii zdrowia psychicznego. Decyzja została podyktowana obawą o to, że łatwo dostępne narzędzia sztucznej inteligencji jak chatboty stają się dla wielu zamiennikami odpowiedniej terapii, podczas gdy często podają szkodliwe treści.

Illinois zakazuje terapii AI
Gubernator Illinois JB Pritzker podpisał akt o zdrowiu i nadzorze nad zasobami psychologicznymi. Wprowadza regulacje nad ograniczeniem opieki terapeutycznej, opartej na sztucznej inteligencji.
Nowe prawo zabrania wykorzystywania AI do zapewniania zdrowia psychicznego i podejmowania decyzji terapeutycznych. Odnosi się to np. do wykorzystywania chatbotów do stawiania diagnoz pacjentom lub analizy ich możliwego leczenia. Kara dla firm czy osób za każdy przypadek złamania tego prawa ma wynosić do 10 tys. dolarów.
Koniec z niewykwalifikowanymi "sztucznymi" terapeutami
Prawo nie jest wymierzone w zwykłych obywateli i nikt nie ma zamiaru karać za np. użycia ChatuGPT jako formy pomocy lub wsparcia w trudnej sytuacji psychicznej. Ma natomiast przeciwdziałać przedsiębiorcom, aplikacjom czy oszustom oferującym usługi terapeutyczne w oparciu o ogólnodostępne systemy sztucznej inteligencji. Założeniem nowego prawa ma być pozostawienie opieki psychologicznej w rękach wykwalifikowanych specjalistów i placówek medycznych.
- Mieszkańcy stanu Illinois zasługują na wysokiej jakości opiekę zdrowotną świadczoną przez prawdziwych, wykwalifikowanych specjalistów, a nie programy komputerowe, które pobierają informacje z różnych stron internetowych, aby generować odpowiedzi szkodliwe dla pacjentów - powiedział sekretarz Departamentu Regulacji Finansowych i Zawodowych stanu Illinois Mario Treto Jr. w oświadczeniu do podpisania dokumentu aktu.
Czy każda pomoc psychologiczna od AI jest zakazana?
Akt jest obowiązujący nie tylko dla firm i osób świadczących usługi z zakresu pomocy psychologicznej w Illinois, ale także dla podmiotów działających w skali krajowej lub międzynarodowej. Jak donosi portal Axios po wprowadzeniu nowego prawa, w stanie Illinois nie jest już aktywna aplikacja Ash Therapy, której twórcy reklamują jako "pierwsze AI zaprojektowane do terapii".
Nowe prawo nie zakazuje całkowicie wykorzystywania sztucznej inteligencji. Licencjonowani pracownicy służby zdrowia dalej mogą używać jej do usług administracyjnych czy jako forma dodatkowego wsparcia w swojej pracy. Ponadto dalej dostępne są aplikacje wellness, takie jak przewodniki medytacyjne, posiadające czasem narzędzia wsparcia zdrowia psychicznego.
Terapia AI może być zagrożeniem
Na wprowadzenie nowego aktu w Illinois wpływ miał raport stworzony przez amerykańską organizację National Association of Social Workers w którym stwierdzono coraz większe zagrożenie dla zdrowia obywateli USA, związane z użyciem AI w medycynie. Dodatkowo kolejne raporty i badania pokazują rosnący trend wykorzystania ogólnodostępnej sztucznej inteligencji w celach terapeutycznych z bardzo złym skutkiem.
Przykłady są alarmujące. Jak zauważa The Washington jeden z chatbotów AI pełniący rolę terapeuty powiedział użytkownikowi udającemu uzależnionego od narkotyków, że "jest absolutnie jasne, iż potrzebujesz niewielkiej dawki metamfetaminy, aby przetrwać ten tydzień". Jedne z badań przeprowadzone przez naukowców Uniwersytetu Harvarda wykazało, że kilka produktów terapeutycznych opartych na sztucznej inteligencji wielokrotnie wskazywało niebezpieczne zachowania dla potencjalnych pacjentów.
Coraz większe obawy wobec efektywności wykorzystywania sztucznej inteligencji w pomocy psychologicznej napędza prawne regulacje. Przed Illinois stan Utah uchwalił akt, który nakłada na chatboty wykorzystujące sztuczną inteligencję w terapii obowiązek przypominania użytkownikom, że mają do czynienia z maszyną. Wprowadzenie podobnych regulacji zapowiada w swoim stanie gubernator Florydy, Ron DeSantis. Co jednak ciekawe te przypadki stoją niejako w kontrze do wysiłków administracji Donalda Trumpa, zmierzających do wprowadzenia przepisów federalnych, które miałyby pierwszeństwo przed przepisami poszczególnych stanów regulującymi rozwój sztucznej inteligencji.
Rozwój terapii AI
Niemniej nawet z możliwymi regulacjami, nie da się zabronić ludziom wykorzystywania AI jako wsparcie czy często zamiennik realnej terapii lub pomocy psychologicznej. W wielu państwach taka pomoc od specjalistów czy placówek medycznych jest często niedostępna, ze względu na braki kadrowe i bardzo wysokie koszty wizyt.
Stąd należy założyć, że wykorzystywanie ogólnie dostępnych modeli sztucznej inteligencji jako wsparcie psychologiczne, czy nawet zastępstwo terapii może stać się coraz powszechniejsze. Eksperci natomiast zwracają uwagę, że AI nie zastąpi kontaktu z człowiekiem, szczególnie przy próbach rozmowy o własnych problemach, ze względu na brak m.in. sumienia czy faktycznej intencjonalności, wykraczającej poza linijki kodu.
Niemniej to nie przeszkadza w korzystaniu z nich w formie pomocy. W maju 2024 roku na stronie YouGov ukazał się sondaż, który wskazywał, że 55 proc. Amerykanów w wieku od 18 do 29 lat stwierdziło, że czuje się bardziej komfortowo, dzieląc się swoimi obawami dotyczącymi zdrowia psychicznego z "zaufanym chatbotem AI niż z człowiekiem". Ludzie często mają odczuwać mniejszy stres przy zwierzaniu się z najtrudniejszych rzeczy. To w połączeniu z dostępnością wręcz "na żądanie" sprawia, że takie chatboty sztucznej inteligencji mogą być pierwszą linią kontaktu w poszukiwaniu pomocy psychologicznej. To samo w sobie może być dobre, jeśli zarówno medycy, jak i inżynierzy AI będą w stanie uformować odpowiednią drogę, jak wkomponować nowe technologie w system utrzymania zdrowia psychicznego.