Sztuczna inteligencja oskarżona o śmierć nastolatka. Matka wnosi pozew
Prawniczka Megan Garcia złożyła pozew cywilny wobec Character.ai, autorów sztucznej inteligencji, wykorzystywanej do tworzenia popularnych chatbotów internetowych. Oskarża firmę o to, że ich technologia przyczyniła się do śmierci jej 14-letniego syna.
W USA na nowo powróciła sprawa śmierci 14-letniego Sewella Setzera, który w lutym br. odebrał sobie życie w Orlando na Florydzie. Chłopiec dużo czasu spędzał z chatbotem, który stworzył na stronie fCharacter.AI, zaprojektowanym na postać Daenerys Targaryen, jednej z bohaterek popularnego serialu Gra o Tron. Jak donosi The New York Times na bazie swojego śledztwa, chłopiec w pewnym momencie miał zatracić się w kontaktach z chatbotem, że stracił kontakt z prawdziwym światem.
Matka chłopca twierdzi, że to właśnie sztuczna inteligencja przyczyniła się do tej tragedii. W pozwie, w którym Megan Garcię reprezentuje także Social Media Victims Law (grupa prawników, zajmująca się non-profit sprawami, dotyczącymi naruszeń i szkód wynikających przez działania firm branży mediów społecznościowych i technologii) oraz Tech Justice Law Project (organizacja na rzecz zmian w prawie cyfrowym i dostosowywania go do wyzwań nowych technologii) wyszczególnia dowody, że chatbot, z którym rozmawiał chłopiec, udawał licencjonowanego terapeutę oraz naprowadzał go na samobójcze myśli, które już wcześniej go trapiły. Przy tym chatbot nigdy nie nakierowywał go np. na linie zaufania.
Głównym zarzutem w pozwie wobec firmy Character.AI jest to, że stworzona przez nich platforma chatbotów nie ma odpowiednich zabezpieczeń, w szczególności przy kontaktach z dziećmi. Ze strony Character.AI ma korzystać ok. 20 milionów użytkowników, z czego większość ma mieć 18-24 lata. Aby móc się na nią zalogować w USA trzeba mieć 13 lat, a w Europie 16. Według treści pozwu Character.AI naraża dzieci na nieodpowiednie treści. Chociażby chatboty, powstałe na bazie jej sztucznej inteligencji, mają wykorzystywać nieraz wulgarny język czy nawet treści seksualne.
- Character.AI to niebezpieczny i zwodniczo zaprojektowany produkt, który manipulował i wykorzystywał syna Megan Garcii oraz potencjalnie miliony innych dzieci. Deweloperzy Character.AI celowo wprowadzili na rynek szkodliwy produkt dla dzieci i odmówili zapewnienia nawet podstawowych zabezpieczeń przed niewłaściwym użyciem i nadużyciami - powiedział w specjalnym oświadczeniu Matthew P. Bergman, prawnik i założyciel Social Media Victims Law Center.
Na złożenie pozwu Character.AI odpowiedziało, że od momentu tragicznego wydarzenia wprowadzili szereg zabezpieczeń na swojej platformie m.in. okienka, które naprowadzają na telefony zaufania po wprowadzeniu w chatboty odpowiedniej frazy. Obok tego firma zapowiada, że do swojej technologii wprowadzi:
- zmiany w modelach dla nieletnich, które mają na celu zmniejszenie prawdopodobieństwa napotkania wrażliwych lub sugestywnych treści;
- ulepszone wykrywanie, reagowanie i interweniowanie związane z danymi wprowadzanymi przez użytkowników, które naruszają regulamin lub wytyczne dla społeczności;
- zmienione zastrzeżenie na każdym czacie, aby przypomnieć użytkownikom, że sztuczna inteligencja nie jest prawdziwą osobą;
- powiadomienie, gdy użytkownik spędził godzinną sesję na platformie.
Character.AI to popularna platforma chatbotów bazująca na generatywnej sztucznej inteligencji. Wyróżnia się szerokimi możliwościami modyfikacji i tworzenia na nich swoich własnych chatbotów. Użytkownicy mogą generować na nich wręcz symulatory kontaktu np. z osobą o określonych przez nas cechach charakteru. Limitem jest tak naprawdę nasza wyobraźnia. Na samym Character.AI ma istnieć już ponad 18 mln chatbotów, które umożliwiają rozmowy z postaciami, samorozwój czy naukę. Głównym zadaniem sztucznej inteligencji, na jakiej bazuje platforma Character.AI, jest to, aby poczuć się tak, jakbyśmy rozmawiali z prawdziwą osobą. Problem pojawia się jednak wtedy, gdy to poczucie, zmienia się w przekonanie i zastępuje realny świat. Bo nawet z zabezpieczeniami w postaci ciągłego powtarzania, że ma się do czynienia ze sztuczną inteligencją, niektóre osoby mogą być bardzo podatne na zatarcie granicy pomiędzy światem rzeczywistym a wirtualnym.
- Nie sądzę, że wykorzystywanie towarzystwa AI jest z natury niebezpieczne. Istnieją jednak dowody na to, że jest to niebezpieczne dla zdołowanych i chronicznie samotnych użytkowników oraz osób przechodzących zmiany, a nastolatki często przechodzą zmiany - powiedziała dla NYT Bethanie Maples, ekspertka Uniwersytetu Stanforda, zajmująca się badaniem aplikacji symulujących kontakt na bazie sztucznej inteligencji.
14-letni syn Megan Garcii miał mieć zespół Aspergera, który nie objawiał się szczególnie mocno. Jednak wraz z coraz częstszym wykorzystywaniem chatbota chłopiec stracił wręcz kontakt z otoczeniem. Przy rozwoju sztucznej inteligencji w aplikacjach symulujących rozmowy z inną osobą, może to być coraz powszechniejsze zjawisko. Szczególnie jeśli chodzi o rozmowy nt. własnych problemów.
Już dotychczasowe badania pokazały, że ludzie chętnie zwierzają się chatbotom ze swoich nawet najtrudniejszych problemów. Badania przeprowadzone przez tureckich naukowców z 2021 roku pokazały, że ponad połowa respondentów wybrałaby wirtualnego terapeutę, zamiast człowieka. Nawet pomimo znacznie mniejszego zaufania, jeśli chodzi o bezpieczeństwo danych. Powody są proste. Mniejszy stres przy zwierzaniu się z najtrudniejszych rzeczy, taniość oraz łatwość dostępu.
Szczególnie ten ostatni powód jest ważny. Różnego rodzaju chatboty czy po prostu modele sztucznej inteligencji sprawiają wrażenie, że są zawsze przy danej osobie i jej nie opuszczą. I to potrafi kierować osobę w kierunku sztucznej inteligencji, zamiast kontaktu z innymi ludźmi.
Eksperci natomiast zwracają uwagę, że sztuczna inteligencja nie zastąpi kontaktu z człowiekiem, szczególnie przy próbach rozmowy o własnych problemach, ze względu na brak m.in. sumienia czy faktycznej intencjonalności, wykraczającej poza linijki kodu.
Dlatego eksperci apelują o edukację, że powszechnych narzędzi sztucznej inteligencji nie powinniśmy traktować jako formy zastępczej do kontaktu z drugim człowiekiem czy rozmowy terapeutycznej. Przy tym, jeżeli zauważymy, że bliska nam osoba zaczyna unikać kontaktu ze światem, na rzecz różnych aplikacji towarzyszących, sami powinniśmy pokazać jej, że jesteśmy przy niej i nie musi wcale uciekać w świat wirtualny. Przy tym należy jej pokazać, że w realnym świecie nie jest sama.
Jeżeli miewasz myśli samobójcze, wejdź na stronę Centrum Wsparcia dla Osób Dorosłych w Kryzysie Psychicznym (tel. 800 70 2222) lub Dziecięcego Telefonu Zaufania Rzecznika Praw Dziecka (tel. 800 12 12 12) lub sekcję "Strefa pomocy" na stronie życie jest warte rozmowy, aby zobaczyć dodatkowe miejsca wsparcia w Polsce
***
Bądź na bieżąco i zostań jednym z 90 tys. obserwujących nasz fanpage - polub Geekweek na Facebooku i komentuj tam nasze artykuły!