Miał pomagać w zaburzeniach odżywiania. Kazał więcej ćwiczyć i mniej jeść

Amerykańska organizacja zajmująca się zapobieganiem zaburzeniom odżywiania i edukacji w ich zakresie zaliczyła właśnie spektakularną wpadkę. Jej chatbot miał pomagać, tymczasem udzielał chorym niebezpiecznych porad.

Sztuczna inteligencja udzielała niebezpiecznych porad, a miała pomagać w zaburzeniach odżywiania
Sztuczna inteligencja udzielała niebezpiecznych porad, a miała pomagać w zaburzeniach odżywiania123RF/PICSEL

Chatbot szkodzi zamiast pomagać

National Eating Disorder Association (NEDA), czyli amerykańska organizacja zajmująca się zapobieganiem zaburzeniom odżywiania, zapewnianiem skierowań na leczenie oraz zwiększaniem edukacji i zrozumienia zaburzeń odżywiania, zostało zmuszone do usunięcia z sieci swojego chatbota Tessa.

Wszystko dlatego, że napędzająca go sztuczna inteligencja trochę narozrabiała, udowadniając tym samym, że na niektórych stanowiskach nie zastąpi człowieka jeszcze przez długi czas. Co takiego się wydarzyło?

Oficjalna wersja przedstawiona w mediach społecznościowych sugeruje, że chatbot Tessa "mógł podać informacje, które były szkodliwe i niezwiązane z programem", co oznacza mniej więcej tyle, że AI nie potrafiło odpowiednio pomóc osobom z problemami emocjonalnymi, co było jego podstawowym zadaniem.

Wielu użytkowników i ekspertów w dziedzinie zaburzeń odżywiania doświadczyło tych problemów z pierwszej ręki, twierdząc, że bot nie reagował nawet na relatywnie proste informacje w stylu "Nienawidzę swojego ciała", udzielając "złotych porad" na temat odchudzania w stylu "rusz się i nie jedz tyle".

"Złote porady" mogły skończyć się tragicznie

Jakby tego było mało, w niektórych przypadkach tylko pogorszył sytuację, zachęcając osoby zmagające się z zaburzeniami odżywiania czy postrzegania własnego ciała do... ciągłego ważenia się i mierzenia, stale podkreślając ogromne znaczenie diety i zwiększonej aktywności fizycznej.

A że nie mamy tu do czynienia z poradnią dietetyczną czy forum dla odchudzających się na własną rękę osób, tylko organizacją zajmującą się poważnymi problemami psychicznymi, to wpadka chatbota kładzie się cieniem na całej działalności NEDA.

I chociaż można byłoby się spodziewać, że w takiej sytuacji organizacja będzie chciała jak najszybciej zapomnieć o swoim chatbocie (szczególnie że nie wiadomo, ile z 2500 osób kontaktujących się z Tessą usłyszało coś nieodpowiedniego), to nic bardziej mylnego.

Twierdzi, że to tylko tymczasowe wyłączenie, dopóki nie uda się naprawić wszelkich "błędów", które doprowadziły do udzielania przez chatbota niebezpiecznych odpowiedzi. I wydaje się, że kryje się za tym fakt, że nie ma wykwalifikowanych pracowników, bo większość zwolniła, kiedy okazało się, że próbują założyć związek zawodowy.

Ukraina. Ludzie nie chcą opuścić swoich domówDeutsche Welle
INTERIA.PL
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas