Negatywny wpływ sztucznej inteligencji na dzieci. Badacze alarmują

Badacze zwracają uwagę na wyniki badań przeprowadzonych na grupie dzieci w wieku wczesnoszkolnym. Analiza dotyczyła postrzegania przez nie asystentów sztucznej inteligencji. Okazało się, że Alexa czy Siri są często odbierane przez dzieci w nieodpowiedni sposób, co może mieć negatywny wpływ na rozwój małoletnich.

Brak odpowiedniej edukacji na temat AI może powodować jej negatywny wpływ na dzieci. Zdj. ilustracyjne.
Brak odpowiedniej edukacji na temat AI może powodować jej negatywny wpływ na dzieci. Zdj. ilustracyjne.srr283123RF/PICSEL

Naukowcy w badaniu opublikowanym na łamach czasopisma naukowego "Computers and Education: Artificial Intelligence" zauważyli, że dzieci w wieku od 6 do 11 lat mają często zaburzone postrzeganie asystentów AI, takich jak Alexa, Asystent Google, czy Siri. Eksperci alarmują, że to może mieć negatywny wpływ na rozwój dziecka.

Hej Siri, czy masz uczucia?

Naukowcy sprawdzili, jak dzieci w wieku od 6 do 11 lat postrzegają sztuczną inteligencję. W swojej pracy naukowcy skupili się na asystentach AI. 93 procent badanych małoletnich miało w domu rodzinnym np. inteligentny głośnik lub potrafiło korzystać z AI na telefonie. W dodatku raport przygotowany przez Statistę, firmę zajmującą się analizą danych, wykazał, że do 2025 r. 57 proc. amerykańskich gospodarstw domowych będzie posiadać co najmniej jedno inteligentne urządzenie domowe, co sugeruje, że w przyszłym roku w samych tylko Stanach Zjednoczonych ok. 40 milionów dzieci będzie mogło mieć je w domu.

Nowe badania na temat postrzegania AI przez dzieci przeprowadzono natomiast w Szkocji, wykorzystano do tego kwestionariusze oraz przeprowadzono wywiady z małoletnimi. Wyniki są jednoznaczne: maluchy mogą przeceniać inteligencję i umiejętności sztucznej inteligencji. Wyniki oceny naukowej wskazują, że małoletni często myślą, iż asystenci AI potrafią myśleć samodzielnie, mogą podejmować decyzje oraz mają uczucia. Eksperci zaznaczają, że może to prowadzić do zaburzonego postrzegania rzeczywistości przez dzieci i konieczna jest odpowiednia edukacja w tym zakresie.

Myślę, że ważne jest, aby wszyscy użytkownicy, niezależnie od tego, czy mają 5, czy 50 lat, mieli dokładny obraz tego, czym są te technologie oraz jak najlepiej mogą z nich korzystać w sposób bezpieczny i odpowiedzialny, zwłaszcza że stają się one coraz bardziej "ludzkie" - powiedziała "Live Science" badaczka Madeleine Reinecke w komentarzu na temat badań zespołu z Edynburga.

Alexa kazała mi to zrobić

Problem jest istotny, ponieważ już wielokrotnie zdarzało się, iż dzieci wierzyły AI bez kwestionowania ich odpowiedzi czy sugestii.

- Dzieci powinny być uczone w szkołach umiejętnego korzystania ze sztucznej inteligencji, a projektanci technologii powinni dbać o to, aby ich produkty oparte na sztucznej inteligencji nie wprowadzały dzieci w błąd, poprzez sugerowanie na różne sposoby, że są podobne do ludzi - powiedziała współautorka badania Judy Robertson, kierownik ds. nauczania cyfrowego na Uniwersytecie w Edynburgu.

Swego czasu media obiegła np. informacja o tym, że 10-letnia dziewczynka mogła zginąć, ponieważ Alexa sugerowała jej, aby dotknęła monetą kontaktu. Wynikło to z tego, że dziecko podczas zabawy poprosiło AI, aby wymyśliło jej jakieś zadanie. Matka dziewczynki opublikowała w sieci dokładną odpowiedź Alexy na prośbę dziecka. Takich przypadków z problematycznymi odpowiedziami lub sugestiami ze strony asystentów AI było więcej, dlatego prowadzone badania oraz apel naukowców na temat konieczności edukowania dzieci w tym zakresie są zasadne.

Sztuczna inteligencja coraz bardziej ludzka? Według badaczy konieczne są pewne granice

Wspomniana badaczka podkreśliła, że "sztuczna inteligencja często ma wyglądać na bardziej ludzką i inteligentniejszą, niż jest w rzeczywistości, a to jest bardzo mylące dla dzieci". Ryzyko, jakie niesie za sobą rozwijanie tej gałęzi bez stawiania odpowiednich granic i wprowadzenia do szkół właściwej edukacji w tym zakresie jest przez to coraz większe.

Jak zauważa "Live Science", warto odnotować, że w przeprowadzonym w Szkocji badaniu mimo wszystko tylko 1 procent dzieci faktycznie zaklasyfikował asystentów AI jako "ludzkich". Około 80 procent ankietowanych małoletnich prawidłowo oznaczyło je jako "sztuczną inteligencję", a 15 procent stwierdziło, że to "obiekty". Te wybory małoletnich świadczą o tym, że pojmują różnice, jednak wciąż nie do końca rozumieją, na czym one polegają.

Świadczy o tym dobitnie fakt, że mniej więcej dwie trzecie ankietowanych dzieci uważało, że systemy te mogą być w stanie myśleć i odczuwać emocje tak jak ludzie. Dzieci np. wielokrotnie zaznaczały odpowiedź, że Alexa mogłaby "poczuć się pominięta", gdyby nie włączono jej do rozmowy. Małoletni często twierdzili też, że niewłaściwym byłoby wyrzucenie urządzenia w przypadu usterki. Z tego względu naukowcy stwierdzili, że badanie podkreśla ryzyko przeceniania przez dzieci niezawodności i możliwości systemów sztucznej inteligencji i należy rozważyć dalsze kroki w kwestii odpowiedniego wprowadzania dzieci w świat AI.

- Odkrycia pokazują, jak ważne jest zwiększanie świadomości dzieci i ich zrozumienia technologii wspieranych przez sztuczną inteligencję, aby zapewnić bezpieczne i odpowiedzialne interakcje z inteligentnymi technologiami - zaznaczyła współautorka badania Valentina Andries.

***

Bądź na bieżąco i zostań jednym z 90 tys. obserwujących nasz fanpage - polub Geekweek na Facebooku i komentuj tam nasze artykuły!

Nastolatek z Polski nagrodzony przez NASA za zdjęcie Wilczego KsiężycaPolsat News
INTERIA.PL
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas