Nauczyciele mają dość sztucznej inteligencji. Znajdą rozwiązanie problemu?

Sztuczna inteligencja wraz ze swoimi możliwościami, które z pewnością możemy wykorzystać w różnych celach, przyniosła też... sporo problemów. Nie trzeba było długo czekać, aż uczniowie czy studenci zorientowali się, że AI może im nieco ułatwić życie. To oczywiście nie podoba się nauczycielom, którzy chcieliby oceniać ich umiejętności — a w rzeczywistości często sprowadza się to do oceniania pracy sztucznej inteligencji albo tego, czy uczeń jest w stanie chociaż zredagować odpowiedź dostarczoną przez AI. Jedno jest pewne: problem istnieje i dobrze byłoby coś z nim zrobić.

Nauczyciele i sztuczna inteligencja. Problem jest spory
Nauczyciele i sztuczna inteligencja. Problem jest spory123RF/PICSEL

Co do możliwości sztucznej inteligencji nie ma wątpliwości — już w styczniu tego roku pisaliśmy np. o tym, że ChatGPT zdał egzaminy do szkół prawniczych. O problemie wykorzystania sztucznej inteligencji przez uczniów mogliśmy usłyszeć między innymi wtedy, kiedy profesor Darren Hick poinformował na łamach swoich mediów społecznościowych, że przyłapał drugiego ucznia na wykorzystaniu popularnego bota — nazwał go wtedy "plagiatorem chatuGPT".

Jak mogliśmy się spodziewać, odezwali się jego koledzy z branży, którzy... byli zdziwieni, że Hick przyłapał jedynie dwóch uczniów. Timothy Main, profesor z Conestoga College, mówił o dziesiątkach takich studentów. Zdarzyły mu się nawet przypadki, kiedy oszustwo było absolutnie oczywiste, a uczniowie nie usunęli formułki: "Jestem tylko modelem językowym sztucznej inteligencji i nie mam zdania na ten temat (...)", którą dość często generują boty AI. Main odnotował aż 57 przypadków tego typu oszustwa.

Nie znaczy to, że każdy student pisze z AI. Zdarzyły się również fałszywe oskarżenia — miało to miejsce w Teksasie, kiedy to profesor oskarżył całą klasę o korzystanie z AI podczas pisania zadań na koniec semestru. Jak się jednak okazało, nie miał racji, a większość klasy została ostatecznie oczyszczona z zarzutów.

Fałszywe oskarżenia, błędne wykrycia. Problem ma dwie strony

Problem ma również swoje drugie oblicze. Bardzo łatwo jest popaść w paranoję — uczniowie zauważają, że pojawienie się tego typu rozwiązania sprawiło, że często są oskarżani o oszukiwanie, chociaż tego nie robią. Pewien student z Arizona State University dwukrotnie sprawdza swoje zadania, wrzucając je do detektora AI.

Jak mówi, w przypadku eseju zawierającego 2000 słów, detektor ten potrafił oznaczyć niektóre akapity jako w 22 proc. napisane przez człowieka, z przeważającym wykorzystaniem AI. Nathan LeVang zaznacza jednak, że to nieprawda, bo każde słowo napisał samodzielnie. Z obawy, wolał mimo wszystko poświęcić chwilę i napisać te konkretne fragmenty na nowo, by nie doszło do oskarżeń.

To wszystko oczywiście spowodowało, że profesorowie zastanawiają się nad tym, jak poradzić sobie z problem. W końcu naprawdę chcą sprawdzać to, co uczniowie wynieśli z ich zajęć, a nie to, czy są biegli w użyciu AI. I z drugiej strony — z pewnością dość stresujące jest to, że w każdej chwili można być potencjalnie oskarżonym o korzystanie ze sztucznej inteligencji.

Być może cała sytuacja sprawi, że zmieni się nieco forma testów. Nauczyciele zaznaczają oczywiście, że chcą wykorzystać potencjał technologii do nauczania oraz uczenia się w zupełnie nowy sposób, ale istnieje też potrzeba przygotowania testów czy zadań, które będą "odporne" na wykorzystanie AI. Przede wszystkim wrócić mogą egzaminy w formie papierowej. Być może prowadzący będą również wymagali, by studenci pokazywali historię edycji plików, aby udowodnić, że faktycznie pracowali nad danym zagadnieniem. Czy tego typu metody będą niezawodne? Na pewno nie, ale niewykluczone też, że w końcu dojdziemy do tego, jak poradzić sobie z takim problemem.

INTERIA.PL
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas