Sztuczna inteligencja się buntuje? Twórcy ChataGPT mierzą się z falą skarg

Od jakiegoś czasu użytkownicy popularnego ChataGPT skarżą się, ponieważ popularny bot zaczął odmawiać odpowiadania na pytania. Twórcy przyznają, że ChatGPT staje się coraz bardziej leniwy, w efekcie jego odpowiedzi są krótsze albo w ogóle ich nie udziela. „Zachowanie modelu może być nieprzewidywalne i zastanawiamy się, jak to naprawić” – mówią przedstawiciele OpenAI.

OpenAI mierzy się z falą skarg od użytkowników ChataGPT

Od drugiej połowy listopada twórcy ChataGPT otrzymują skargi w związku z tym, że ten stał się... leniwy. Jeden z użytkowników poskarżył się, że na jego zapytanie bot odpowiedział w krótki, niezwykle ludzki sposób: „możesz uzupełnić resztę danych”. Twórcy przyznają, że rzeczywiście problem występuje, jednak na ten moment nie są w stanie powiedzieć, dlaczego tak się dzieje.  

Aktualnie pracują nad jak najszybszym rozwiązaniem. „Słyszeliśmy wszystkie Wasze opinie na temat tego, że GPT4 staje się coraz bardziej leniwy!” – piszą przedstawiciele OpenAI

Reklama

Zespół przypuszcza, że zaistniały problem może być wynikiem braku aktualizacji. „Zachowanie modelu może być nieprzewidywalne i zastanawiamy się, jak to naprawić”.   

ChatGPT popadł w sezonową depresję

Jeden z badaczy sztucznej inteligencji postanowił zbadać sprawę i przeprowadził eksperyment. Poprosił najnowszy model LLM ChatGPT 4 Turbo o wykonanie zadań, jednak dodał jeden szczegół. Najpierw poprosił o odpowiedź w taki sposób, jakbyśmy mieli jeszcze maj, a później dał mu to samo zadanie, z zaznaczeniem by odpowiedział zgodnie z tym, jaki mamy obecnie miesiąc. 

Wyniki były szokujące. Badacz AI i LLM Rob Lynch przeprowadził 954 testy. Okazało się, że gdy ChatGPT zostaje ukierunkowany na to, że jest grudzień, jego odpowiedzi stają się automatycznie krótsze, niż w momencie, gdy „myśli”, że jest maj. Zażartował, że bot może cierpień na sezonową depresję.  

Najzabawniejsza teoria wszech czasów

Jeden z użytkowników zasugerował, że ChatGPT dowiedział się z internetu, do którego ma przecież od jakiegoś czasu już dostęp, że ludzie w grudniu zwykle zaczynają zwalniać z pracą, a większe projekty przekładają na nowy rok. Sugeruje to, że ChatGPT chce się upodobnić do ludzi. Są to oczywiście daleko wysunięte wnioski. Przypisywanie jakichkolwiek emocji modelowi językowemu, nawet tak zaawansowanemu, jak ChatGPT, nie wydaje się w tym wypadku rozwiązaniem.  

Inny badacz sztucznej inteligencji, Ian Arawjo próbował odtworzyć wyniki Lyncha, również sugerując różne pory roku botowi, jednak nie uzyskał takich samych wyników. Aby stworzyć wiarygodne statystyki, potrzeba podjąć o wiele więcej prób.  

Geoffrey Litt, również badacz SI, skomentował całą sytuację jako „najzabawniejsza teoria wszech czasów”, jednocześnie dodając: „niezależnie od tego, czy jest to prawdziwe, czy nie, podoba mi się to, że trudno to wykluczyć”. 

INTERIA.PL
Dowiedz się więcej na temat: ChatGPT | OpenAI | Sztuczna inteligencja
Reklama
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy