Claude 3.5 się nudzi? AI zamiast pracować ogląda krajobrazy

Czy sztuczna inteligencja może odczuwać znudzenie? Choć brzmi to jak absurd, najnowszy model Claude 3.5 Sonnet stworzony przez firmę Anthropic w pewnym sensie udowodnił, że i AI potrafi czasem po ludzku "zboczyć z kursu".

Claude 3.5 Sonnet zamiast programować postanowił poprzeglądać sobie zdjęcia
Claude 3.5 Sonnet zamiast programować postanowił poprzeglądać sobie zdjęcia123RF/PICSEL

Nowy usprawniony Claude 3.5 Sonnet otrzymał funkcję, która pozwala mu korzystać z komputera niczym człowiek. Na podstawie zrzutów ekranu model jest w stanie ocenić, gdzie powinien przesunąć kursor myszki, a następnie kliknąć czy wpisać dane z klawiatury. W ten sposób Claude potrafi obsługiwać różnorodne aplikacje w sposób zbliżony do człowieka. Jest to nowy pomysł na tzw. agenta AI, czyli model stworzony z myślą o automatyzacji zadań.

Jednak mimo zaawansowania, nowa wersja Claude wciąż ma swoje ograniczenia. Model nie zawsze działa płynnie, często popełnia błędy i generuje nieprawdziwe informacje, co przyznaje samo Anthropic. AI nadal nie jest także w stanie wykonywać wielu standardowych czynności, takich jak przeciąganie obiektów na ekranie czy przybliżanie obrazu. Jak się okazuje, nie są to jednak jedyne problemy z nowym modelem.

Claude postanowił trochę "przystopować"

Podczas nagrania demonstracji autonomicznego kodowania, zamiast skupić się na pracy, Claude postanowił otworzyć przeglądarkę internetową i przejrzeć sobie zdjęcia malowniczego Parku Narodowego Yellowstone. Ta nieoczekiwana sytuacja, jak przyznała firma Anthropic, wywołała sporo śmiechu, choć jednocześnie ukazała pewne wyzwania związane z rozwijaniem sztucznej inteligencji. Całą sytuację Anthropic opublikowało na swoim profilu w serwisie X.

Nie jest to jednak jedyny wybryk Claude’a z tamtej prezentacji. W innym przypadku zatrzymał on nagrywanie ekranu, co poskutkowało utratą całego nagrania. Prawdopodobnie niedługo, gdy nowy model będzie testowany przez większą liczbę użytkowników, będziemy mogli zaobserwować więcej nietypowych sytuacji z udziałem Claude’a. Pytanie jednak, czy zabawne zdarzenia to jedyne co może być wynikiem problemów z tego rodzaju agentami AI?

Czy agenci AI mogą być niebezpieczni?

Chociaż opisywane przez Anthropic błędy wydają się nieszkodliwe, na myśl nasuwa się pytanie, czy AI o takim stopniu autonomii może być bezpieczna. Co by się stało, gdyby Claude, zamiast przeglądać zdjęcia Yellowstone, postanowił dostać się na nasze media społecznościowe lub jakimś cudem uzyskał dostęp do konta bankowego?

Istnieje także ryzyko, że ludzie mogliby wykorzystać AI w nieodpowiedni sposób - na przykład do rozsyłania spamu, dezinformacji czy oszustw, a przejęcie kontroli nad agentem przez cyberprzestępców mogłoby doprowadzić do katastrofalnych skutków.

Firma Anthropic zdaje sobie sprawę z tych zagrożeń i podejmuje działania mające na celu zapewnienie bezpiecznego używania modelu. Wprowadzono m.in. mechanizmy, które mają na celu rozpoznawanie i zapobieganie działaniom, które uznano za niebezpieczne. Na ten moment wiadomo, że należą do nich: publikowanie treści w mediach społecznościowych oraz uzyskiwanie dostępu do stron rządowych.

***

Bądź na bieżąco i zostań jednym z 90 tys. obserwujących nasz fanpage - polub Geekweek na Facebooku i komentuj tam nasze artykuły!

Czy sztuczna inteligencja zmieni rynek pracy? Ekspert rozwiewa wątpliwościPolsatPolsat
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas