Claude 3.5 się nudzi? AI zamiast pracować ogląda krajobrazy

Czy sztuczna inteligencja może odczuwać znudzenie? Choć brzmi to jak absurd, najnowszy model Claude 3.5 Sonnet stworzony przez firmę Anthropic w pewnym sensie udowodnił, że i AI potrafi czasem po ludzku "zboczyć z kursu".

Nowy usprawniony Claude 3.5 Sonnet otrzymał funkcję, która pozwala mu korzystać z komputera niczym człowiek. Na podstawie zrzutów ekranu model jest w stanie ocenić, gdzie powinien przesunąć kursor myszki, a następnie kliknąć czy wpisać dane z klawiatury. W ten sposób Claude potrafi obsługiwać różnorodne aplikacje w sposób zbliżony do człowieka. Jest to nowy pomysł na tzw. agenta AI, czyli model stworzony z myślą o automatyzacji zadań.

Jednak mimo zaawansowania, nowa wersja Claude wciąż ma swoje ograniczenia. Model nie zawsze działa płynnie, często popełnia błędy i generuje nieprawdziwe informacje, co przyznaje samo Anthropic. AI nadal nie jest także w stanie wykonywać wielu standardowych czynności, takich jak przeciąganie obiektów na ekranie czy przybliżanie obrazu. Jak się okazuje, nie są to jednak jedyne problemy z nowym modelem.

Reklama

Claude postanowił trochę "przystopować"

Podczas nagrania demonstracji autonomicznego kodowania, zamiast skupić się na pracy, Claude postanowił otworzyć przeglądarkę internetową i przejrzeć sobie zdjęcia malowniczego Parku Narodowego Yellowstone. Ta nieoczekiwana sytuacja, jak przyznała firma Anthropic, wywołała sporo śmiechu, choć jednocześnie ukazała pewne wyzwania związane z rozwijaniem sztucznej inteligencji. Całą sytuację Anthropic opublikowało na swoim profilu w serwisie X.

Nie jest to jednak jedyny wybryk Claude’a z tamtej prezentacji. W innym przypadku zatrzymał on nagrywanie ekranu, co poskutkowało utratą całego nagrania. Prawdopodobnie niedługo, gdy nowy model będzie testowany przez większą liczbę użytkowników, będziemy mogli zaobserwować więcej nietypowych sytuacji z udziałem Claude’a. Pytanie jednak, czy zabawne zdarzenia to jedyne co może być wynikiem problemów z tego rodzaju agentami AI?

Czy agenci AI mogą być niebezpieczni?

Chociaż opisywane przez Anthropic błędy wydają się nieszkodliwe, na myśl nasuwa się pytanie, czy AI o takim stopniu autonomii może być bezpieczna. Co by się stało, gdyby Claude, zamiast przeglądać zdjęcia Yellowstone, postanowił dostać się na nasze media społecznościowe lub jakimś cudem uzyskał dostęp do konta bankowego

Istnieje także ryzyko, że ludzie mogliby wykorzystać AI w nieodpowiedni sposób - na przykład do rozsyłania spamu, dezinformacji czy oszustw, a przejęcie kontroli nad agentem przez cyberprzestępców mogłoby doprowadzić do katastrofalnych skutków.

Firma Anthropic zdaje sobie sprawę z tych zagrożeń i podejmuje działania mające na celu zapewnienie bezpiecznego używania modelu. Wprowadzono m.in. mechanizmy, które mają na celu rozpoznawanie i zapobieganie działaniom, które uznano za niebezpieczne. Na ten moment wiadomo, że należą do nich: publikowanie treści w mediach społecznościowych oraz uzyskiwanie dostępu do stron rządowych.

INTERIA.PL
Dowiedz się więcej na temat: Yellowstone | Sztuczna inteligencja
Reklama
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy