Sztuczna inteligencja zniszczy nasz świat? Twórca ChatGPT ostrzega

Świat zdążył oszaleć na punkcie sztucznej inteligencji. Co chwila dowiadujemy się o jej kolejnych dokonaniach w różnych dziedzinach, jednocześnie implementując ją na szerszą skalę. Jednak czy aby na pewno jest to dobry pomysł? Rychłe zachłyśnięcie się technologią może stanowić dla nas poważny problem. Ostatnio głos w sprawie zabrał sam twórca ChatGPT.

Sam Altman ma pewne obawy w związku ze sztuczną inteligencją.
Sam Altman ma pewne obawy w związku ze sztuczną inteligencją.JASON REDMOND/AFP/East NewsEast News

Sztuczna inteligencja jest świetna!

Patrząc na kilka ostatnich dekad, śmiało można by wymienić wiele niewypałów technologicznych. Mi osobiście pierwsze na myśl rzucają się technologie związane z grami, ale przecież nawet próba mainstreamowego wprowadzenia obrazu 3D nie do końca się powiodła. Segwaye miały zrewolucjonizować transport, Google chciało zachęcić wszystkich do usługi Wave — jednymi słowy, każdy ma swój odpowiednik Windowsa Visty, czyli innowacyjnej klapy. Taką z pewnością nie jest sztuczna inteligencja.

Sądząc po ogromnym postępie prac nad SI w ostatnich latach i wybuchu popularności można założyć, że to rozwiązanie będzie z nami bardzo długo. Tym bardziej że nadaje się do wielu zastosowań — od rozmowy, przez pracę, naukę, tworzenie i odkrywanie nowych rzeczy. Czego zatem chcieć więcej? Ano bezpieczeństwa, ponieważ wskazuje na to nawet sam twórca popularnego ostatnimi czasy ChatGPT. Czego obawia się Sam Altman?

Zagrożenia wynikające z SI?

Jak zauważa twórca ChatGPT, szybkie implementowanie zasobów sztucznej inteligencji do różnych dziedzin życia to świetna zabawa, która może nieść ze sobą poważne konsekwencje. Altman zwraca uwagę na zbyt szybką integrację SI ze światem rzeczywistym. W dużej mierze chodzi o jej niedoskonałości, które w dalszym ciągu są sporym problemem w codziennym korzystaniu.

Weźmy na przykład tworzenie plotek, mitów i krzywdzących opinii. ChatGPT w dalszym ciągu jest usprawniany, ale nadal może rozprzestrzeniać fałszywe informacje. Choć sztuczna inteligencja w rzeczy samej nie posiada poglądów na takiej zasadzie jak ludzie, to opiera się na swoich źródłach i zasobach. Te z kolei mogą być pełne błędów. W całej beczce miodu, jakim jest efektywność działania, znaleźć można sporo dziegciu, składającego się z błędów i niedoróbek.

Oznacza to, że obecne tempo wprowadzania technologii do różnych struktur (np. przeglądarek internetowych), może jedynie pogłębić spiralę nieprzewidzianych i niepożądanych zachowań SI. Autorzy algorytmów i botów potrzebują jeszcze sporo czasu na doszlifowanie tego, co by nie mówić, cyfrowego diamentu. Taki proces staje się coraz bardziej utrudniony, skoro wielkie firmy chcą mieć produkt tu i teraz.

Pozostaje też kwestia regulacji. Sam Altman zwraca uwagę na potencjalną konieczność interwencji ze strony władz, jak miało to miejsce w przypadku kryptowalut czy niektórych platform społecznościowych. Implementację sztucznej inteligencji przyrównuje on do przejścia z ery przed smartfonami i po ich zagoszczeniu w naszych dłoniach. Chyba każdy rozumie, o jak wielkim przeskoku mowa.

To trzeba na spokojnie usiąść i pomyśleć?

Ze wpisów Altmana można zatem wywnioskować, że sztuczna inteligencja to przyszłość, która potrzebuje odpowiedniego planu. Obecne działania wielkich firm (i nie tylko) noszą znamiona szybkiego pędu za trendem, jednak niekoniecznie wszystkie ruchy zostały odpowiednio przemyślane. Znając dzieje ludzkości, w pewnym momencie pojawią się problemy, a kwestie prawne i ustawodawcze będą łatane na szybko, byleby tylko zatrzymać wyciek.

To wcale nie musi tak wyglądać. Zanim sztuczna inteligencja zastąpi nasze wyszukiwarki internetowe, część posad i zacznie masowo pisać maile, powinniśmy jako ludzkość zastanowić się nad granicami i ryzami, w których utrzymamy rozwój technologii. Może ona nam się przysłużyć, lub zniszczyć wiele apsektów codziennej pracy. Przecież nikt tego nie chce - pragniemy jedynie usprawnień tak, jak zrobiły to smartfony. 

Tak wyglądała wizyta Joe Bidena w KijowieinteriaAFP
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas