Premier Szwecji w ogniu krytyki. Przyznał się, że korzysta z narzędzi AI
Sztuczna inteligencja jest przedstawiana jako rewolucyjna technologia o znaczeniu nie mniejszym niż komputer, internet czy smartfon. Choć ma wspomagać każdego, to czy wszyscy powinni jej używać? Ze sporą krytyką spotykają się prawnicy, lekarze czy politycy korzystający z ChatGPT. Ostatni przypadek dotyczy premiera Szwecji. Ulf Kristersson przyznał się, że "dość często" używa narzędzi AI do zaczerpnięcia opinii. Co dokładnie robi i jakie wywołało to reakcje?

Spis treści:
Sztuczna inteligencja ma służyć wszystkim. Kto nie powinien korzystać z ChatGPT?
Twórcy sztucznej inteligencji mówią wprost, że ich technologia ma służyć ludzkości. Jej znaczenie porównywane jest do komputerów, internetu i smartfonów, które zrewolucjonizowały sposób naszej pracy, a także nasze codzienne życie. Nie bez powodu nazywa się dzisiejszą transformację cyfrową "czwartą rewolucją przemysłową". Jest jednak znacząca różnica. Wspomniane wynalazki zaczęły być używane na potęgę w zasadzie wszędzie i nikt nie kwestionował ich przydatności. Wręcz przeciwnie, cyfryzacja pracy jest postrzegana jako coś niemal wyłącznie pozytywnego.
Rewolucja AI, którą zapoczątkował powszechny dostęp do ChatGPT, ma nieco inne oblicze. Wiele badań i prognoz mówi, że znajomość narzędzi AI jest dobrze widziana przez pracodawców, a w przyszłości będzie tak samo potrzebna jak umiejętność korzystania z komputera. Z drugiej strony ogranicza się lub nawet zakazuje korzystania z czatbotów i generatorów tekstu w szkołach i na uczelniach. A gdy ktoś opublikuje tekst wygenerowany przez AI lub skorzysta z jego opinii w niektórych zawodach, stawiany jest w ogniu krytyki.
Jakich zawodów to dotyczy? Za posiłkowanie się odpowiedziami ChatuGPT krytykowani są m.in. prawnicy, dziennikarze, lekarze i politycy. Ma to swoje uzasadnienie. Modele AI nie są ekspertami odpowiadającymi za swoje wnioski ani prawdziwość informacji. Zdarza im się mieć halucynacje, czyli zmyślać nieistniejące fakty, osoby, cytaty, terminy naukowe czy nawet sprawy sądowe. Do odpowiedzi czatbota powinniśmy więc podchodzić z rezerwą i weryfikować podawane przez niego informacje. A w niektórych sytuacjach w ogóle lepiej jest zrezygnować z jego pomocy.
Premier Szwecji konsultował się z AI. Co mu zarzucają?
O tym, że korzystanie z darmowej, publicznie dostępnej aplikacji ChatGPT nie zawsze jest mile widziane, przekonał się premier Szwecji, Ulf Kristersson. Przyznał on, że regularnie konsultuje się z narzędziami sztucznej inteligencji, by zasięgnąć drugiej opinii w sprawach związanych z kierowaniem państwem. W wywiadzie dla lokalnej gazety wyjawił, że regularnie używa tych narzędzi, a jego współpracownicy również korzystają z AI w codziennej pracy.
"Sam tego używam dość często. Choćby po to, żeby uzyskać drugą opinię. Co zrobili inni? I czy powinniśmy pomyśleć całkiem odwrotnie? Tego rodzaju pytania" - powiedział premier Szwecji gazecie Dagens industri. Wywołało to wiele skrajnych reakcji. Jeden z tabloidów nazwał to nawet "psychozą AI". Pojawiły się też głosy wzywające do zachowania ostrożności, w tym do nieprzekazywania ChatowiGPT niejawnych informacji państwowych. Dlaczego to takie ważne?
Darmowe narzędzia AI nie chronią danych użytkowników. Są one używane do udoskonalania algorytmu i trenowania bazowych modeli sztucznej inteligencji. Wszystko, co podajemy w konwersacji, może więc w przyszłości wypłynąć w innych miejscach, a poufne dane mogą trafić w niepowołane ręce. Dlatego też powstają firmowe i rządowe wersje aplikacji AI, które gwarantują, że dane z rozmów nie zostaną do niczego wykorzystane i nikt oprócz rozmówcy nie uzyska do nich dostępu.
Niektórzy eksperci ostrzegają też, że opinie wygłaszane przez sztuczną inteligencję mogą być w rzeczywistości opiniami jej twórców. Tu sprawa jest jednak skomplikowana. Jak wynika z komunikatów OpenAI, który jest twórcą ChatGPT, jego modele są pozbawione opinii, poglądów czy sztucznej osobowości. Modele syntezują raczej wiedzę faktyczną z internetu i zestawów danych oraz unikają subiektywnych wypowiedzi. Z drugiej strony mają też nałożone ograniczenia, tak by unikać promowania czy pomagania w aktywnościach, które twórcy uznali za szkodliwe, niewłaściwe czy niezgodne z prawem.
Prawo nie nadąża za technologią. Potrzebne są regulacje w sprawie AI
Czy krytyka, która spadła na Ulfa Kristerssona, jest uzasadniona? Część ekspertów ma rację, ostrzegając przed możliwymi zagrożeniami, jakie niesie korzystanie z otwartych, publicznych, niechroniących w pełni prywatności wersji narzędzi AI, takich jak darmowy ChatGPT. Z drugiej strony nie wiadomo, z jakich aplikacji korzysta regularnie premier Szwecji. Mogą to być wszak wersje dla rządu, które zapewniają ochronę danych.
Kristersson może być krytykowany nie za to, że robi to samo, co "wszyscy", czyli za konsultowanie się z AI, lecz za ujawnienie tego faktu. Warto też zauważyć, że szwedzki polityk nie twierdził nigdzie, że swoje decyzje o losach kraju opiera na tym, co mu powie ChatGPT. Raczej wygląda na to, że postrzega on te aplikacje jako narzędzia do researchu czy konsultacji - jak z ludzkimi doradcami, którymi przecież wysocy rangą politycy od zawsze się otaczają, a którzy też nie są nieomylni ani pozbawieni uprzedzeń.
Z pewnością te doniesienia dolały oliwy do ognia w i tak już rozgorzałej dyskusji na temat sposobów korzystania z narzędzi AI przez osoby decyzyjne. Możliwe, że powstaną wytyczne i regulacje przeznaczone dla urzędników państwowych. Póki co ta kwestia nie podlega zbyt wielu regulacjom, być może nie licząc przepisów dotyczących ujawniania tajemnicy państwowej czy wojskowej, choć nie wiadomo, czy protokoły uwzględniają stricte narzędzia AI.
Znanym faktem jest to, że prawo często nie nadąża za szybko rozwijającymi się technologiami i przepisy są wprowadzane dopiero wtedy, gdy ludzie już ich nadużywają. Wielu twórców AI, wliczając w to Microsoft, od lat wzywa rządy państw do uregulowania tych spraw, tak aby sztuczna inteligencja od samych już podstaw była używana w odpowiedzialny sposób.