Unia Europejska chce regulować sztuczną inteligencję. Jest ważny powód

Marcin Jabłoński

Marcin Jabłoński

Aktualizacja

Europosłowie są coraz bliżej głosowania nad specjalną regulacją sztucznej inteligencji na terytorium Unii Europejskiej. Ma ona chronić ludzi przed potencjalnymi szkodami wyrządzonymi przez AI i nakładać na jej twórców specjalne wytyczne, co do dopuszczenia technologii na rynek. Gdy część wskazuje, że to zamach na rozwój technologii, to nowe zapisy mają realne podstawy wobec niezwykle szybkiego rozwoju AI.

Parlament Europejski jest coraz bliżej głosowania nad rozporządzeniem, który ma regulować rozwój AI
Parlament Europejski jest coraz bliżej głosowania nad rozporządzeniem, który ma regulować rozwój AI123RF/PICSEL
Parlament Europejski jest coraz bliżej głosowania nad rozporządzeniem, który ma regulować rozwój AI
Parlament Europejski jest coraz bliżej głosowania nad rozporządzeniem, który ma regulować rozwój AI123RF/PICSEL

  • Jak donosi portal TechCrunch powołując się na słowa jednego europosła, Parlament Europejski będzie głosować w maju nad kształtem tzw. AI Act, które ma prawnie regulować korzystanie z AI na bazie potencjalnych szkód, które może wyrządzić. AI zostanie podzielone na stopnie ryzyka, jakie wiąże się z jego wykorzystaniem, nakładając obowiązki na twórców technologii.
  • Uwzględniona zostanie modyfikacja zapisów, która przyszła z rozwojem generatywnej AI, w takich modelach jak Chat GPT czy DALL-E.
  • O ewentualnym zastopowaniu AI mówiło już wielu ekspertów i naukowców. Twierdzą, że rewolucja jaką obserwujemy, może wymknąć się spod kontroli. 
  • Niezwykły stopień rozwoju AI, o jakim mówimy, pokazuje jedno z najnowszych badań prowadzonych przez Google, gdzie sztuczna inteligencja może uczyć się bez jakiejkolwiek pomocy ludzi.

Unia Europejska chce regulować sztuczną inteligencję

Unia Europejska mówi koniec tego dobrego i bierze się za uregulowanie nowych odmian sztucznej inteligencji. Parlament Europejski przyspieszył prace nad proponowaną regulacją AI Act, która ma wprowadzić wytyczne korzystania i wprowadzania nowych SI, a nawet zakazać ich użycia w niektórych sektorach życia.

Artificial Intelligence Act (AI Act) to regulacja zaproponowana przez Komisję Europejską w 2021 roku, mająca być pierwszym prawem regulującym funkcjonowanie sztucznej inteligencji, ustanowionym przez większy podmiot. Ma zapewnić, aby na terytorium Unii Europejskiej nie dochodziło do nadużyć z wykorzystaniem AI. Teraz odbywa się próba wprowadzenia go w życie
Artificial Intelligence Act (AI Act) to regulacja zaproponowana przez Komisję Europejską w 2021 roku, mająca być pierwszym prawem regulującym funkcjonowanie sztucznej inteligencji, ustanowionym przez większy podmiot. Ma zapewnić, aby na terytorium Unii Europejskiej nie dochodziło do nadużyć z wykorzystaniem AI. Teraz odbywa się próba wprowadzenia go w życie

Jak podaje portal Euractiv pierwotne głosowanie miało się odbyć już 19 kwietnia. Jednak ze względu na debatę techniczną spowodowaną uregulowaniem kwestii szybkiego rozwoju AI z ostatnich miesięcy, głosowanie przełożono.

Obecnie trwają dyskusje nad kształtem rozporządzenia, wobec obecnego rozwoju AI. U podstaw europosłowie chcą w prawie rozróżnić AI ogólnego przeznaczenia i modele fundamentalne, z których większy rygor ma objąć te drugie. To modyfikacja względem wcześniej proponowanych zapisów, spowodowana rozwojem AI z ostatnich miesięcy. Obie formy AI różnią się od siebie skalą danych treningowych, możliwością adaptacji i szansą na wykorzystanie do niezamierzonych celów.

Te wszystkie parametry są większe w modelach fundamentalnych, które ostatnimi czasu święcą triumfy zwłaszcza w AI generatywnym, który stanowi podstawę takich modeli jak GPT-3 i GPT-4. Przetwarzają ogromną ilość danych, które stale poszerzają podczas działania. Stąd mogą szybko uczyć się nowych rzeczy, które można wykorzystać w rzeczach, które nie planowali twórcy.

Na bazie nowych wytycznych zostanie opracowany trzystopniowy podział grup na podstawie potencjalnych zagrożeń, do jakich AI mogą doprowadzić. Najwyższe stopnie będą oznaczać, ograniczenie użycia technologii we wrażliwych sektorach, a w niektórych nawet jej całkowity zakaz.

Po wprowadzeniu AI Act twórca technologii będzie musiał spełnić szereg warunków, zanim wypuści ją na rynek np. zbadanie jej pod kątem zagrożeń dla demokracji czy bezpieczeństwa pod okiem niezależnych ekspertów, spełnić wymogi przejrzystości, czy ujawnić moc obliczeniową modelu. Przy tym modele fundamentalne nie będą mogły być wykorzystywane do tworzenia systemów punktacji socjalnej (jak np. w Chinach) czy identyfikacji biometrycznej
Po wprowadzeniu AI Act twórca technologii będzie musiał spełnić szereg warunków, zanim wypuści ją na rynek np. zbadanie jej pod kątem zagrożeń dla demokracji czy bezpieczeństwa pod okiem niezależnych ekspertów, spełnić wymogi przejrzystości, czy ujawnić moc obliczeniową modelu. Przy tym modele fundamentalne nie będą mogły być wykorzystywane do tworzenia systemów punktacji socjalnej (jak np. w Chinach) czy identyfikacji biometrycznej

Prawdziwe możliwości AI, czyli czemu chcą ją hamować?

Głównym powodem do wprowadzenia restrykcji w Unii ma być obawa, że rozwój sztucznej inteligencji może wymknąć się spod kontroli. Chociażby jak podaje PAP, jeszcze 18 kwietnia grupa 12 europosłów złożyła list otwarty do prezydenta Joe Bidena i przewodniczącej Komisji Europejskiej Ursuli von der Leyen o zwołanie specjalnego szczytu nt. regulacji rozwoju sztucznej inteligencji.

Szybki i niekontrolowany rozwój technologii to ogromne wyzwanie zarówno społeczne, ekonomiczne, jak i prawne. W ostatnich miesiącach obserwujemy nowe przykłady zastosowania sztucznej inteligencji, które wywołują entuzjazm, ale także budzą obawy o to, czy nasze prawa jako użytkowników i konsumentów tych narzędzi będą w odpowiedni sposób chronione. [...] Potrzebujemy jasnych przepisów, które będą zobowiązywać producentów i dystrybutorów produktów i usług opartych na AI do przewidywania i minimalizowania zagrożeń dla naszego zdrowia, bezpieczeństwa czy danych osobowych
europoseł Kosma Złotowski, jeden ze współautorów listu

Wraz z rozwojem generowanej sztucznej inteligencji pojawia się coraz więcej strasznych wizji, które mają nas przerazić, gdzie np. AI zabierze nam pracę. Przynajmniej na razie są to jednak wizje mało prawdopodobne, bo nawet z całym swoją mocą, taki ChatGPT nie jest jeszcze na tyle rozwinięty, aby wykonywać, chociażby bardziej abstrakcyjne czynności.

Mimo rozwoju sztucznej inteligencji nie ma co wierzyć w najbardziej apokaliptyczne scenariusze. Nie oznacza to jednak, że AI można pozostawić bez kontroli
Mimo rozwoju sztucznej inteligencji nie ma co wierzyć w najbardziej apokaliptyczne scenariusze. Nie oznacza to jednak, że AI można pozostawić bez kontroli123RF/PICSEL

Niemniej AI ma tę przewagę, że potrafi się uczyć i to bardzo szybko. Tak szybko, że czasem potrafi zaskoczyć nawet naukowców zajmujących się nią od lat. Jednym z najnowszych przykładów faktycznego stopnia rozwoju AI jest eksperyment pracowników Google DeepMind. Pokazali oni, jak roboty z ich sztuczną inteligencją potrafią dobrze grać w piłkę.

Z pozoru nie ma tu nic niezwykłego. Fakt na pokazanym filmie z reportażu kanału 60 Minutes widać, że roboty radzą sobie całkiem nieźle, porównując ich ruchy do innych tego typu eksperymentów. Jednak prawdziwym zaskoczeniem jest fakt, że AI robotów samo nauczyło się dobrej gry.

Wszystkie strzały, podania, dryblingi, nawet strategia i indywidualne przebłyski geniuszu na boisku wynikały tylko z tego, że sztuczna inteligencja sama na to wpadła. Człowiek nie zmienił tu ani linijki kodu

Badacze w DeepMind zauważają, że jak może wydawać się to tylko zwykła gra w piłkę, w tym wypadku dla podstawowego AI jest niezwykle skomplikowane. Musi jednakowo dbać o motorykę, ale także planowanie długoterminowe.

Eksperyment pokazuje więc, że współcześnie nawet prosta sztuczna inteligencja potrafi sama się rozwijać i to bardzo szybko. Nie mówiąc już o modelach fundamentalnych, dla których jest to podstawa funkcjonowania. Dlatego coraz częściej dochodzi do akcji, mających wprowadzić regulację nad rozwojem AI, co nie wszystkim się podoba.

Konieczne działanie czy zamach na rozwój technologii?

Decyzja Parlamentu Europejskiego nad AI Act ma być dla europosłów wielkim sukcesem, zapewniając najwyższe standardy bezpieczeństwa. Jednak istnieją także głosy, że będzie to zwykłe ograniczenie przedsiębiorstw pracujących nad AI i tym samym zahamowanie rozwoju technologicznego.

Czy na pewno? Raczej trudno zakładać, aby modyfikacja AI Act jakkolwiek "hamowała rozwój". Sam dokument ma po prostu zapewnić, że na terytorium Unii nie dojdzie do sytuacji, że sztuczna inteligencja zostanie wykorzystana do złych celów.

Nowe modyfikacje są po prostu odpowiedzią na rozwój technologiczny, który zobaczyliśmy w ostatnich miesiącach. Podejrzenia o zbyt szybki rozwój technologii AI nie są bezpodstawne, co pokazują m.in. listy i apele ekspertów i ludzi nauki o zahamowanie badań nad sztuczną inteligencją.

Wydaje się więc, że to dobrze, że Unia Europejska zauważa potrzebę zmiany prawa technologicznego na swoim terytorium. Choć na efekty trzeba będzie poczekać co najmniej dwa lata, tyle potrwa wejście nowych regulacji w życie.

Rubin „Estrela de Fura”. Rusza w tournée po świecieAFP
INTERIA.PL
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas