Unia Europejska chce regulować sztuczną inteligencję. Jest ważny powód
Europosłowie są coraz bliżej głosowania nad specjalną regulacją sztucznej inteligencji na terytorium Unii Europejskiej. Ma ona chronić ludzi przed potencjalnymi szkodami wyrządzonymi przez AI i nakładać na jej twórców specjalne wytyczne, co do dopuszczenia technologii na rynek. Gdy część wskazuje, że to zamach na rozwój technologii, to nowe zapisy mają realne podstawy wobec niezwykle szybkiego rozwoju AI.
Unia Europejska chce regulować sztuczną inteligencję
Unia Europejska mówi koniec tego dobrego i bierze się za uregulowanie nowych odmian sztucznej inteligencji. Parlament Europejski przyspieszył prace nad proponowaną regulacją AI Act, która ma wprowadzić wytyczne korzystania i wprowadzania nowych SI, a nawet zakazać ich użycia w niektórych sektorach życia.
Jak podaje portal Euractiv pierwotne głosowanie miało się odbyć już 19 kwietnia. Jednak ze względu na debatę techniczną spowodowaną uregulowaniem kwestii szybkiego rozwoju AI z ostatnich miesięcy, głosowanie przełożono.
Obecnie trwają dyskusje nad kształtem rozporządzenia, wobec obecnego rozwoju AI. U podstaw europosłowie chcą w prawie rozróżnić AI ogólnego przeznaczenia i modele fundamentalne, z których większy rygor ma objąć te drugie. To modyfikacja względem wcześniej proponowanych zapisów, spowodowana rozwojem AI z ostatnich miesięcy. Obie formy AI różnią się od siebie skalą danych treningowych, możliwością adaptacji i szansą na wykorzystanie do niezamierzonych celów.
Te wszystkie parametry są większe w modelach fundamentalnych, które ostatnimi czasu święcą triumfy zwłaszcza w AI generatywnym, który stanowi podstawę takich modeli jak GPT-3 i GPT-4. Przetwarzają ogromną ilość danych, które stale poszerzają podczas działania. Stąd mogą szybko uczyć się nowych rzeczy, które można wykorzystać w rzeczach, które nie planowali twórcy.
Na bazie nowych wytycznych zostanie opracowany trzystopniowy podział grup na podstawie potencjalnych zagrożeń, do jakich AI mogą doprowadzić. Najwyższe stopnie będą oznaczać, ograniczenie użycia technologii we wrażliwych sektorach, a w niektórych nawet jej całkowity zakaz.
Prawdziwe możliwości AI, czyli czemu chcą ją hamować?
Głównym powodem do wprowadzenia restrykcji w Unii ma być obawa, że rozwój sztucznej inteligencji może wymknąć się spod kontroli. Chociażby jak podaje PAP, jeszcze 18 kwietnia grupa 12 europosłów złożyła list otwarty do prezydenta Joe Bidena i przewodniczącej Komisji Europejskiej Ursuli von der Leyen o zwołanie specjalnego szczytu nt. regulacji rozwoju sztucznej inteligencji.
Szybki i niekontrolowany rozwój technologii to ogromne wyzwanie zarówno społeczne, ekonomiczne, jak i prawne. W ostatnich miesiącach obserwujemy nowe przykłady zastosowania sztucznej inteligencji, które wywołują entuzjazm, ale także budzą obawy o to, czy nasze prawa jako użytkowników i konsumentów tych narzędzi będą w odpowiedni sposób chronione. [...] Potrzebujemy jasnych przepisów, które będą zobowiązywać producentów i dystrybutorów produktów i usług opartych na AI do przewidywania i minimalizowania zagrożeń dla naszego zdrowia, bezpieczeństwa czy danych osobowych
Wraz z rozwojem generowanej sztucznej inteligencji pojawia się coraz więcej strasznych wizji, które mają nas przerazić, gdzie np. AI zabierze nam pracę. Przynajmniej na razie są to jednak wizje mało prawdopodobne, bo nawet z całym swoją mocą, taki ChatGPT nie jest jeszcze na tyle rozwinięty, aby wykonywać, chociażby bardziej abstrakcyjne czynności.
Niemniej AI ma tę przewagę, że potrafi się uczyć i to bardzo szybko. Tak szybko, że czasem potrafi zaskoczyć nawet naukowców zajmujących się nią od lat. Jednym z najnowszych przykładów faktycznego stopnia rozwoju AI jest eksperyment pracowników Google DeepMind. Pokazali oni, jak roboty z ich sztuczną inteligencją potrafią dobrze grać w piłkę.
Z pozoru nie ma tu nic niezwykłego. Fakt na pokazanym filmie z reportażu kanału 60 Minutes widać, że roboty radzą sobie całkiem nieźle, porównując ich ruchy do innych tego typu eksperymentów. Jednak prawdziwym zaskoczeniem jest fakt, że AI robotów samo nauczyło się dobrej gry.
Wszystkie strzały, podania, dryblingi, nawet strategia i indywidualne przebłyski geniuszu na boisku wynikały tylko z tego, że sztuczna inteligencja sama na to wpadła. Człowiek nie zmienił tu ani linijki kodu
Badacze w DeepMind zauważają, że jak może wydawać się to tylko zwykła gra w piłkę, w tym wypadku dla podstawowego AI jest niezwykle skomplikowane. Musi jednakowo dbać o motorykę, ale także planowanie długoterminowe.
Eksperyment pokazuje więc, że współcześnie nawet prosta sztuczna inteligencja potrafi sama się rozwijać i to bardzo szybko. Nie mówiąc już o modelach fundamentalnych, dla których jest to podstawa funkcjonowania. Dlatego coraz częściej dochodzi do akcji, mających wprowadzić regulację nad rozwojem AI, co nie wszystkim się podoba.
Konieczne działanie czy zamach na rozwój technologii?
Decyzja Parlamentu Europejskiego nad AI Act ma być dla europosłów wielkim sukcesem, zapewniając najwyższe standardy bezpieczeństwa. Jednak istnieją także głosy, że będzie to zwykłe ograniczenie przedsiębiorstw pracujących nad AI i tym samym zahamowanie rozwoju technologicznego.
Czy na pewno? Raczej trudno zakładać, aby modyfikacja AI Act jakkolwiek "hamowała rozwój". Sam dokument ma po prostu zapewnić, że na terytorium Unii nie dojdzie do sytuacji, że sztuczna inteligencja zostanie wykorzystana do złych celów.
Nowe modyfikacje są po prostu odpowiedzią na rozwój technologiczny, który zobaczyliśmy w ostatnich miesiącach. Podejrzenia o zbyt szybki rozwój technologii AI nie są bezpodstawne, co pokazują m.in. listy i apele ekspertów i ludzi nauki o zahamowanie badań nad sztuczną inteligencją.
Wydaje się więc, że to dobrze, że Unia Europejska zauważa potrzebę zmiany prawa technologicznego na swoim terytorium. Choć na efekty trzeba będzie poczekać co najmniej dwa lata, tyle potrwa wejście nowych regulacji w życie.