Nadchodzi superinteligencja, która może unicestwić ludzkość. Oni mają ją powstrzymać
W odpowiedzi na rosnące obawy opinii publicznej oraz rządową debatę dotyczącą regulacji technologii wykorzystujących AI, OpenAI powołuje specjalny zespół do walki, a mówiąc precyzyjniej "zarządzania ryzykiem" związanym z superinteligentną sztuczną inteligencją - Superalignment.
Wraz z nadejściem generatywnych systemów sztucznej inteligencji pokroju ChatGPT, zdaliśmy sobie sprawę nie tylko z zalet, ale i mankamentów sztucznej inteligencji. Zdaniem twórców tego ostatniego, to jednak dopiero początek i musimy przygotować się na erę "superinteligencji", która może nadejść jeszcze przed końcem dekady.
Nadchodzi superinteligencja, która unicestwi ludzkość?
A mowa o hipotetycznym modelu sztucznej inteligencji, który jest inteligentniejszy niż nawet najbardziej utalentowany i inteligentny człowiek i wyróżnia się wieloma obszarami wiedzy zamiast jednej domeny. To przyniesie ze sobą ogromne ryzyko, w tym unicestwienia ludzkości, przed którym wielokrotnie ostrzegali branżowi eksperci, w związku z czym OpenAI powołało specjalny zespół do "zarządzania ryzykiem":
Superinteligencja będzie najbardziej wpływową technologią, jaką ludzkość kiedykolwiek wynalazła i może pomóc nam rozwiązać wiele najważniejszych problemów świata. Ale ogromna potęga superinteligencji może być również bardzo niebezpieczna i może doprowadzić do osłabienia ludzkości, a nawet do jej wyginięcia
Nowym zespołem będą współkierować główny naukowiec OpenAI, Ilya Sutskever oraz Jan Leike, a organizacja zadeklarowała, że przeznaczy na tę inicjatywę 20 proc. swojej obecnie zabezpieczonej mocy obliczeniowej, mając na celu opracowanie zautomatyzowanego systemu, który ma zadbać o bezpieczeństwo stosowania superinteligentnego AI.
Chociaż jest to niezwykle ambitny cel i nie mamy gwarancji, że nam się uda, jesteśmy optymistami, że skoncentrowany, skoordynowany wysiłek może rozwiązać ten problem. Istnieje wiele pomysłów, które okazały się obiecujące we wstępnych eksperymentach, mamy coraz bardziej przydatne wskaźniki postępu i możemy wykorzystać dzisiejsze modele do empirycznego zbadania wielu z tych problemów
Zbytnia ostrożność? Raczej dobre wyczucie czasu i nastrojów społecznych, bo ogłoszenie OpenAI pojawia się w momencie, gdy rządy na całym świecie zastanawiają się, jak uregulować rodzącą się branżę sztucznej inteligencji. Sam Altman, dyrektor generalny OpenAI, spotkał się w ostatnich miesiącach z co najmniej 100 federalnymi prawodawcami, zapewniając, że regulacje są "niezbędne", a firma "chętna" do współpracy.
Tym samym uwaga opinii publicznej skupia się na teoretycznych problemach przyszłości, zamiast realnych problemach teraźniejszości, jak wzajemne zależności między sztuczną inteligencją a pracownikami, dezinformacją i prawami autorskimi.