Nadchodzi superinteligencja, która może unicestwić ludzkość. Oni mają ją powstrzymać

W odpowiedzi na rosnące obawy opinii publicznej oraz rządową debatę dotyczącą regulacji technologii wykorzystujących AI, OpenAI powołuje specjalny zespół do walki, a mówiąc precyzyjniej "zarządzania ryzykiem" związanym z superinteligentną sztuczną inteligencją - Superalignment.

W odpowiedzi na rosnące obawy opinii publicznej oraz rządową debatę dotyczącą regulacji technologii wykorzystujących AI, OpenAI powołuje specjalny zespół do walki, a mówiąc precyzyjniej "zarządzania ryzykiem" związanym z superinteligentną sztuczną inteligencją - Superalignment.
Nadchodzi superinteligentna sztuczna inteligencja. Powinniśmy się jej obawiać /123RF/PICSEL

Wraz z nadejściem generatywnych systemów sztucznej inteligencji pokroju ChatGPT, zdaliśmy sobie sprawę nie tylko z zalet, ale i mankamentów sztucznej inteligencji. Zdaniem twórców tego ostatniego, to jednak dopiero początek i musimy przygotować się na erę "superinteligencji", która może nadejść jeszcze przed końcem dekady.

Nadchodzi superinteligencja, która unicestwi ludzkość?

A mowa o hipotetycznym modelu sztucznej inteligencji, który jest inteligentniejszy niż nawet najbardziej utalentowany i inteligentny człowiek i wyróżnia się wieloma obszarami wiedzy zamiast jednej domeny. To przyniesie ze sobą ogromne ryzyko, w tym unicestwienia ludzkości, przed którym wielokrotnie ostrzegali branżowi eksperci, w związku z czym OpenAI powołało specjalny zespół do "zarządzania ryzykiem":

Reklama

Nowym zespołem będą współkierować główny naukowiec OpenAI, Ilya Sutskever oraz Jan Leike, a organizacja zadeklarowała, że przeznaczy na tę inicjatywę 20 proc. swojej obecnie zabezpieczonej mocy obliczeniowej, mając na celu opracowanie zautomatyzowanego systemu, który ma zadbać o bezpieczeństwo stosowania superinteligentnego AI.

Zbytnia ostrożność? Raczej dobre wyczucie czasu i nastrojów społecznych, bo ogłoszenie OpenAI pojawia się w momencie, gdy rządy na całym świecie zastanawiają się, jak uregulować rodzącą się branżę sztucznej inteligencji. Sam Altman, dyrektor generalny OpenAI, spotkał się w ostatnich miesiącach z co najmniej 100 federalnymi prawodawcami, zapewniając, że regulacje są "niezbędne", a firma "chętna" do współpracy.

Tym samym uwaga opinii publicznej skupia się na teoretycznych problemach przyszłości, zamiast realnych problemach teraźniejszości, jak wzajemne zależności między sztuczną inteligencją a pracownikami, dezinformacją i prawami autorskimi.

INTERIA.PL
Dowiedz się więcej na temat: Amnesty International | Sztuczna inteligencja | OpenAI
Reklama
Reklama
Reklama
Reklama
Reklama