Nadchodzi superinteligencja, która może unicestwić ludzkość. Oni mają ją powstrzymać
W odpowiedzi na rosnące obawy opinii publicznej oraz rządową debatę dotyczącą regulacji technologii wykorzystujących AI, OpenAI powołuje specjalny zespół do walki, a mówiąc precyzyjniej "zarządzania ryzykiem" związanym z superinteligentną sztuczną inteligencją - Superalignment.
Wraz z nadejściem generatywnych systemów sztucznej inteligencji pokroju ChatGPT, zdaliśmy sobie sprawę nie tylko z zalet, ale i mankamentów sztucznej inteligencji. Zdaniem twórców tego ostatniego, to jednak dopiero początek i musimy przygotować się na erę "superinteligencji", która może nadejść jeszcze przed końcem dekady.
A mowa o hipotetycznym modelu sztucznej inteligencji, który jest inteligentniejszy niż nawet najbardziej utalentowany i inteligentny człowiek i wyróżnia się wieloma obszarami wiedzy zamiast jednej domeny. To przyniesie ze sobą ogromne ryzyko, w tym unicestwienia ludzkości, przed którym wielokrotnie ostrzegali branżowi eksperci, w związku z czym OpenAI powołało specjalny zespół do "zarządzania ryzykiem":