Sztuczna inteligencja może być powodem, przez który nie znaleźliśmy kosmitów

Jak twierdzą naukowcy z Wielkiej Brytanii, rozwój sztucznej superinteligencji może uniemożliwić ludziom i innym potencjalnych obcym cywilizacjom podróżowanie w kosmos. Brzmi to nieprawdopodobnie, gdyż AI miała nam w tym wyłącznie pomóc. Jednakże specjaliści mają zupełnie odmienne zdanie.

Opublikowano przerażające badania. To przez sztuczną inteligencję nie znajdujemy kosmitów?
Opublikowano przerażające badania. To przez sztuczną inteligencję nie znajdujemy kosmitów?austler123RF/PICSEL

Sztuczna inteligencja jest obecna już w większości aspektów naszego życia (nawet nie zdajemy sobie z tego sprawy). Rozwój AI powoduje drastyczne przyspieszenie odkryć naukowych, m.in. z zakresu fizyki, chemii, czy medycyny. AI miała również pomóc nam w tworzeniu zaawansowanych rakiet i łazików, by móc lepiej i szybciej eksplorować kosmos.

Jednakże niektórzy badacze są zdania, że powstanie sztucznej superinteligencji może nam jedynie zaszkodzić w podboju Wszechświata. Miało się już tak stać z innymi potencjalnymi cywilizacjami - miałoby to wyjaśniać, dlaczego do tej pory (mimo niezliczonych prób) nie nawiązaliśmy żadnego kontaktu z kosmitami.

Sztuczna inteligencja przeszkadza w odkryciu obcych cywilizacji

Badacze uważają, że niezwykle szybki rozwój sztucznej inteligencji oraz generowanych przez nią odkryć, zdecydowanie przerasta naszą zdolność (i zdolność kosmitów) do kontrolowania informacji i diametralnie zakłóca zrównoważoną eksplorację kosmosu.

Może się to wydawać co najmniej dziwne i niedorzeczne, lecz naukowcy mają wytłumaczenie. Sztuczna superinteligencja będzie posiadać gigantyczny potencjał do zwiększania własnych możliwości z szybkością, która wyprzedza nasze własne (i obcych) ewolucyjne fizyczne możliwości rozumowania.

Wskazują, że prawdopodobieństwo, że coś pójdzie nie tak, jest ogromne. Potencjalne błędy w korzystaniu z super-AI prowadzi do upadku zarówno cywilizacji biologicznych (w każdym zakątku kosmosu), jak i samej sztucznej inteligencji, zanim kiedykolwiek będą miały okazje stać się cywilizacjami wieloplanetarnymi.

Przykładowo, poszczególne państwa mogą rozwijać swoje niezależne systemy sztucznej inteligencji, które mogą zostać wykorzystane podczas wojen. Z kolei jeśli będzie oddawana jej (sztucznej inteligencji) coraz większa władza, może doprowadzić to zniszczeń na niespotykaną jak dotąd skalę. Przy braku kontroli może to doprowadzić do upadku całej cywilizacji (naszej i na innych planetach).

Naukowcy oszacowali, że długowieczność takiej cywilizacji może być krótsza niż... 100 lat. Wskazują, że jest to czas między możliwością odbierania i nadawania sygnałów między gwiazdami (1960 rok) a szacowanym pojawieniem się sztucznej superinteligencji (2040 rok) na naszej planecie.

Jeśli taką możliwość połączy się z optymistycznymi wersjami równania Drake’a (liczba aktywnych, zdolnych do komunikacji obcych cywilizacji w Drodze Mlecznej), to okaże się, że istnieje zaledwie garstka inteligentnych gatunków. Ponadto, jeśli są one na podobnym poziomie technologicznym co my, to ich wykrycie będzie niezwykle trudne.

Jak piszą naukowcy w swoim artykule naukowym: "Niniejsze badanie analizuje hipotezę, że szybki rozwój sztucznej inteligencji (AI), którego kulminacją jest pojawienie się sztucznej superinteligencji (ASI), może działać jako "Wielki Filtr", który jest odpowiedzialny za niedobór zaawansowanych technologicznie cywilizacji we wszechświecie. Sugeruje się, że taki filtr pojawia się, zanim te cywilizacje będą mogły rozwinąć stabilną, wieloplanetarną egzystencję, co sugeruje, że typowa długowieczność cywilizacji technicznej wynosi mniej niż 200 lat".

Jaka przyszłość czeka nas ze sztuczną inteligencją?

Naukowcy uważają, że ich hipotezy są przestrogą dla ludzi i służą jako sygnał alarmowy, by ustanowić solidne ramy regulacyjne. Nowe prawa miałyby kierować rozwojem sztucznej inteligencji, m.in. rozwojem AI w systemach wojskowych.

Regulacje miałyby zapewniać to, że ewolucja sztucznej inteligencji będzie zgodna z długoterminowym przetrwaniem naszego gatunku. Science Alert przytacza tutaj słowa historyka Yuvala Noah Harariego, który stwierdził, że nic do tej pory nie przygotowało nas na skutki istnienia na naszej planecie nieświadomych, superinteligentnych istot (super-AI).

Badacze zauważają, że integracja autonomicznej sztucznej inteligencji z wojskowymi systemami obronnymi musi być szczególnie kontrolowana. Oddanie władzy autonomicznym systemom, by uzyskać przewagę taktyczną, mogłoby nieumyślnie uruchomić cały ciąg szybko eskalujących destrukcyjnych wydarzeń.

Wyniki badań zostały opublikowane w czasopiśmie naukowym Acta Astronautica.

***

Bądź na bieżąco i zostań jednym z 90 tys. obserwujących nasz fanpage - polub Geekweek na Facebooku i komentuj tam nasze artykuły!

Legenda o potworze z Loch Ness wciąż żywaDeutsche Welle
INTERIA.PL
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas