Ludzie zupełnie stracą zdolność myślenia? Oddaliśmy wszystko AI
Sztuczna inteligencja to narzędzie jak każde inne czy może raczej rewolucja, która wstrząśnie posadami naszego człowieczeństwa? Według eksperta od AI różnica pomiędzy obecną sytuacją a poprzednimi wynalazkami jest zasadnicza. Nowa technologia jest bowiem pierwszą, której powierzamy sam proces myślenia. Kto poniesie odpowiedzialność za jej decyzje, co zostanie nam, ludziom, i dlaczego to tak niebezpieczne?

Spis treści:
- Pierwszy raz w historii oddelegowaliśmy nasze myślenie maszynie
- Sztuczna inteligencja i naturalna głupota
- Przestajemy myśleć samodzielnie. Kto za to odpowiada?
- Niepewna przyszłość inteligencji. AI nas ujarzmi?
Pierwszy raz w historii oddelegowaliśmy nasze myślenie maszynie
Sztuczna inteligencja to tylko oprogramowanie. Dużo bardziej złożone niż aplikacje i systemy rozwijane przez poprzednie dekady, ale nadal dające się sprowadzić do wykonywania przez komputer rozkazów człowieka poprzez przetwarzanie zer i jedynek. W ten sposób entuzjaści AI próbują nieraz uspokajać osoby sceptycznie nastawione do tej nowej technologii. Porównują ją nawet do motorów napędowych poprzednich rewolucji przemysłowych, takich jak maszyna parowa i komputer. Przez ostatnie stulecia wiele wynalazków faktycznie zrewolucjonizowało życie (co nie musi być wcale jednoznacznie pozytywne), ale czy któryś z nich może się równać ze sztuczną inteligencją?
Według eksperta, myśliciela, teoretyka i mówcy zajmującego się sztuczną inteligencją, technologią i medycyną, Johna Nosty, różnica między AI a poprzednimi wielkimi wynalazkami jest zasadnicza. O ile wcześniej zastępowaliśmy urządzeniami pracę własnych rąk czy nóg, o tyle nigdy nie byliśmy w stanie zastąpić umysłu. Owszem, mogliśmy go poszerzyć i wspomóc, np. kalkulatorem (także takim skomplikowanym jak Excel) albo dyskiem twardym do zapisania wspomnień, ale nie mogliśmy przy tym wyrzec się myślenia. W zbiorowym dyskursie zapisało się wręcz wyobrażenie maszyny jako głupiej i bezdusznej, potrzebującej nadzoru myślącego człowieka. Teraz, po raz pierwszy w historii się to zmienia.
"Przez większą część ludzkiej historii panował niedobór inteligencji. Myślenie zajmowało czas, wnioski przychodziły powoli i były kształtowane przez żywe doświadczenie. Poznanie napotykało tarcie, które nadawało mu treść i wagę. Dziś te założenia się załamują" - zauważa John Nosta. Jego zdaniem inteligencja jest dziś "niebezpiecznie obfita". Myślenie praktycznie nie napotyka tarcia, odbywa się gdzieś daleko, w centrach danych, zasilane ogromnymi ilościami energii elektrycznej i wymagające chłodzenia. Dzieje się to poza naszymi ciałami, płynnie, praktycznie natychmiastowo. Dla zwykłego zjadacza chleba uzyskanie tego samego efektu, który wcześniej wymagał pójścia do biblioteki, a później - przynajmniej skorzystania z Wikipedii, wiąże się niemal z zerowym wysiłkiem. Wystarczy zadać pytanie, a "wszechwiedzący" ChatGPT, Copilot, Gemini, Claude lub Grok udzieli odpowiedzi w kilka sekund. Głęboki research, który mógłby zająć nam wiele dni, modelowi językowemu zajmuje minuty.
Już teraz zdolności poznawcze modeli AI przekraczają te u przeciętnych ludzi, a możliwe, że w najbliższych dekadach prześcigną wszystkich ludzi razem wziętych, co będzie się wiązało z nadejściem AGI (ogólnej sztucznej inteligencji) oraz superinteligencji. Nie chodzi jednak o sam fakt, że program jest w czymś lepszy niż człowiek - to już potrafiły stare komputery. Zgrzyt pojawia się na innym polu. Sztuczna inteligencja jest pierwszym wynalazkiem, któremu ludzie oddelegowują cały proces myślenia. Dlaczego to niebezpieczne?
Sztuczna inteligencja i naturalna głupota
Nierzadko można spotkać się ze stwierdzeniem, że im mocniejsza sztuczna inteligencja, tym większa prawdziwa głupota. O ile technologie wcześniej uwalniały nas z kieratu ręcznej pracy fizycznej (np. koparki zamiast łopat) czy nudnej pracy umysłowej (np. automatyzacja w Excelu zamiast liczenia na papierze), ale wymagały pokierowania nimi w sposób inteligentny, o tyle teraz w przypadku AI to technologia produkuje inteligencję, a nam zostaje ją przyjąć lub nie. Na obecnym poziomie rozwoju sztuczna inteligencja generuje halucynacje, czyli błędy poznawcze, przez co nie można jej ufać, a generowane przez nią wnioski trzeba sprawdzać - o ile zależy nam na prawdzie, a nie tylko na wrażeniu prawdy.
Jeśli jednak przestajemy myśleć samodzielnie, bo we wszystkim wyręcza nas AI, to zatracamy również zdolność weryfikacji, czy to, co apka nam dostarczyła, jest zgodne ze stanem faktycznym. Tak samo jak nieużywany mięsień zanika, również mózg przestaje utrzymywać nieużywane struktury, przez co spadają nasze zdolności poznawcze. "Zastępowaliśmy już narzędzia, ale nigdy wcześniej nie zastąpiliśmy myślenia" - ostrzega Nosta.
Nie znaczy to, że z każdym pytaniem trzeba lecieć do biblioteki albo pytać o zdanie profesorów (którzy tak jak wszyscy nie są z automatu wolni od uprzedzeń, zacietrzewienia, wiary w paradygmaty czy korupcji). Warto natomiast nauczyć się sprawdzać wiarygodność danych i znać kryteria, które ją wyznaczają. Innymi słowy, trzeba szerszej perspektywy, której nie dostarczy tkwienie w bańce interakcyjnej człowiek-czatbot. Łatwa dostępność wiedzy, trudności sprowadzające się do napisania prompta, a nawet uzależnienie niektórych osób od korzystania z AI mogą jednak być na tyle kuszące, że umiejętność krytycznego myślenia zaniknie.
Przestajemy myśleć samodzielnie. Kto za to odpowiada?
Zanik ludzkiej inteligencji biologicznej i przewaga intelektualna AI to nie jedyne problemy. John Nosta dostrzega coś jeszcze. "Gdy inteligencja stanie się powszechna, zmieni się jej wartość. Tym, co stanie się rzadkie, nie będzie poznanie, lecz własność. To fundamentalna zmiana dotyczy przejścia od wglądu do odpowiedzialności. Mówiąc wprost, chodzi nie o odpowiedzi, lecz o odpowiedzialność za to, co te odpowiedzi uruchomią. To jest ciężar inteligencji" - uważa myśliciel.
Dziś autonomia działania sztucznej inteligencji jest taka, na jaką pozwoli jej użytkownik. W poszukiwaniu wiedzy w internecie radzi sobie sama, a w formie agentów wykonujących działania w systemie operacyjnym, aplikacjach i przeglądarkach - wymaga nadzoru i ustalonych uprawnień. W jej przypadku kwestia odpowiedzialności rozmywa się jeszcze bardziej niż w innych cyfrowych wynalazkach. Kto ponosi odpowiedzialność, gdy sztuczna inteligencja zaleci komuś dietę lub błędnie rozpozna trujący grzyb, a człowiek postąpi zgodnie z zaleceniami i zachoruje lub umrze? Albo gdy agent AI działający autonomicznie w firmie doprowadzi do niekorzystnego rozporządzenia mieniem?
Nie ma na to krótkiej odpowiedzi, ale wiąże się z tym pewna obserwacja. "Oto fakt: ludzka inteligencja nie jest dłużej definiowana poprzez produkowanie lepszych odpowiedzi. Definiuje ją ponoszenie konsekwencji za odpowiedzi, których w pełni nie wygenerowaliśmy i, ośmielę się powiedzieć, zwykle w pełni nie rozumiemy. Wielu z nas już czuje tę zmianę, nawet jeśli nie potrafi jej nazwać" - pisze Nosta.
Niepewna przyszłość inteligencji. AI nas ujarzmi?
Możemy w związku z tym odczuwać dyskomfort. Jak gdyby ktoś za nas produkował myśli i wnioski, a my jedynie się pod nimi podpisujemy. Możemy też się obawiać, że staniemy się ofiarami ideologicznej manipulacji, jeśli twórcy czatbota zaprogramują go według jakichś wytycznych. Może to przypominać oglądanie w kółko tylko jednej stacji telewizyjnej i czerpanie z niej całej wiedzy o świecie oraz kształtowanie w ten sposób poglądów. Ta stacja raczej nie będzie krytyczna wobec siebie samej. Nie znając innych perspektyw, człowiek będzie więc jej ufał bezkrytycznie.
Tradycyjne media miały jednak wyraźnych autorów, którzy ponosili odpowiedzialność za rozpowszechniane treści. W przypadku AI jest wiedza, ale autorstwo nie istnieje. Owszem, jeśli dobrze pójdzie, to czatbot poda nam źródła (prawdziwe, nie wyhalucynowane), z których zaczerpnął dane informacje. Ale też nie wiemy, czy owe źródła także nie powstały z użyciem AI.
Co dalej? "Przyszłość inteligencji to nie rywalizacja między umysłami. To test, czy ludzie będą chcieli pozostać odpowiedzialni w świecie, w którym inteligencja nie potrzebuje ich już do funkcjonowania" - przewiduje ekspert.
Nie wiadomo, jak to się skończy. Można sięgnąć do literackiej fikcji wybiegającej do okolic roku 24000. "Kiedyś ludzie scedowali myślenie na maszyny z nadzieją, że dzięki temu będą wolni, ale umożliwili tylko innym ludziom i ich maszynom ujarzmienie siebie" - Frank Herbert, Diuna.









