Cały świat zachłysnął się tą technologią w 2023 roku. Co o niej wiemy?

W 2023 przyznanie tytułu technologii roku było zadaniem wyjątkowo prostym, a zwycięzca może być tylko jeden – to sztuczna inteligencja. Choć historia tej dziedziny ma już niemal 70 lat, to "rewolucja AI" zawitała do szerokiej publiczności na przestrzeni ostatnich miesięcy. O możliwościach i wadze nowej generacji dużych modeli językowych najlepiej świadczy fakt, że zaledwie kilka tygodni od premiery ChatGPT, o swoją przyszłość drżał taki gigant jak Google. W tym artykule przybliżamy wciąż jeszcze młodą historię OpenAI i ich największego dzieła, a także dotychczasowy przebieg rywalizacji dwóch gigantów – Google i stojącego za plecami ChatGPT Microsoftu.

Sztuczna inteligencja to bez wątpienia najgłośniejszy temat technologiczny nie tylko roku 2023, ale przynajmniej ostatniej dekady. Jak wyglądały pierwsze miesiące po premierze ChatGPT? Gdzie upatrywać źródeł obecnej "rewolucji AI"?
Sztuczna inteligencja to bez wątpienia najgłośniejszy temat technologiczny nie tylko roku 2023, ale przynajmniej ostatniej dekady. Jak wyglądały pierwsze miesiące po premierze ChatGPT? Gdzie upatrywać źródeł obecnej "rewolucji AI"?123RF/PICSEL

ChatGPT to technologia 2023 roku

30 listopada 2022 roku OpenAI zaprezentowało światu ChatGPTPo pięciu dniach platforma miała już milion użytkowników, ale to był dopiero początek triumfalnego pochodu, a na dobrą sprawę sprintu sztucznej inteligencji, która za sprawą modelu GPT-3.5 zawitała "pod strzechy". Dziedzinie nauki, które początki sięgają 1956 roku, przebicie się do globalnej świadomości zajęło to 67 lat.

ChatGPT to zwieńczenie kilku lat pracy dość niezwykłej grupy ludzi skupionej wokół Sama Altmana - budzącego wiele skrajnych emocji, ale bez wątpienia inteligentnego i oddanego swojej wizji szefa OpenAI (z krótką przerwą na niedawną aferę). Firma powstała w 2015 roku, a pierwszą wersję swojego dużego modelu językowego (LLM) opracowała w 2018. Nie był to jednak ani pierwszy LLM, ani nawet pierwszy z podkategorii określanej w literaturze jako modele oparte na transformatorach.

Wszechobecny w ostatnim roku skrót GPT utworzono od słów generative pre-trained transformers - wstępnie trenowanych generatywnych modeli językowych opartych na architekturze transformatorowej. Obecna generacja chatbotów to w znacznej mierze właśnie ta technologia, którą - o ironio - jako pierwszy opisał zespół badawczy Google w 2017 roku.

Co stało za trudnym do wyobrażenia sobie jeszcze dzień przed premierą sukcesem ChatGPT? Z pewnością jednym z czynników była jego dostępność - całość została opakowana w minimalistyczny i banalnie prosty interfejs z oknem dialogowym, co pozwalało wypróbować jego możliwości z poziomu przeglądarki, bez nawet najmniejszej nawet wiedzy z zakresu uczenia maszynowego (czy średniozaawansowanej obsługi komputera).

Kluczowa była jednak forma komunikowania się między użytkownikiem i sztuczną inteligencją - ChatGPT stał się symbolem zatarcia granicy między językiem maszynowym i językiem naturalnym. Okazało się, że model "rozumie" ludzkie, często niedoskonałe wypowiedzi i jest w stanie skonstruować adekwatną i równie zrozumiałą dla zwykłego człowieka odpowiedź.

Nie byłoby to jednak aż tak przełomowe, gdyby tyczyło się tylko wąskiego zakresu wiedzy. Aplikacja oparta o AI z propozycjami przepisów i wskazówkami na temat gotowania byłaby co najwyżej głośną ciekawostką, ale nikt nie okrzyknąłby jej rewolucją, która zmieni świat. Różnica wynika z zasobu i jakości zbioru danych, na jakich trenowany był model GPT-3.5, a był to nie byle jaki zbiór. Materiały szkoleniowe, a także spokój od strony finansowej zapewnił gigant na miarę Google i przy okazji jego odwieczny rywal - Microsoft, mniejszościowy udziałowiec od 2019 roku.

Dwa miesiące - tyle ChatGPT potrzebował na zgromadzenie 100 milionów aktywnych użytkowników. Dla porównania poprzedni rekord w tej kategorii dzierżył TikTok, któremu to samo zajęło 9 miesięcy. Instagram potrzebował z kolei aż 2,5 roku. W tym momencie było już właściwie jasne, że przekroczyliśmy kolejny próg postępu, a sztuczna inteligencja za moment będzie obecna w codziennym życiu większości z nas.

U progu nowego roku jesteśmy już tego pewni - ChatGPT i setki innych podobnych modeli wykorzystują uczniowie i nauczyciele, programiści, księgowe, urzędnicy, influencerzy, lekarze, animatorzy dzieci i wodzireje weselni - przydatność sztucznej inteligencji w tych i setkach innych branż jest zresztą powodem pełzającego lęku wielu z nas o zachowanie miejsc pracy. Swoje własne modele językowe opracowują poszczególne państwa, samorządy i tysiące publicznych instytucji.

W wielu urzędach chatboty są już nieodłącznym narzędziem w arsenale pracowników. Przykładów dobitnie ukazujących skalę ich możliwości nie trzeba szukać daleko. W Polsce sztuczna inteligencja ma pomóc w rozwiązaniu problemu, który toczy nasz kraj właściwie od zawsze - kolejki do lekarzy i zbyt mało czasu dla pacjentów. Pomóc ma Parrot AI - platforma, której budowa już trwa.

W tym miejscu trzeba też zauważyć jeszcze jeden niesamowicie istotny czynnik, który stoi za ogromnym sukcesem sztucznej inteligencji - tworzenie opartych o nią rozwiązań jest relatywnie tanie.

Parrot AI według założeń ma kosztować 11 milionów złotych. Przyjmijmy, że jak zwykle kwoty okażą się niedoszacowane - nawet gdyby miały wzrosnąć 10-krotnie do ponad 100 milionów złotych, to w porównaniu z nakładami pieniędzy koniecznymi na wykształcenie i zatrudnienie takiej liczby lekarzy i innych pracowników zdolnych do porównywalnego odciążenia systemu byłaby z pewnością liczona w miliardach, a całość potrwałaby kilkanaście lat...

Wracając do OpenAI - po zawrotnym sukcesie darmowego ChatGPT firma nie zwalniała tempa, 14 marca zaprezentowała kolejną generację GPT oznaczoną numerem 4. Dla szefostwa Google musiał być to jednoczesny cios między oczy i między nogi. W biurach firmy trwał właśnie szalony wyścig z czasem o jak najszybsze wypuszczenie swojej odpowiedzi na ChatGPT. Finalnie OpenAI zdążyło zaprezentować kolejną, tym razem płatną wersję swojego chatbota na 7 dni przed premierą Barda - odpowiedzi równie spóźnionej, co niedopracowanej.

Google nie chce być w tyle. Ogłosił Google Bard

21 marca 2023 świat po raz pierwszy miał okazję wypróbować Barda - odpowiedź Googla, na ChatGPT, za którym stał ich odwieczny rywal - Microsoft. Te dni w kwaterach Googla musiały być wyjątkowo ponure - po raz pierwszy od ponad dekady firmie realnie zajrzało w oczy widmo utraty pozycji niekwestionowanego lidera wśród wyszukiwarek. Microsoft szybko zapowiedział implementację technologii w swojej przeglądarce i w wyszukiwarce Bing, która zmieniła się w Copilota.

Wszyscy pracowali więc w pocie czoła nad jak najszybszym dopracowaniem Barda. Pośpiech jak zwykle nie okazał się w tej sytuacji sprzymierzeńcem - premiera modelu wypadła niespecjalnie. Szybko wyszło na jaw, że część zaprezentowanych odpowiedzi była "ustawką". Użytkownicy testujący Barda na własną rękę szybko potwierdzili, że problemem nie był słaby scenariusz premiery, a Bard po prostu radzi sobie znacznie gorzej niż ChatGPT. Jego odpowiedzi były mniej oryginalne, mniej adekwatne, pojawiało się znacznie więcej błędów i konfabulacji, a do tego model łatwo było sprowokować do generowania obraźliwych, np. rasistowskich odpowiedzi.

Kolejne miesiące przyniosły jednak znaczącą poprawę osiągów Barda, choć jeśli chodzi o generowanie odpowiedzi w języku naturalnym to liderem pozostał ChatGPT Plus oparty o GPT-4.  Już w maju model PaLM (Pathways Language Model)  doczekał się poprawionej wersji - PaLM 2. Google chciał skupić się na głębszym zrozumieniu matematyki, logiki, rozumowania i nauki, co oznacza, że duża część danych szkoleniowych PaLM 2 koncentrowała się na wyżej wymienionych tematach. Google twierdzi w swoich opracowaniach, że korpus przedtreningowy PaLM 2 składa się m.in. z dokumentów internetowych, książek, fragmentów kodu, matematyki i danych konwersacyjnych.

Specjaliści uczestniczący przy projektowaniu modelu, zapewniali, że PaLM 2 wygeneruje mniej toksycznych wyników przede wszystkim dlatego, że został przeszkolony na mniejszej ilości danych, unikając stron internetowych, które mogą zawierać mowę nienawiści lub inne toksyczne zachowania. Źródła takie jak Reddit, podobno nie zostały uwzględnione w zestawie szkoleniowym, co prowadzi do "czystszych" rezultatów.

Firma musiała jednak zrobić coś, co pozwoliłoby odbić część użytkowników, którzy po wcześniejszych niepowodzeniach i widocznych zaległościach w stosunku do największego rywala. Fakt, że PaLM 2 jest oprogramowaniem open-source, zamiast być zablokowanym za płatnym API jak GPT-4 daje mu szansę w tej walce o "rząd dusz", który po wpadce z pierwotnym Bardem wybrali OpenAI cieszące się dobrą prasą. 

6 grudnia Google ogłosił kolejny etap swojego planu związanego z uczeniem maszynowym, prezentując na konferencji model Gemini - ich pierwszy model multimodalny operujący nie tylko na tekście, ale też obrazów, wideo, audio i kodu. Rewolucja w branży AI postępuje tak szybko, że trudno przewidzieć co będzie największym dokonaniem na tym polu w nadchodzących miesiącach. Nie można jednak wykluczyć, że w cyklu podsumowującym rok 2024 znajdzie się miejsce na artykuł opisujący tryumfy kolejnych modeli Google.

Wszystkie te działania mają przybliżyć badaczy do stworzenia AGI, tzw. silnej (ogólnej) sztucznej inteligencji, która w największym uproszczeniu będzie posiadać zdolności kognitywne równie zaawansowane i zróżnicowane co ludzki umysł. W domyśle oznacza to, że hipotetyczny model byłby świadomy. Obecne produkty to "słaba AI", czyli modele stworzone do konkretnych celów bez faktycznego rozumienia generowanych treści.

Stworzenie konkurencyjnej inteligencji, równie świadomej co człowiek, ale z nieporównywalnie większym zasobem wiedzy, której nie ogarnąłby żaden pojedynczy umysł, niesie oczywiste zagrożenia, które obecnie spędzają sen z powiek filozofom, etykom i pracownikom różnych instytucji regulujących technologię na poziomie prawnym. Wizja wciąż wydaje się odległa, choć prawdopodobnie większości z nas równie odległa wydawała się wizja swobodnych, sensownych rozmów z komputerem jeszcze 29 listopada 2022 roku.

Czytaj także:

Zobacz też:

Suplementy nie podlegają żadnej kontroli. Łykamy je na potęgęINTERIA.PL
INTERIA.PL
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas