Google szkoli AI tylko po to by… wyjaśniało żarty
Wiadomo, że krotochwile są czasami tak zawiłe, że puenta może nam umknąć. Jednak nie ma co się lękać! Na ratunek przyjdzie sztuczna inteligencja Google, która wyjaśni żart wszelkim poślednim umysłom.
Często natrafiamy na coś hucznie nazywanego sztuczną inteligencją, lecz po bliższym przyjrzeniu się, okazuje się, że nie ma to z inteligencją nic wspólnego. Często to pojęcie jest eksploatowane przez producentów, którzy nad wyrost nazywają swoją technologię "inteligencją". Istnieją jednak AI, które jednocześnie fascynują i przerażają. Są one opatrzone w funkcję uczenia maszynowego, co wraz z ekspozycją na dane sprawia, że są w stanie poprawiać własne algorytmy.
Taka technologia mogłaby dosłownie być śmiercionośna, gdyby trafiła do niewłaściwych rąk i została wykorzystana do złych celów. Naukowcy udowodnili to już jakiś czas temu, gdy pozwolili jej badać toksyczne cząsteczki. AI w ciągu zaledwie sześciu godzin opracowało 40 tysięcy kombinacji tworzących potencjalną broń biologiczną lub chemiczną.
Innym znanym przypadkiem jest GPT-3, sztuczna inteligencja wykorzystujące głębokie uczenie do tworzenia tekstu jak najbardziej zbliżonego do ludzkiego. To AI stało się nawet współautorem książki, która jest aktualnie dostępna do kupienia.
Google też pracuje nad swoją własną sztuczną inteligencją z uczeniem maszynowym. Ich AI nie będzie jednak wynajdywać broni biologicznej ani pisać książek. Google uczy ją żartów. Z niedawno opublikowanego raportu dowiadujemy się, że Google wyszkoliło nowy model językowy o nazwie PaLM. Jest on w stanie nie tylko tworzyć realistyczny tekst, który można byłoby pomylić z ludzkim, lecz również interpretuje żarty i jest w stanie wyjaśnić ich istotę.
Google w swoim dokumencie przedstawiło kilka przykładów zdolności PaLM do logicznego rozumowania złożonych zdań językowych, których znaczenie zależy w dużym stopniu od kontekstu wypowiedzi. Udało im się znacznie poprawić zdolność analizowania wieloetapowych problemów logicznych poprzez wytworzenie symulacji procesu myślowego człowieka.
PaLM jest największym modelem językowym, jaki został kiedykolwiek stworzony. Składa się on z 540 miliardów parametrów, czyli elementów, które są ulepszane podczas uczenia maszynowego. Dla porównania, GPT-3 składa się z "zaledwie" 175 miliardów parametrów.