Google Gemini 2.0 już jest. AI z nowymi możliwościami
Gemini 2.0 to nowy model sztucznej inteligencji Google, który wprowadza nowe osiągnięcia w zakresie multimodalności. Wśród nich wymienia się możliwość natywnego generowania obrazów czy dźwięku. Użytkownicy otrzymali do dyspozycji Gemini 2.0 Flash, które wyróżnia się mniejszymi opóźnieniami i lepszą wydajnością.
Google nie zwalnia i cały czas rozwija własną sztuczną inteligencję. Gigant z Mountain View poinformował o dostępności nowego modelu AI w postaci Gemini 2.0. Wprowadza on mnóstwo udoskonaleń, które są efektem inwestycji prowadzonych przez firmę od dekady.
Gemini 2.0 to lepsza sztuczna inteligencja Google
Gemini 2.0 to najnowszy model sztucznej inteligencji Google, który jest efektem wielu lat pracy. Wraz z wydaniem 1.0 firma skupiła się na porządkowaniu i interpretowaniu informacji. Teraz idzie o krok dalej. Najnowsza wersja ma sprawić, że informacje staną się bardziej przydatne.
Google twierdzi, że Gemini 2.0 wprowadza różne udoskonalenia z zakresu multimodalności. Firma chwali się m.in. natywnym generowaniem obrazów czy dźwięku. Ponadto nowy model jest w stanie wywoływać wyszukiwarkę, wykonywać kod czy uruchamiać funkcje zdefiniowane przez użytkowników.
Dziś z radością wkraczamy w kolejną erę modeli opracowanych z myślą o nowej epoce agentowej: przedstawiamy Gemini 2.0, nasz najbardziej zaawansowany model. Dzięki nowym osiągnięciom w zakresie multimodalności, takim jak natywne generowanie obrazu i dźwięku czy korzystanie z narzędzi natywnych, będziemy mogli tworzyć nowe agenty sztucznej inteligencji, pomagające w realizacji naszej wizji stworzenia uniwersalnego asystenta.
Eksperymentalna wersja Gemini 2.0 Flash
Google poinformowało, że nowy model AI trafia w pierwszej kolejności w ręce deweloperów oraz zaufanych testerów. Otrzymali oni eksperymentalną wersję o nazwie Gemini 2.0 Flash. Ponadto z nowych możliwości można korzystać także na telefonach lub komputerach z Gemini, po wyborze z menu aplikacji internetowej.
Co z aplikacją mobilną Gemini na telefony? Google wyjaśnia, że rozwiązania z modelu 2.0 pojawią się także tutaj, co ma nastąpić w niedługim czasie. To sprawi, że cyfrowy asystent stanie się bardziej pomocny.
Google przekazało informacje o jeszcze innej nowości. Mowa o Deep Research, które zostało udostępnione użytkownikom Gemini Advanced. Funkcja ma pozwolić na badanie złożonych tematów i prezentowanie znalezionych wyników w postaci czytelnych raportów.
Wprowadzamy również nową funkcję o nazwie Deep Research, która wykorzystuje funkcje zaawansowanego rozumowania i długiego kontekstu, aby działać jako asystent badający złożone tematy i kompilujący raporty w imieniu użytkownika.
Na koniec warto wspomnieć o postępach prac nad agentami. Google zaprezentowało prototypy, które oparto na natywnych multimodalnych możliwościach z Gemini 2.0.