Nowy GPT-4o potrafi rozmawiać w czasie rzeczywistym i... okazuje emocje
Nowy model językowy GPT-4o od OpenAI wprowadza rewolucyjne zmiany w komunikacji z maszynami. Potrafi on prowadzić rozmowy w czasie rzeczywistym, a także wyrażać emocje, co czyni interakcję z nim bardziej naturalną i ludzką. To znaczący krok naprzód w dziedzinie sztucznej inteligencji, otwierający całkowicie nowe możliwości.
OpenAI wypuściło zapowiedź nowego modelu SI, który potrafi rozmawiać z użytkownikami w czasie rzeczywistym oraz odczytywać mimikę twarzy i interpretować emocje. Ma to na celu stworzenie bardziej naturalnej i intuicyjnej interakcji człowiek-komputer. Model ten, nazwany GPT-4o został rozbudowany o szereg nowych funkcji względem poprzednika.
Chat GPT-4o zachwyca swoimi możliwościami
Podczas transmisji na żywo, inżynierowie OpenAI wraz z CTO Mirą Murati zaprezentowali możliwości GPT-4o z wykorzystaniem smartfona. Demonstracja pokazała, jak płynnie asystent może dostosowywać styl komunikacji. Z jednej strony, zachęcano go do większej ekspresji podczas opowiadania bajki na dobranoc, a następnie żartobliwie proszono o zmianę głosu w taki sposób, aby przypominał on robota. Na zakończenie poproszono model o zaśpiewanie zakończenia historii.
Możliwości asystenta nie ograniczały się jednak tylko płynnej do rozmowy. Potrafił on również analizować obraz z kamery telefonu i reagować na to, co widział na ekranie. Obserwując aranżację pomieszczenia, w którym znajdował się jeden z inżynierów model bez problemu wydedukował, że nagrywany jest profesjonalny filmik. GPT-4o nawet zawstydził się gdy dowiedział się, że filmik jest zapowiedzią dotyczącą jego. Co więcej, model imponująco radził sobie z przerwaniem jego wypowiedzi przez człowieka, kontynuując konwersację bez dodatkowych poleceń.
Nowy głos i tryb wideo to najlepszy interfejs komputerowy jaki kiedykolwiek używałem. Korzystając z niego można poczuć się jak w filmie i wciąż jest to dla mnie niesamowite, że to już jest rzeczywistość.
Kiedy nowe funkcje ChataGPT będą dostępne?
Dodane funkcje stanowią znaczący krok naprzód względem obecnego trybu głosowego w ChatGPT. Choć obecna wersja umożliwia rozmowę z użytkownikiem, interakcja jest znacznie bardziej ograniczona. Na przykład, aktualny model nie radzi sobie z przerwami w konwersacji ani nie reaguje na to, co widzi kamera urządzenia.
Nowe możliwości zostaną uruchomione w ramach ograniczonej wersji alfa w ciągu najbliższych tygodni. Jako pierwsi dostęp uzyskają subskrybenci ChatGPT Plus, a następnie funkcje te zostaną udostępnione szerszemu gronu użytkowników.
***
Bądź na bieżąco i zostań jednym z 90 tys. obserwujących nasz fanpage - polub Geekweek na Facebooku i komentuj tam nasze artykuły!