Nowy GPT-4o potrafi rozmawiać w czasie rzeczywistym i... okazuje emocje

Nowy model językowy GPT-4o od OpenAI wprowadza rewolucyjne zmiany w komunikacji z maszynami. Potrafi on prowadzić rozmowy w czasie rzeczywistym, a także wyrażać emocje, co czyni interakcję z nim bardziej naturalną i ludzką. To znaczący krok naprzód w dziedzinie sztucznej inteligencji, otwierający całkowicie nowe możliwości.

GPT-4o jest bardziej ludzki niż jakikolwiek inny model AI
GPT-4o jest bardziej ludzki niż jakikolwiek inny model AINICOLAS MAETERLINCK / BELGA MAG / Belga via AFPAFP

OpenAI wypuściło zapowiedź nowego modelu SI, który potrafi rozmawiać z użytkownikami w czasie rzeczywistym oraz odczytywać mimikę twarzy i interpretować emocje. Ma to na celu stworzenie bardziej naturalnej i intuicyjnej interakcji człowiek-komputer. Model ten, nazwany GPT-4o został rozbudowany o szereg nowych funkcji względem poprzednika.

Chat GPT-4o zachwyca swoimi możliwościami

Podczas transmisji na żywo, inżynierowie OpenAI wraz z CTO Mirą Murati zaprezentowali możliwości GPT-4o z wykorzystaniem smartfona. Demonstracja pokazała, jak płynnie asystent może dostosowywać styl komunikacji. Z jednej strony, zachęcano go do większej ekspresji podczas opowiadania bajki na dobranoc, a następnie żartobliwie proszono o zmianę głosu w taki sposób, aby przypominał on robota. Na zakończenie poproszono model o zaśpiewanie zakończenia historii.

Możliwości asystenta nie ograniczały się jednak tylko płynnej do rozmowy. Potrafił on również analizować obraz z kamery telefonu i reagować na to, co widział na ekranie. Obserwując aranżację pomieszczenia, w którym znajdował się jeden z inżynierów model bez problemu wydedukował, że nagrywany jest profesjonalny filmik. GPT-4o nawet zawstydził się gdy dowiedział się, że filmik jest zapowiedzią dotyczącą jego. Co więcej, model imponująco radził sobie z przerwaniem jego wypowiedzi przez człowieka, kontynuując konwersację bez dodatkowych poleceń.

Nowy głos i tryb wideo to najlepszy interfejs komputerowy jaki kiedykolwiek używałem. Korzystając z niego można poczuć się jak w filmie i wciąż jest to dla mnie niesamowite, że to już jest rzeczywistość.
Sam Altman dyrektor generalny OpenAI

Kiedy nowe funkcje ChataGPT będą dostępne?

Dodane funkcje stanowią znaczący krok naprzód względem obecnego trybu głosowego w ChatGPT. Choć obecna wersja umożliwia rozmowę z użytkownikiem, interakcja jest znacznie bardziej ograniczona. Na przykład, aktualny model nie radzi sobie z przerwami w konwersacji ani nie reaguje na to, co widzi kamera urządzenia.

Nowe możliwości zostaną uruchomione w ramach ograniczonej wersji alfa w ciągu najbliższych tygodni. Jako pierwsi dostęp uzyskają subskrybenci ChatGPT Plus, a następnie funkcje te zostaną udostępnione szerszemu gronu użytkowników.

***

Bądź na bieżąco i zostań jednym z 90 tys. obserwujących nasz fanpage - polub Geekweek na Facebooku i komentuj tam nasze artykuły!

INTERIA.PL
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas