OpenAI Wprowadza Funkcję Głosową dla ChatGPT Plus
Open AI wypuściło swoją funkcję głosową dla ChatGPT Plus dla niewielkiej liczby subskrybentów wczoraj. Zgodnie z obietnicami z maja, złożonymi podczas wiosennej aktualizacji OpenAI na żywo, użytkownicy wreszcie będą mogli wypróbować dźwiękową wersję rozmownego asystenta AI.
„Zaczynamy wprowadzać zaawansowany Tryb Głosowy dla niewielkiej grupy użytkowników ChatGPT Plus” – napisało OpenAI na X, „Zaawansowany Tryb Głosowy oferuje bardziej naturalne, rozmowy w czasie rzeczywistym, pozwala przerwać w dowolnym momencie i wyczuwa oraz reaguje na Twoje emocje.”
Zaczynamy wprowadzać zaawansowany Tryb Głosowy do małej grupy użytkowników ChatGPT Plus. Tryb Głosowy oferuje bardziej naturalne, prowadzone w czasie rzeczywistym rozmowy, pozwala przerwać w dowolnym momencie i odczuwa oraz reaguje na Twoje emocje. pic.twitter.com/64O94EhhXK
— OpenAI (@OpenAI) 30 lipca 2024
Firma dodała, że użytkownicy, którzy będą testować wersję alpha, otrzymają email z instrukcjami, jak korzystać z Trybu Głosowego.
Zgodnie z informacjami podanymi przez Forbes, OpenAI opóźniło swoje wprowadzenie na rynek, które pierwotnie miało nastąpić w czerwcu, ze względu na obawy dotyczące bezpieczeństwa i konieczność wprowadzenia poprawek. Firma stwierdziła, że potrzebuje więcej czasu, aby osiągnąć „standard uruchomienia”. OpenAI wycofało się po tym, jak aktorka Scarlett Johansson zażądała więcej informacji na temat głosu asystenta AI o nazwie „Sky”, który był „niesamowicie podobny” do jej głosu.
Głos Sky – używany podczas prezentacji na żywo – nie jest dostępny w nowej wersji, a OpenAI nie ujawniło więcej informacji na temat źródła tego głosu.
Według MIT Technology Review, nowy model głosowy oparty na GPT4-o będzie zdolny do prowadzenia bardziej naturalnych rozmów w porównaniu do Siri i Alexy, a także do rozpoznawania emocji, reagowania na przerywania oraz łączenia i integrowania zdolności tekstowych i wizualnych.
OpenAI oczekuje na więcej informacji zwrotnych w tym okresie przed udostępnieniem głosowego chatbota szerszej publiczności później w tym roku, jesienią. Firma oznajmiła, że przetestowała model z pomocą ponad 100 zewnętrznych członków zespołu testującego, w 45 językach, w 29 krajach.
Jednym z czynników bezpieczeństwa rozważanych przed uruchomieniem funkcji głosowej były dźwiękowe deepfakes. Nowy model głosu nie będzie mógł tworzyć dźwiękowych deepfakes, a będzie korzystać tylko z czterech głosów wybranych we współpracy z aktorami.
OpenAI planuje wkrótce wprowadzić więcej funkcji—takich jak udostępnianie wideo i ekranu—dla swojego modelu asystenta AI. Zaledwie kilka dni temu, firma technologiczna wypuściła nową wyszukiwarkę internetową zasilaną przez AI o nazwie SearchGPT która ma konkurować z Google.
Zostaw komentarz
Anuluj odpowiedź