OpenAI wprowadza zaawansowaną funkcję głosową dla wszystkich subskrybentów ChatGPT Plus i Team
Spieszysz się? Oto najważniejsze informacje!
- Użytkownicy Premium będą mieli dostęp do funkcji Zaawansowany Głos do końca tygodnia
- Funkcja audio nie jest dostępna w niektórych krajach europejskich.
- To nie jest usługa bez limitu, na jej korzystanie obowiązuje dzienny limit
OpenAI wprowadziło zaawansowany model głosu dla interakcji audio z asystentem AI ChatGPT dla wszystkich członków subskrypcji ChatGPT Plus i Team. Użytkownicy będą mogli wypróbować tę funkcję w najbliższych dniach.
„Zaawansowany Głos jest wprowadzany dla wszystkich użytkowników Plus i Team w aplikacji ChatGPT w ciągu tygodnia”, podzieliła się informacją firma na swoim koncie X—niedawno zhakowanym w celu przeprowadzenia oszustwa kryptowalutowego— w ten wtorek. „Podczas gdy cierpliwie czekaliście, dodaliśmy własne instrukcje, pamięć, pięć nowych głosów i ulepszyliśmy akcenty.”
Aby pokazać, jak można wykorzystać funkcję głosową, startup pokazał film, na którym kobieta prosi asystenta AI o przeproszenie jej babci po mandaryńsku za spóźnienie.
Zaawansowany Głos jest wprowadzany do wszystkich użytkowników Plus i Team w aplikacji ChatGPT w ciągu tygodnia.
Podczas gdy cierpliwie czekaliście, dodaliśmy Personalizowane Instrukcje, Pamięć, pięć nowych głosów i udoskonaliliśmy akcenty.
Potrafi również powiedzieć „Przepraszam, że się spóźniłam” w ponad 50 językach. pic.twitter.com/APOqqhXtDg
— OpenAI (@OpenAI) 24 września 2024
OpenAI wprowadziło funkcję po raz pierwszy w lipcu, ale tylko dla wybranych subskrybentów ChatGPT Plus, tym razem, interakcje audio zostały rozszerzone na wszystkich członków. Jednak firma wyjaśniła, że „Zaawansowany Głos nie jest jeszcze dostępny w UE, Wielkiej Brytanii, Szwajcarii, Islandii, Norwegii i Liechtensteinie.”
Użytkownicy Team lub Plus w pozostałych regionach otrzymają powiadomienie po zaktualizowaniu najnowszej wersji i uzyskają dostęp do nowej funkcji oraz wybiorą preferowany głos.
Ta funkcja głosowa była kontrowersyjna od momentu jej zapowiedzi wcześniej w tym roku, kiedy OpenAI po raz pierwszy przedstawiło model GPT-4o, ponieważ aktorka Scarlett Johansson narzekała na głos „Sky” z powodu jego podobieństwa do jej głosu.
Głos Sky został usunięty przez OpenAI, a firma właśnie dodała pięć nowych głosów: Vale, Spruce, Arbor, Maple i Sol.
Zgodnie z informacjami zawartymi na stronie CNBC, funkcja głosowa nie jest nieograniczona, po kilku minutach użytkowania pojawia się wiadomość z pozostałymi minutami na dany dzień. OpenAI nie udostępniło jeszcze szczegółów dotyczących codziennego limitu.
Zostaw komentarz
Anuluj odpowiedź