OpenAI wprowadza nowy, zaawansowany model GPT-4o, który wkrótce będzie dostępny dla wszystkich
W trakcie poniedziałkowego wydarzenia OpenAI Spring Update firma OpenAI ujawniła nowy, bardziej zaawansowany model ChatGPT o nazwie GPT-4o. GPT-4o działa szybciej od GPT-4 i potrafi jednocześnie przetwarzać tekst, dźwięk i obraz – zasadniczo „widzi” przez kamerę urządzenia.
Podczas 26-minutowego streamu na żywo zespół OpenAI zaprezentował funkcje i możliwości nowego modelu w czasie rzeczywistym. Poznaliśmy też szczegóły dotyczące nadchodzących aktualizacji poprzednich wersji. Firma wspomniała m.in. o nowej aplikacji na komputer.
„Najważniejszą wiadomością na dziś jest to, że uruchamiamy kolejny flagowy model pod nazwą ChatGPT-4o” – powiedziała Mira Murati, dyrektor ds. technologii w OpenAI.
Jak wyjaśniła Murati, wszyscy użytkownicy, nawet osoby nieposiadające konta, otrzymają wkrótce darmowy dostęp do nowego modelu oraz dodatkowych funkcji w poprzednich wersjach. Murati dodaje – „Planujemy wdrożyć wszystko w ciągu kilku tygodni”.
Podczas pierwszej prezentacji zespół OpenAI pokazał, w jaki sposób GPT-4o uczestniczy w rozmowie, mówiąc kobiecym głosem, reaguje na wtrącenia ze strony użytkowników, udziela szybkich, kreatywnych, a nawet dowcipnych odpowiedzi, a do tego rozpoznaje emocje i służy radą.
Później zespół przedstawił różne scenariusze, w których można wykorzystać GPT-4o. Dowiedzieliśmy się między innymi, że model potrafi wykorzystać „widzenie” do rozwiązywania równań liniowych zapisanych na kartce, zrozumieć działanie kodu i treść materiałów graficznych udostępnianych z poziomu aplikacji desktopowej, a także symultanicznie tłumaczyć rozmowy na żywo. GPT-4o potrafi mówić w wielu językach, wykorzystując różne tony i style głosu.
Wreszcie eksperci pokazali, że model rozpoznaje emocje, ale też popełnia błędy. W trakcie demonstracji GPT-4o kilkukrotnie się zgliczował. W którymś momencie bez wyraźnego powodu pokazał prezenterowi zdjęcie drewna, a innym razem uznał, że problem matematyczny został już rozwiązany, choć członek zespołu jeszcze go nie przedstawił.
Mimo wszystko GPT-4o szybko przeprosił i oczarował publiczność swoimi odpowiedziami i reakcjami. „Przestań, bo się zarumienię!” – takie zdanie padło z „ust” modelu GPT-4o, gdy jeden z kierowników badania, Barret Zoph, powiedział, jak bardzo go podziwia.
Reakcje na ujawnienie GPT-4o
Firma OpenAI udostępniła kilka krótkich filmów na X, aby zaprezentować różnorodne możliwości nowego modelu GPT-4o.
Kilku użytkownikom platformy od razu skojarzyło się to z filmem Ona, w którym główny bohater, Theodore Twombly – postać grana przez Joaquina Phoenixa – zakochuje się w wirtualnej asystentce SI, której głos podkłada Scarlett Johanson. „Ale odjazd, jak tylko zobaczyłem te klipy, od razu skojarzył mi się ten film!” – skomentował jeden z użytkowników. „To normalnie Scarlett Johansson. Jakim cudem?!” – dodał kolejny.
Choć nowe funkcje zachwyciły większość użytkowników, inni podzielili się kilkoma krytycznymi uwagami i obawami. „Drogie @openai, wasze demo było wyjątkowo imponujące i przerażające, ale włoski akcent wyszedł fatalnie :)” – skomentował Massimo Banzi, współzałożyciel projektu Arduino zajmującego się zrobotyzowaną automatyzacją.
Inny użytkownik dodał z kolei – „Naprawdę super, ale uważam, że jeśli darmowa wersja będzie się różnić jedynie narzuconym limitem, możecie stracić wielu użytkowników płatnej subskrypcji”.
W najbliższych dniach firma udostępni nowy model i aktualizacje do testowania kolejnym użytkownikom, którzy będą mogli doświadczyć możliwości technologii na własnej skórze.
Zostaw komentarz
Anuluj odpowiedź