Wirtualni Pracownicy Mogą Pojawić się w Zespołach Pracy Już w Tym Roku, Przewiduje CEO OpenAI

Image by TechCrunch, from Flickr

Wirtualni Pracownicy Mogą Pojawić się w Zespołach Pracy Już w Tym Roku, Przewiduje CEO OpenAI

Przeczytasz w: 3 min

Agenci sztucznej inteligencji, zdolni do samodzielnego wykonywania zadań, mogą dołączyć do siły roboczej już w tym roku, przekształcając działalność biznesową, według CEO OpenAI, Sama Altmana.

Spieszysz się? Oto szybkie fakty!

  • AI agent „Operator” od OpenAI zautomatyzuje zadania takie jak pisanie kodu czy rezerwowanie podróży.
  • McKinsey przewiduje, że do 2030 roku 30% godzin pracy w USA może zostać zautomatyzowane.
  • Altman wyraża przekonanie w możliwość stworzenia sztucznej inteligencji ogólnej (AGI) oraz superinteligencji.

W poście na blogu opublikowanym w poniedziałek, Altman stwierdził, że wirtualni pracownicy zasilani przez AI mogą zrewolucjonizować wydajność firmy, przejmując zadania tradycyjnie wykonywane przez ludzi. The Guardian zauważa, że Microsoft, największy sponsor OpenAI, już wprowadził agentów AI, a gigant konsultingowy McKinsey jest jednym z pierwszych, którzy zdecydowali się na adopcję tej technologii.

„Jesteśmy przekonani, że w 2025 roku możemy zobaczyć pierwsze agentów AI „dołączających do siły roboczej” i istotnie zmieniających wydajność firm. Nadal wierzymy, że iteracyjne wprowadzanie doskonałych narzędzi w ręce ludzi prowadzi do świetnych, szeroko dystrybuowanych wyników,” – napisała Altman na blogu.

Podobno OpenAI ma wkrótce uruchomić agenta AI, o kodowej nazwie „Operator„. Narzędzie to ma automatyzować takie zadania jak pisanie kodu czy rezerwowanie podróży w imieniu użytkowników. Ten krok następuje po wydaniu przez Microsoft’a Copilota Studio, Anthropic’s Claude 3.5 Sonnet, agentów AI Meta z cielesnymi postaciami i nowymi funkcjami AI w Slacku od Salesforce’a.

McKinsey już pracuje nad stworzeniem agenta, który usprawniłby obsługę zapytań klientów, w tym planowanie kolejnych spotkań. Firma przewiduje, że do 2030 roku, nawet 30% godzin pracy w całej amerykańskiej gospodarce mogłoby zostać zautomatyzowanych, jak zauważono w The Guardian.

Szarża AI w Microsoft, Mustafa Suleyman, również wyraził optymizm w kwestii agentów zdolnych do podejmowania decyzji zakupowych. W wywiadzie dla WIRED opisał on „zdumiewające prezentacje” dotyczące AI samodzielnie zakończonych transakcji, ale przyznał, że rozwój niesie ze sobą wyzwania. Suleyman przewiduje, że te zaawansowane możliwości mogą się pojawić „w ciągu kwartałów, a nie lat”.

Blog Altmana poruszył również kwestię pewności OpenAI co do stworzenia sztucznej inteligencji ogólnej (AGI) – systemów AI, które przewyższają ludzką inteligencję. „Jesteśmy teraz pewni, że wiemy, jak zbudować AGI, tak jak zawsze to rozumieliśmy,” napisał.

Patrząc poza AGI, Altman nakreślił ambicje OpenAI dla „superinteligencji”, którą opisał jako narzędzia, które mogłyby znacząco przyspieszyć odkrycia naukowe i innowacje.

„Superinteligentne narzędzia mogą znacząco przyspieszyć odkrycia naukowe i innowacje, daleko poza to, co jesteśmy w stanie zrobić sami, co z kolei może znacząco zwiększyć dobrobyt i pomyślność” – napisała Altman, wyrażając entuzjazm dla przyszłości, w której takie postępy przekształcają ludzki potencjał.

Gwałtowny rozwój AI w sferze pracy ma szerokie implikacje dla produktywności biznesu oraz gospodarki. Jednak wraz z ewolucją agentów AI pojawiają się nowe ryzyka związane z bezpieczeństwem.

Niedawne badanie, opublikowane przez Medium, zwróciło uwagę na takie podatności jak nieprzewidywalne, wieloetapowe interakcje użytkowników, złożoność wewnętrznego wykonania, zmienność środowisk operacyjnych oraz interakcje z niezaufanymi jednostkami zewnętrznymi.

Niejasne lub niekompletne dane wejściowe od użytkowników mogą wywołać niezamierzone działania, podczas gdy wewnętrzne procesy agentów AI często nie posiadają możliwości obserwacji w czasie rzeczywistym, co utrudnia wykrywanie zagrożeń bezpieczeństwa. Ponadto, agenty działające w różnorodnych środowiskach mogą wykazywać niespójne zachowania, a zaufanie do jednostek zewnętrznych bez odpowiedniej weryfikacji może narazić agentów na ataki.

Te wyzwania podkreślają potrzebę solidnych ram bezpieczeństwa w celu ochrony agentów AI i zapewnienia ich bezpiecznego wdrożenia w realnych scenariuszach.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Zostaw komentarz

Loader
Loader Pokaż więcej...