Czysta Linia Pomiędzy Prawdziwymi a Wygenerowanymi przez AI Filmami Może Zniknąć w 2025 Roku

Photo by ActionVance on Unsplash

Czysta Linia Pomiędzy Prawdziwymi a Wygenerowanymi przez AI Filmami Może Zniknąć w 2025 Roku

Przeczytasz w: 6 min

Treści generowane przez AI są tu na stałe. Stają się coraz lepsze i zauważyliśmy znaczący postęp w technologiach AI w 2024 roku. Czy będziemy w stanie odróżnić, co jest prawdziwe, a co nie w 2025 roku?

Niedawno zadałam sobie pytanie: „Czy to prawdziwa kobieta?” – mrużąc nieco oczy – po zobaczeniu posta na Instagramie. „Nie, to musi być generowane przez AI”, doszłam do wniosku po chwili. Potem natychmiast zastanawiałam się: Czy nadal będziemy w stanie zauważyć różnicę w ciągu sekund w przyszłym roku? Wszystko wskazuje na to, że nie, zwłaszcza w mediach społecznościowych, jak sugerują najnowsze duże postępy w technologii AI.

Kilka dni temu szef Instagrama, Adam Mosseri, opublikował wiadomość na ten temat na Threads. „Generatywna sztuczna inteligencja zdecydowanie tworzy treści, które trudno odróżnić od zapisów rzeczywistości, i szybko się rozwija,” napisał. Mosseri otwarcie przyznał, że w Meta mają problem z oznaczaniem treści stworzonych przez AI oraz z kontrolą i monitorowaniem ogromnej ilości mediów udostępnianych co sekundę na ich platformach społecznościowych.

Mosseri umył ręce Meta od odpowiedzialności i ostrzegł użytkowników, że to od nich zależy, czy potrafią rozróżnić, czy post jest prawdziwy, czy nie. „To będzie coraz bardziej kluczowe, aby widz, czy czytelnik, przykładał roztropność, kiedy konsumuje treści, które pretendują do bycia relacją lub zapisem rzeczywistości,” dodał.

Zaledwie kilka dni później, OpenAI wydało Sora Turbo, swój potężny generator filmów AI, umożliwiający użytkownikom Pro i Plus generowanie realistycznych filmów z podpowiedzi tekstowych. W ciągu zaledwie kilku minut użytkownicy zaczęli tworzyć fascynujące realistyczne filmy i zaczęli je udostępniać na mediach społecznościowych.

Właśnie wtedy, gdy wszystko wydawało się osiągać nowy poziom produkcji filmowej, Google ogłosiło swój najnowszy narzędzie do tworzenia filmów AI, Veo 2, o wyższej rozdzielczości i dłuższych klipach niż Sora. Oczywiście, wyniki udostępnione przez tych, którzy mieli dostęp do zaawansowanej technologii, były jeszcze bardziej imponujące.

„Nikt już nie może powiedzieć, że to jest AI,” napisała jedna z użytkowniczek.

To już się dzieje

W ciągu 2024 roku byliśmy świadkami, jak treści generowane przez sztuczną inteligencję wpływały na ludność, wybory i użytkowników mediów społecznościowych.

W styczniu mieszkańcy New Hampshire otrzymali telefon „od Joe Bidena”, który mówił, że nie powinni głosować w wyborach pierwotnych. Za oszustwo stał konsultant polityczny Steve Kramer, który został ukarany grzywną w wysokości 6 milionów dolarów za robocalls AI deepfake. Rządy zaczynają rozumieć wpływ, jaki może mieć AI, a takie narody jak Singapur tworzą prawa i strategie pomagające ludności identyfikować treści deepfake.

W Wenezueli, filmy generowane przez AI rozpowszechniają dezinformacje—ale również pomagają dziennikarzom informować za pomocą awatarów AI, aby ominąć cenzurę.

Ludzie mają coraz większe trudności z rozróżnieniem, co jest prawdziwe, a co nie, i to nie jest ich wina: zawartość generowana przez AI staje się coraz lepsza i lepsza.

Wysokiej jakości treści generowane przez AI to rozwijający się biznes we wszystkich swoich formach; tekst, dźwięk i wideo. Wielu twórców OnlyFans obecnie polega na botach czatu, aby prowadzić rozmowy z ich fanami, zadanie które wcześniej było zlecone pracownikom na zlecenie w krajach o niższych dochodach. Nowe modele AI specjalizujące się w technikach flirtu wygenerowały nawet $1,000 napiwków od swoich obserwujących.

W kwietniu startup Synthesia, wspierany przez firmę Nvidia, uruchomił awatary AI, które potrafią wyrażać ludzkie emocje i mówić w 130 językach. TikTok pozwala firmom tworzyć reklamy generowane przez AI, wykorzystując treści z Getty Images, a teraz twórcy na YouTube mogą korzystać z nowej funkcji automatycznego dubbingu AI, aby tłumaczyć swoje treści na 9 języków, a przyszłe aktualizacje będą replikować oryginalny głos.

Zoom pracuje nad stworzeniem awatarów AI, które wyglądają dokładnie jak użytkownicy, aby pomóc im nagrywać wiadomości, a nawet uczestniczyć w spotkaniach. To narzędzie zostanie wdrożone w przyszłym roku, ale ludzie już testują różne narzędzia, a firmy mogą już tworzyć fotorealistyczne klony AI.

Czy jesteś pewna, że podczas ostatniej rozmowy przez Zoom rozmawiałaś z prawdziwą osobą?

Jak rozpoznać, czy zostało to stworzone przez AI? Na razie

Żyjemy w zdezorientowanych czasach w tej cyfrowej erze. Filtry mogą sprawić, że każda osoba wygląda jak modelka o bezbłędnej skórze, a poprawki godne Photoshopa są na wyciągnięcie ręki na Instagramie czy Snapchat – ile osób chciałoby podzielić się swoim „naturalnym” wizerunkiem, z wszystkimi niedoskonałościami, gdy można go poprawić w sekundę? Coraz częściej widzimy reklamy prezentujące fotorealistyczne obrazy generowane przez sztuczną inteligencję, stopniowo przekonując nasze oczy do ich znajomości i „normalności”. A każdego dnia, zaskakujące wydarzenia na całym świecie skłaniają nas do zadawania pytań: co jest prawdziwe, a co już nie?

Duże firmy zajmujące się sztuczną inteligencją pracują nad znakami wodnymi, które pozwolą na łatwe rozpoznawanie generowanych przez nie treści. Google DeepMind uruchomiło swój system znaków wodnych typu open-source w październiku, aby oznaczać filmy, teksty i dźwięki generowane przez AI, a Meta również zawarło taki w swoim narzędziu do tworzenia filmów AI.

Jednak skuteczność tej metody jest dyskusyjna, zaczynając od samego Meta, które przyznaje, że nie jest w stanie oznaczyć wszystkich treści generowanych przez AI. Złośliwi użytkownicy wciąż mogą znaleźć sposoby na usunięcie znaków wodnych, a do osiągnięcia skuteczniejszego systemu konieczne są dodatkowe prawa, partnerstwa i porozumienia pomiędzy firmami mediów społecznościowych a rządem.

Na razie, oprócz zaufania naszym przeczuciom, możemy zadać sobie kilka pytań, zanim podzielimy się czymś w mediach społecznościowych lub uwierzymy w to, co widzimy:

  • Tak jak zalecał Mosseri, rozważmy następujące: Kto dzieli się tą informacją? Czy to jest wiarygodne źródło?
  • Czy wyraz twarzy lub ruchy osoby wydają się być robotyczne? Mimo, że awatary AI mogą być dość realistyczne, nadal możliwe jest zauważenie dziwnej sztywności lub braku emocji – choć warto zauważyć, że niektóre firmy, takie jak Synthesia, już nad tym pracują.
  • Czy treść została zaprojektowana tak, aby wywołać silną reakcję emocjonalną? Złośliwi aktorzy wiedzą, jak łatwo udostępniamy negatywne wiadomości i interakcje z emocjonalnie naładowanym materiałem w mediach społecznościowych, co potwierdzają badania. Zanim podzielisz się tą treścią, która sprawiła, że Twoja krew zaczęła wrzeć, aby inni byli tak oburzeni jak Ty, zastanów się, czy jest ona zaprojektowana do wywołania kontrowersji, czy jest to rzeczywiście prawdziwa wiadomość lub prawdziwe wydarzenie.
  • Czy możesz potwierdzić treść innymi źródłami? Sprawdzenie u wiarygodnych źródeł nigdy nie zaszkodzi.

I wreszcie, czy zadałaś sobie – lub swojemu ulubionemu chatbotowi – pytanie, jak poprawić swoje myślenie krytyczne? Rozwój krytycznego umysłu zdecydowanie powinien znaleźć się na liście postanowień noworocznych każdej osoby.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Zostaw komentarz

Loader
Loader Pokaż więcej...