Google Zamierza Oznaczać Obrazy Wygenerowane przez AI w Wyszukiwarce
Spieszysz się? Oto krótkie fakty!
- Google wprowadza narzędzie do identyfikacji obrazów edytowanych przez AI w wynikach wyszukiwania
- Google dołączył do C2PA, aby stworzyć standardy umożliwiające śledzenie pochodzenia cyfrowych treści
- System opiera się na standardzie C2PA, ale jego adopcja wśród firm i narzędzi jest ograniczona.
Google ogłosił dzisiaj, że planuje wprowadzić zmiany w Google Search, aby wyraźniej pokazywać, które obrazy w wynikach wyszukiwania zostały wygenerowane lub edytowane za pomocą narzędzi AI.
Gigant technologiczny wykorzystuje technologię o nazwie „Provenance”, aby identyfikować i oznaczać takie obrazy, dążąc do zwiększenia przejrzystości dla użytkowników i zwalczania rozpowszechniania dezinformacji.
Google wyjaśniło, że technologia Provenance pozwala określić, czy zdjęcie zostało zrobione za pomocą aparatu, zmienione za pomocą oprogramowania, czy też całkowicie stworzone przez generatywną sztuczną inteligencję.
Informacje te będą udostępniane użytkownikom za pośrednictwem funkcji „O tym obrazie”, dostarczając im więcej kontekstu i pomagając im podejmować świadome decyzje na temat treści, które konsumują.
W celu zwiększenia swoich wysiłków, Google dołączyło do Koalicji dla Pochodzenia i Autentyczności Treści (C2PA) jako członek komitetu sterującego na początku tego roku. C2PA pracuje nad opracowaniem standardów umożliwiających śledzenie historii cyfrowych treści, w tym obrazów i filmów.
Jednak, jak zauważa TechCrunch (TC), tylko obrazy z „metadanymi C2PA” zostaną oznaczone jako manipulowane przez AI w wyszukiwarce Google.
Chociaż firmy takie jak Google, Amazon, Microsoft, OpenAI i Adobe wspierają C2PA, standard ten nie został jeszcze szeroko przyjęty, jak informuje TC.
Jak zauważył The Verge, tylko ograniczona liczba narzędzi generujących AI i kamer, takich jak te od Leica i Sony, wspiera specyfikacje C2PA.
Dodatkowo TC zauważa, że metadane C2PA, jak każda forma metadanych, mogą być usunięte, uszkodzone lub stać się nieczytelne. Wiele popularnych narzędzi AI, takich jak Flux, które napędza chatbota Grok od xAI, nie zawiera metadanych C2PA, częściowo dlatego, że ich twórcy nie przyjęli tego standardu.
Chociaż ta inicjatywa pokazuje obiecujące perspektywy w zwalczaniu szkodliwych treści deepfakes, jej sukces leży w powszechnym przyjęciu systemu znakowania wodnego C2PA przez producentów aparatów fotograficznych i twórców generatywnych AI.
Jednakże, nawet z zastosowaniem C2PA, złośliwi aktorzy mogą nadal usuwać lub manipulować metadanymi obrazu, co potencjalnie podważa zdolność Google do dokładnego wykrywania treści generowanych przez sztuczną inteligencję.
Zostaw komentarz
Anuluj odpowiedź