Uniwersytet w Chicago oferuje artystom obronę przed AI za pomocą Glaze i Nightshade
Spieszysz się? Oto szybkie fakty!
- Glaze i Nightshade chronią dzieła artystów przed nieautoryzowanym wykorzystaniem do szkolenia AI.
- Glaze maskuje obrazy, aby uniemożliwić AI powielanie stylu artysty.
- Nightshade zakłóca działanie AI, dodając „zatrute” piksele, które uszkadzają dane do szkolenia.
Artyści walczą przeciwko wyzyskującym modelom AI za pomocą Glaze i Nightshade, dwóch narzędzi opracowanych przez Bena Zhao i jego zespół w SAND Lab na Uniwersytecie Chicagowskim, jak donosi dzisiaj MIT Technology Review.
Celem tych narzędzi jest ochrona prac artystów przed wykorzystaniem bez ich zgody do szkolenia modeli AI, praktyki, którą wielu twórców uważa za kradzież. Glaze, które zostało pobrane ponad 4 miliony razy od momentu swojego wydania w marcu 2023 roku, maskuje obrazy dodając subtelne zmiany, które uniemożliwiają AI nauczenie się stylu artysty, informuje MIT.
Nocna Cień, „agresywny” odpowiednik, dalej zakłóca modele AI, wprowadzając niewidoczne zmiany, które mogą zepsuć uczenie się AI, jeżeli zostaną użyte w treningu, jak zauważył MIT.
Narzędzia te zostały zainspirowane obawami artystów o szybki rozwój generatywnej AI, która często opiera się na obrazach z internetu, aby stworzyć nowe dzieła. MIT informuje, że ilustratorka fantasy Karla Ortiz i inni twórcy wyrażali obawy o utratę środków do życia, gdy modele AI replikują ich wyjątkowe style bez zgody lub wynagrodzenia.
Dla artystów, publikowanie w sieci jest kluczowe dla widoczności i dochodów, jednak wielu z nich rozważa usunięcie swoich prac, aby uniknąć ich wykorzystania do szkolenia AI, co jak zauważa MIT, mogłoby zaszkodzić ich karierom.
Nightshade, uruchomione rok po Glaze, oferuje bardziej agresywną obronę, informuje MIT. Poprzez dodawanie „zatrutych” pikseli do obrazów, zakłóca ono trening AI, powodując, że modele generują zniekształcone wyniki, jeśli te obrazy są skrojone.
Symboliczne działanie bieluń dzikiego (Nightshade) znalazło swoje odzwierciedlenie w twórczości artystów, którzy widzą w tym swoisty wymiar sprawiedliwości poetyckiej: jeśli ich prace zostaną skradzione na potrzeby szkolenia AI, mogą uszkodzić te systemy, które je wykorzystują.
MIT argumentuje, że narzędzia te początkowo spotkały się z pewnym sceptycyzmem ze strony artystów, którzy obawiali się o prywatność swoich danych. Aby temu zaradzić, SAND Lab wydało wersję Glaze, która działa offline, co gwarantuje brak transferu danych i buduje zaufanie wśród artystów obawiających się wyzysku.
Laboratorium niedawno zwiększyło dostęp, nawiązując współpracę z Cara, nową platformą społecznościową, która zabrania publikowania treści generowanych przez sztuczną inteligencję, jak zauważył MIT.
Zhao i jego zespół dążą do zmiany dynamiki sił pomiędzy indywidualnymi twórcami a firmami zajmującymi się sztuczną inteligencją.
Oferując narzędzia chroniące kreatywność przed dużymi korporacjami, Zhao ma nadzieję wzmocnić pozycję artystów, umożliwiając im utrzymanie kontroli nad swoją pracą i redefiniowanie standardów etycznych wokół AI i własności intelektualnej – informuje MIT.
Inicjatywa nabiera tempa, ale niektórzy eksperci ostrzegają, że narzędzia te mogą nie zapewniać niezawodnej ochrony, ponieważ hakerzy i deweloperzy AI poszukują sposobów na obejście tych zabezpieczeń, jak zauważa MIT.
Teraz, kiedy Glaze i Nightshade są dostępne za darmo, Laboratorium SAND Zhao kontynuuje przodowanie w obronie integralności artystycznej wobec rosnącego wpływu tworzenia treści kierowanego przez sztuczną inteligencję.
Zostaw komentarz
Anuluj odpowiedź