Google Znosi Zakaz Wykorzystania AI w Technologiach Zbrojeniowych i Nadzoru
Alphabet, spółka-matka Google, wycofała się ze swojej obietnicy, że nie użyje sztucznej inteligencji do tworzenia broni czy narzędzi do nadzoru.
W pośpiechu? Oto krótkie fakty!
- Google zaktualizowało swoje wytyczne dotyczące etyki AI, usuwając ograniczenia związane z szkodami, tuż przed raportem zysków.
- Szef AI, Demis Hassabis, podkreślił narodowe bezpieczeństwo i globalną konkurencję w dziedzinie AI jako kluczowe czynniki.
- Eksperci ostrzegają, że zaktualizowane wytyczne Google mogą prowadzić do większego rozwoju autonomicznych broni.
We wtorek, tuż przed ogłoszeniem niższych niż oczekiwano zysków, firma zaktualizowała swoje wytyczne dotyczące etyki AI, usuwając odniesienia do unikania technologii, które mogłyby powodować szkody, jak donosi The Guardian.
Szef działu AI w Google, Demis Hassabis, wyjaśnił, że wytyczne są aktualizowane, aby dostosować się do zmieniającego się świata, w którym AI jest obecnie postrzegane jako kluczowe dla ochrony „bezpieczeństwa narodowego.”
W poście na blogu, Hassabis i starszy wiceprezydent James Manyika podkreślili, że w miarę jak globalna rywalizacja w zakresie AI się zaostrza, firma uważa, że „demokracje powinny prowadzić rozwój AI”, kierując się zasadami „wolności, równości i szacunku dla praw człowieka.”
Na swojej stronie WIRED podkreślił, że Google udostępnił aktualizacje swoich zasad AI w notatce dodanej na górze wpisu na blogu z 2018 roku, w którym przedstawiono te wytyczne. „Dokonaliśmy aktualizacji naszych Zasad AI. Odwiedź AI.Google, aby zobaczyć najnowsze informacje” – czytamy w notatce.
Aljazeera poinformowała, że Google po raz pierwszy przedstawił swoje zasady dotyczące AI w 2018 roku, po protestach pracowników przeciwko zaangażowaniu firmy w Projekt Maven prowadzony przez Departament Obrony USA, który badał możliwość wykorzystania AI do pomocy wojsku w identyfikacji celów dla ataków dronami.
W odpowiedzi na falę krytyki, która doprowadziła do rezygnacji pracowników i tysięcy petycji, Google zdecydowało się nie przedłużać kontraktu z Pentagonem. Później tego samego roku, Google zdecydowało się również nie rywalizować o kontrakt na usługi cloud computing o wartości 10 miliardów dolarów z Pentagonem, powołując się na obawy, że projekt może nie być zgodny z jego zasadami AI, jak zauważyła Al Jazeera.
Aktualizacja polityki etycznej Google nastąpiła również po obecności CEO Alphabet Inc. Sundara Pichai, obok liderów technologicznych takich jak Jeff Bezos z Amazona i Mark Zuckerberg z Meta, na inauguracji prezydenta USA Donalda Trumpa, która odbyła się 20 stycznia.
Jednak w ogłoszeniu z wtorku, Google zrewidowało swoje zobowiązania dotyczące AI. Zaktualizowana strona internetowa nie wymienia już konkretnych zabronionych zastosowań dla swoich projektów AI, dając firmie większą elastyczność w badaniu wrażliwych aplikacji.
Zrewidowany dokument teraz podkreśla, że Google będzie utrzymywać „odpowiedni nadzór ludzki, należytą staranność i mechanizmy feedbacku, aby dostosować się do celów użytkowników, odpowiedzialności społecznej i powszechnie akceptowanych zasad prawa międzynarodowego i praw człowieka.” Dodatkowo, firma deklaruje swoje zamiary „łagodzenia niezamierzonych lub szkodliwych skutków.”
Jednak eksperci ostrzegają, że AI może niedługo być powszechnie wykorzystywane na polu walki, a obawy związane z jej użyciem, szczególnie w odniesieniu do autonomicznych systemów broni, rosną.
„Dla globalnego lidera branży porzucenie wyznaczonych przez siebie granic oznacza niepokojącą zmianę, zwłaszcza w czasach, gdy potrzebujemy odpowiedzialnego przywództwa w AI więcej niż kiedykolwiek”, powiedziała Anna Bacciarelli, starsza badaczka AI w Human Rights Watch, jak podaje BBC.
Bacciarelli zauważyła również, że „jednostronna” decyzja podkreśla „dlaczego dobrowolne zasady nie są adekwatnym zamiennikiem dla regulacji i wiążącego prawa”.
Zostaw komentarz
Anuluj odpowiedź