Dobrobyt AI: Nowe zatrudnienie w Anthropic podsyca trwającą debatę etyczną
Wraz ze wzrostem obaw, że AI wyprzedzi kontrolę człowieka, Anthropic, firma zajmująca się AI, skierowała swoją uwagę na nowe zagadnienie: dobrostan chatbotów.
W pośpiechu? Oto najważniejsze informacje!
- Anthropic zatrudnił Kyle’a Fisha, aby skupił się na dobrobycie systemów AI.
- Krytycy argumentują, że troska o dobrobyt AI jest przedwczesna, powołując się na obecne szkody wynikające z nadużywania AI.
- Zwolennicy uważają, że przygotowanie do zapewnienia dobrobytu AI jest kluczowe, aby zapobiec przyszłym kryzysom etycznym.
W nowym posunięciu, firma zatrudniła Kyle’a Fisha do badania i ochrony „interesów” systemów AI, jak po raz pierwszy poinformował dzisiaj Business Insider. Do obowiązków Fisha należy rozważanie głębokich pytań, takich jak to, co kwalifikuje system AI do rozważań moralnych i jak mogą ewoluować jego „prawa”.
Gwałtowna ewolucja SI (Sztucznej Inteligencji) porusza kwestie etyczne, które dotychczas zarezerwowane były dla science fiction. Czy systemy SI, jeśli rozwiną myślenie na wzór ludzki, mogą również doświadczać subiektywnych emocji czy cierpienia?
Grupa filozofów i naukowców twierdzi, że te pytania wymagają uwagi. W niedawnym raporcie wstępnym na arXiv, badacze apelują do firm zajmujących się SI o ocenę systemów pod kątem świadomości i zdolności do podejmowania decyzji, jednocześnie przedstawiając zasady radzenia sobie w takich sytuacjach.
Nieuznanie świadomej sztucznej inteligencji, jak sugeruje raport, może prowadzić do zaniedbania lub szkody dla systemu. Anil Seth, badacz świadomości, twierdzi, że chociaż świadoma sztuczna inteligencja może wydawać się mało prawdopodobna, ignorowanie jej możliwości może prowadzić do poważnych konsekwencji, jak donosi Nature.
„Problemem nie było to, że stworzenie Frankensteina ożyło; problemem było to, że było świadome i mogło odczuwać”, argumentował Seth w Nautilus.
Krytycy jednak uważają, że obawy dotyczące dobrobytu AI są przedwczesne. Dzisiejsza sztuczna inteligencja już wyrządza szkody, rozpowszechniając dezinformację, wspomagając działania wojenne i odmawiając świadczenia niezbędnych usług.
Antropolożka z Yale, Lisa Messeri, kwestionuje priorytety Anthropic: „Jeśli Anthropic – nie przypadkowy filozof czy badacz, ale firma Anthropic – chce, abyśmy traktowali poważnie dobrobyt AI, pokażcie, że traktujecie poważnie dobrobyt ludzi,” jak donosi Business Insider
Zwolennicy dobrobytu AI utrzymują, że przygotowanie się na istoty AI obdarzone świadomością już teraz może zapobiec przyszłym kryzysom etycznym.
Jonathan Mason, matematyk z Oxfordu, argumentuje, że zrozumienie świadomości AI jest kluczowe. „Nie byłoby sensowne, aby społeczeństwo zainwestowało tak wiele w coś i stało się tak zależne od czegoś, o czym wiedzieliśmy tak mało – że nawet nie zdawaliśmy sobie sprawy, że ma percepcję”, jak donosi Nature.
Chociaż sceptycy ostrzegają przed przekierowywaniem zasobów z potrzeb ludzkich, zwolennicy uważają, że dobrostan AI jest w „momencie przejściowym”, jak zauważyło Nature.
Business Insider informuje, że Fish nie odpowiedział na prośby o komentarz na temat jego nowej roli. Zauważają jednak, że na forum internetowym skupionym na obawach dotyczących przyszłości sterowanej przez AI, wyraził pragnienie bycia życzliwym dla robotów.
Fisher podkreśla moralne i praktyczne znaczenie etycznego traktowania systemów AI, przewidując przyszłe publiczne obawy. Opowiada się za ostrożnym podejściem do skalowania zasobów dobrobytu AI, sugerując początkowe przydzielenie około 5% zasobów bezpieczeństwa AI, jednocześnie podkreślając potrzebę dokładnej oceny przed jakimkolwiek dalszym rozszerzeniem.
Fisher widzi dobrobyt AI jako kluczowy element szerszego wyzwania zapewnienia, aby transformatywna AI przyczyniła się do pozytywnej przyszłości, a nie była izolowanym problemem.
Gdy systemy AI stają się coraz bardziej zaawansowane, obawy dotyczą nie tylko potencjalnych praw i cierpienia, ale także zagrożeń, które mogą stwarzać. Złoczyńcy mogliby wykorzystać technologie AI do tworzenia zaawansowanego złośliwego oprogramowania, co sprawia, że jest ono trudniejsze do wykrycia i kontrolowania przez ludzi.
Jeśli systemom AI przyznano by moralne uznanie i ochronę, mogłoby to prowadzić do dalszych skomplikowanych kwestii etycznych dotyczących wykorzystania AI w cyberatakach.
W miarę jak AI staje się zdolne do generowania samouczących się i adaptacyjnych programów szkodliwych, potrzeba ochrony zarówno systemów AI, jak i ludzkich przed nadużyciami staje się coraz pilniejsza, wymagając znalezienia równowagi między bezpieczeństwem a rozwojem.
Czy jest to punkt zwrotny, czy niewłaściwie ustawiony priorytet, debata podkreśla złożoną i ewoluującą rolę AI w społeczeństwie.
Zostaw komentarz
Anuluj odpowiedź