Była Badaczka i Informator OpenAI Znaleziona Martwa
Były badacz OpenAI, który stał się informantem, 26-letni Suchir Balaji, został znaleziony martwy w mieszkaniu w San Francisco, potwierdziły władze, jak pierwotnie doniósł The Mercury News.
W pośpiechu? Oto najważniejsze fakty!
- Były badacz OpenAI, Suchir Balaji, został znaleziony martwy w apartamencie w San Francisco.
- Śmierć Balaji, która miała miejsce 26 listopada, została uznana za samobójstwo bez śladów przemocy.
- Przed swoją śmiercią Balaji publicznie krytykował praktyki OpenAI, w tym metody zbierania danych.
Policja odkryła ciało Balaji 26 listopada, po otrzymaniu prośby o kontrolę dobrostanu. Biuro koronera w San Francisco uznało śmierć za samobójstwo, a śledczy nie znaleźli żadnych śladów przestępstwa, poinformowało BBC.
W miesiącach poprzedzających jego śmierć, Balaji publicznie krytykował praktyki OpenAI. Firma obecnie stoi w obliczu wielu pozwów dotyczących swoich metod gromadzenia danych.
Niedawno uczestniczyłam w artykule NYT na temat sprawiedliwego użytkowania i generatywnej sztucznej inteligencji, i dlaczego jestem sceptyczna co do „sprawiedliwego użytkowania” jako prawdopodobnej obrony dla wielu produktów opartych na generatywnej sztucznej inteligencji. Napisałam również post na blogu (https://t.co/xhiVyCk2Vk) na temat drobnych szczegółów dotyczących sprawiedliwego użytkowania i dlaczego…
— Suchir Balaji (@suchirbalaji) 23 października 2024
W niedawnym wywiadzie dla New York Times, pan Balaji powiedział, że widzi zagrożenia wynikające z AI jako natychmiastowe i znaczące. Twierdził, że ChatGPT i podobne chatboty podkopują komercyjną żywotność osób, firm i usług internetowych, które pierwotnie stworzyły cyfrowe dane używane do szkolenia tych systemów.
OpenAI, Microsoft i inne firmy utrzymują, że szkolenie ich systemów AI na danych internetowych jest objęte doktryną „uczciwego użytku”.
Ta doktryna rozważa cztery czynniki, a te firmy twierdzą, że spełniają kryteria, w tym znaczącą transformację chronionych prawem autorskim dzieł i niekonkurowanie bezpośrednio na tym samym rynku co te dzieła.
Pan Balaji się nie zgodził. Twierdził, że systemy takie jak GPT-4 tworzą pełne kopie danych treningowych. Chociaż firmy takie jak OpenAI mogą programować te systemy do replikacji danych lub generowania całkowicie nowych wyników, rzeczywistość, jak mówi, leży gdzieś pośrodku, jak donosi The Times.
Pan Balaji opublikował na swojej prywatnej stronie internetowej esej, w którym przedstawia to, co opisuje jako analizę matematyczną popierającą jego twierdzenie. „Jeśli wierzysz w to, w co ja wierzę, musisz po prostu opuścić firmę,” powiedział, jak podaje The Times.
Według Pana Balaji, technologia narusza prawo autorskie, ponieważ często bezpośrednio konkurowała z dziełami, na których była trenowana. Generatywne modele, zaprojektowane do naśladowania danych online, mogą zastąpić prawie wszystko w internecie, od artykułów prasowych po fora internetowe, jak podaje The Times.
Śmierć Balajiego nastąpiła zaledwie jeden dzień po tym, jak sąd zidentyfikował go jako osobę, której zawodowe pliki OpenAI miało przejrzeć w związku z pozwem wniesionym przez kilku autorów przeciwko startupowi, jak zauważył Forbes.
Poza kwestiami prawnymi, pan Balaji ostrzegał, że technologie AI degradują internet. Kiedy te narzędzia zastępują istniejące usługi, często generują fałszywe lub całkowicie sfabrykowane informacje – zjawisko, które badacze nazywają „halucynacjami”. Sądził, że ta zmiana przekształca internet na gorsze, jak informowały The Times.
Bradley J. Hulbert, prawnik specjalizujący się w prawie własności intelektualnej, zauważył, że obecne prawa autorskie ustanowiono na długo przed pojawieniem się sztucznej inteligencji i że żaden sąd nie orzekł jeszcze, czy technologie takie jak ChatGPT naruszają te prawa, jak podaje The Times.
Podkreślił potrzebę działań legislacyjnych. „Biorąc pod uwagę, że sztuczna inteligencja rozwija się tak szybko”, powiedział, „nadszedł czas, aby Kongres włączył się do działania.” Pan Balaji zgodził się, stwierdzając, „jedynym wyjściem z tej sytuacji jest regulacja”, jak podaje The Times.
Zostaw komentarz
Anuluj odpowiedź