Opinia: Modele AI to tajemnicze „istoty”, których nawet ich twórcy nie rozumieją w pełni

Image generated with OpenAI

Opinia: Modele AI to tajemnicze „istoty”, których nawet ich twórcy nie rozumieją w pełni

Przeczytasz w: 5 min

Niedawne badania Anthropic na temat działania modelu Claude 3.5 Haiku obiecują przełomowe odkrycia i iskrę zrozumienia, jak działają zaawansowane technologie AI. Ale co mają na myśli mówiąc, że LLMs to „żywe organizmy”, które „myślą”?

Kilka dni temu, Anthropic opublikowało dwie prace z przełomowymi badaniami na temat działania dużych modeli językowych (LLMs). Chociaż rozwój techniczny był interesujący i istotny, to najbardziej przyciągnęło moją uwagę słownictwo używane przez ekspertów od AI.

W badaniu Na temat biologii dużego modelu języka, naukowcy porównali siebie do biologów badających skomplikowane „żywe organizmy”, które ewoluowały przez miliardy lat.

„Podobnie, choć modele językowe są generowane przez proste, zaprojektowane przez człowieka algorytmy szkoleniowe, mechanizmy powstałe z tych algorytmów wydają się być dość złożone,” napisały naukowczynie.

W ciągu ostatnich kilku lat, modele AI znacznie ewoluowały. I byliśmy świadkami tej szybkiej ewolucji przez ostatnie kilka miesięcy. Widzieliśmy, jak ChatGPT przekształcił się z modelu operującego wyłącznie tekstem, w mówiącego towarzysza, a teraz w wielowymiarowego agenta, który potrafi również generować zadziwiające obrazy w stylu Studio Ghibli.

Ale co, jeśli obecne granice modeli AI dochodzą do poziomu science fiction, rozwijając tak zaawansowane rozumowanie, że nawet ich twórcy nie są w stanie zrozumieć ich procesów i systemów? Istnieje wiele tajemnic otaczających technologie AI, które mogą być istotne do ponownego przeanalizowania — lub zanurzenia się w nie — w 2025 roku.

Niepokojący paradoks czarnej skrzynki modeli AI

Prowadzone są liczne dyskusje na temat adaptacji AI i umiejętności korzystania z AI, a także o tym, jak ci, którzy rozumieją, jak działają generatywne modele AI, są mniej skłonni traktować chatboty jako swoich „przyjaciół” czy „magiczne” aplikacje. Istnieje jednak inna debata—pomiędzy ekspertami i osobami bardziej zaznajomionymi z technologią—na temat porównywania lub traktowania LLMów jako niezależnych kreacji. W odniesieniu do tej drugiej kwestii, istnieje specjalny składnik, tajemnica znana jako „paradoks czarnej skrzynki AI”, który odgrywa kluczową rolę w dyskusji.

Systemy głębokiego uczenia są szkolone do rozpoznawania elementów i trendów w sposób podobny do ludzi. Tak jak uczymy dzieci rozpoznawania wzorców i przypisywania konkretnych słów różnym obiektom, LLMy zostały wyszkolone do tworzenia unikalnych połączeń i budowania sieci, które stają się coraz bardziej skomplikowane, gdy „rosną”.

Samir Rawashdeh, profesor nadzwyczajny inżynierii elektrycznej i komputerowej, specjalizuje się w sztucznej inteligencji i wyjaśnia, że podobnie jak w przypadku badania inteligencji ludzkiej, niemal niemożliwe jest rzeczywiste zobaczenie, jak systemy uczenia głębokiego podejmują decyzje i dochodzą do wniosków. To jest to, co eksperci nazywają „problemem czarnej skrzynki”.

Modele AI stanowią wyzwanie dla ludzkiego rozumienia

Ostatnie badanie Antropic rzuca światło na sytuację związaną z czarną skrzynką AI, wyjaśniając, jak jej model „myśli” w pewnych scenariuszach, które wcześniej były niejasne lub nawet całkowicie błędne. Nawet jeśli badanie opiera się na modelu Claude 3.5 Haiku, pozwala ekspertom na rozwijanie narzędzi i analizowanie podobnych cech w innych modelach AI.

„Zrozumienie natury tej inteligencji to głębokie wyzwanie naukowe, które ma potencjał do przemodelowania naszego pojmowania, co oznacza ‚myśleć’,” stwierdza artykuł udostępniony przez badaczy z Anthropic.

Jednakże, termin „myśleć”, przypisywany technologiom AI, irytuje pewnych ekspertów w branży i jest częścią krytyki tego badania. Użytkownik Reddit wyjaśnił, dlaczego denerwuje to grupę ludzi: „W artykule jest wiele antropomorfizacji, które zaciemniają pracę. Na przykład, ciągle używa słowa ‚myśleć’, kiedy powinno mówić ‚obliczać’. Mówimy o oprogramowaniu komputerowym, a nie biologicznym mózgu.”

Podczas gdy „uludzamiające” terminy pomagają osobom nontechnicznym lepiej zrozumieć modele AI i wywołują debatę w społeczności, prawda jest taka, że niezależnie od tego, czy mówimy „oblicza” czy „myśli”, ten sam problem pozostaje: nie mamy pełnego zrozumienia ani pełnej przejrzystości, jak działają LLM.

Czego Spodziewać Się od Zaawansowanych Modeli AI w Najbliższej Przyszłości

Czy potrafiłabyś zignorować istnienie zaawansowanych technologii AI, takich jak ChatGPT, DeepSeek, Perplexity czy Claude – teraz lub w najbliższej przyszłości? Wszystkie znaki na niebie i ziemi wskazują, że nie ma odwrotu. Generatywne i rozumujące AI już przekształciły nasze codzienne życie, a będą tylko ewoluować.

Prawie każdego dnia w WizCase informujemy o nowym rozwoju w branży – nowym modelu AI, nowym narzędziu AI, nowej firmie AI – które mają potencjał, aby znacząco wpłynąć na nasze społeczeństwo. Pomysł na przerwę, aby najpierw lepiej zrozumieć te zaawansowane modele i sposób, w jaki działają – a nawet nieco zwolnić – wydaje się niemożliwy, biorąc pod uwagę szybkie tempo wyścigu AI i zaangażowanie rządów oraz najpotężniejszych firm na świecie.

„Modele AI mają coraz większy wpływ na nasze życie i pracę, musimy je dobrze zrozumieć, aby zapewnić, że ich wpływ jest pozytywny”, stwierdza dokument Anthropic. Nawet jeśli brzmi to nieco nierealistycznie, badacze pozostają optymistyczni: „Wierzymy, że nasze wyniki tutaj, oraz trajektoria postępu, na której są zbudowane, są emocjonującym dowodem, że możemy sprostać temu wyzwaniu”.

Ale jak szybko te odkrycia naprawdę mogą się rozwijać? Artykuł zauważa również, że wyniki dotyczą tylko kilku obszarów i konkretnych przypadków, i nie jest możliwe wyciąganie bardziej ogólnych wniosków. Więc, prawdopodobnie nie na tyle szybko, na ile byśmy chcieli.

Podczas gdy regulatorzy wprowadzają takie środki jak EU AI Act, wymagając większej przejrzystości, co prowadzi do oskarżeń i narzekań ze strony dużych firm technologicznych, które twierdzą, że to hamuje postęp, potężne modele AI nadal się rozwijają.

Jako społeczeństwo, musimy dążyć do znalezienia równowagi między pogłębianiem naszego zrozumienia, jak te technologie działają, a ich adaptacją w sposób, który przynosi znaczące korzyści i postęp naszym społecznościom. Czy jest to możliwe? Pomysł polegający na po prostu modleniu się czy też nadziei, że te „stworzenia” pozostaną „etyczne” i „dobre”, nie wydaje się teraz tak absurdalny.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Zostaw komentarz

Loader
Loader Pokaż więcej...