MIT Ujawnia, że LLM Mogą Rozwijać Własne Pojmowanie Rzeczywistości
Badacze z MIT odkryli, że duże modele językowe (LLM) mogą tworzyć swoje własne wewnętrzne reprezentacje rzeczywistości. Trening LLM na zagadkach pokazał, że model rozwijał zrozumienie środowiska zagadki samodzielnie, bez wyraźnej instrukcji. Wyniki badań zostały opublikowane wczoraj przez MIT News.
Aby to przetestować, badacze użyli zagadek Karel – zadań polegających na dawaniu instrukcji robotowi w symulowanym środowisku. Po przeszkoleniu modelu na ponad 1 milionie takich zagadek, odkryli, że LLM nie tylko poprawił generowanie poprawnych instrukcji, ale wydawał się także rozwijać wewnętrzną symulację środowiska zagadki.
Charles Jin, główny autor badania, wyjaśnił: „Na początku tych eksperymentów, model językowy generował losowe instrukcje, które nie działały. Do momentu zakończenia treningu, nasz model językowy generował poprawne instrukcje w 92,4 procentach przypadków.”
Ten wewnętrzny model, odkryty za pomocą techniki uczenia maszynowego zwanej „sondowaniem”, ukazał wewnętrzny model reakcji robota na instrukcje, sugerując formę zrozumienia wykraczającą poza składnię.
Sonda została zaprojektowana tylko po to, aby „zaglądać do mózgu LLM”, jak to określa Jin, ale istniała szansa, że mogła wpłynąć na myślenie modelu.
Jin tłumaczy: „Sonda jest jak analityk kryminalistyki: przekazujesz tej osobie stos danych i mówisz: ‚Oto, jak porusza się robot, spróbuj teraz znaleźć ruchy robota w tym stosie danych’. Analityk później informuje cię, że wie, co się dzieje z robotem w stosie danych’’.
Jin dodaje: „Ale co jeśli sterta danych faktycznie tylko koduje surowe instrukcje, a analityk wymyślił jakiś sprytny sposób na wydobycie tych instrukcji i postępowanie zgodnie z nimi? Wówczas model językowy nie nauczył się naprawdę co te instrukcje oznaczają.”
Aby to sprawdzić, badacze przeprowadzili eksperyment „Bizarro World”, w którym znaczenia instrukcji zostały odwrócone. W tym scenariuszu, sonda miała trudności z interpretacją zmienionych instrukcji, co sugeruje, że LLM rozwinął własne semantyczne zrozumienie oryginalnych instrukcji.
Te wyniki kwestionują dominujący pogląd, że LLM to jedynie zaawansowane maszyny do rozpoznawania wzorców. Zamiast tego sugerują, że te modele mogą rozwijać głębsze, bardziej zróżnicowane zrozumienie języka i świata, który przedstawiają.
Badanie przeprowadzone przez Uniwersytet w Bath na początku tego tygodnia wskazało, że LLM doskonale radzą sobie z przetwarzaniem języka, ale mają problemy z samodzielnym nabywaniem umiejętności. To potwierdziło koncepcję przewidywalności LLM. Jednak badania prowadzone przez MIT oferują odmienną perspektywę.
Pomimo że wyniki MIT wydają się obiecujące, naukowcy zwracają uwagę na pewne ograniczenia. Konkretnie Jin przyznaje, że korzystali z bardzo prostego języka programowania i stosunkowo małego modelu, aby uzyskać swoje wnioski.
Podsumowując, chociaż wyniki MIT są zachęcające, naukowcy ostrzegają, że potrzeba więcej badań, aby w pełni zrozumieć konsekwencje.
Zostaw komentarz
Anuluj odpowiedź