Badacze Budują Model AI za $50, który Rywalizuje z OpenAI i DeepSeek
Grupa badaczy AI z Uniwersytetu Stanforda i Uniwersytetu Waszyngtońskiego przeprowadziła szkolenie wysoko wydajnego modelu rozumowania AI za mniej niż 50 dolarów kosztów chmurowych, według artykułu naukowego opublikowanego w zeszły piątek, jak pierwotnie poinformował TechCrunch.
Spieszysz się? Oto najważniejsze fakty!
- Badacze przeszkolili model AI do rozumowania za mniej niż 50 dolarów kosztów chmury obliczeniowej.
- Model, s1, działa równie dobrze jak o1 OpenAI i R1 DeepSeek.
- s1 jest open-source i dostępny na GitHubie wraz ze swoimi danymi treningowymi i kodem.
Model o nazwie s1, prezentuje wyniki na równi z zaawansowanymi AI do rozumowania, takimi jak o1 od OpenAI oraz R1 od DeepSeek w testach matematycznych i programistycznych. Jest on bezpłatnie dostępny na GitHubie, wraz z danymi do treningu i kodem.
Aby opracować s1, badacze rozpoczęli od istniejącego już modelu AI i dostroili go za pomocą procesu zwanego destylacją. Ta metoda wydobywa umiejętności rozumowania z bardziej zaawansowanego AI, ucząc się na podstawie jego odpowiedzi.
Zespół ujawnił, że s1 został zdestylowany z eksperymentalnego modelu Google Gemini 2.0 Flash Thinking.
Grupa badaczy stworzyła otwarty model AI, który rywalizuje z o1-preview OpenAI w rozwiązywaniu skomplikowanych problemów matematycznych i logicznych. Jaki jest ich sekret? Prosty trik, który daje AI więcej czasu na przemyślenie odpowiedzi przed jej udzieleniem.
Metoda, nazywana „wymuszaniem budżetu”, polega na zmuszaniu AI do wykonania dodatkowych kroków podczas rozwiązywania problemów, zamiast spieszyć się z odpowiedzią. Dając sobie więcej czasu, AI może sprawdzić swoją pracę podwójnie i poprawić dokładność.
Zespół przeszkolił swój model, nazwany s1-32B, używając tylko 1000 starannie wybranych przykładowych pytań z krok po kroku wyjaśnieniami.
Pomimo tak małego zbioru danych, model ten przewyższył OpenAI’s o1-preview w skomplikowanych testach matematycznych, takich jak MATH i AIME24, poprawiając wyniki nawet o 27%. Zdołał nawet podnieść swoją własną ocenę w teście z 50% do 57% po prostu przez dłuższe zastanowienie się przed udzieleniem ostatecznych odpowiedzi – bez żadnego dodatkowego treningu.
To jest istotne, ponieważ większość ulepszeń w AI opiera się na ogromnych ilościach nowych danych do treningu. Natomiast to badanie sugeruje, że wiele modeli AI już posiada silne umiejętności logicznego rozumowania ukryte w nich – po prostu potrzebują odpowiednich technik, aby je odblokować.
Studium przetestowało również różne sposoby na wydłużenie czasu myślenia AI. Jedna metoda polegała na stopniowym doskonaleniu odpowiedzi przez AI, podczas gdy inna pozwalała na generowanie wielu możliwych odpowiedzi naraz i wybieranie najlepszej. Najlepsze rezultaty przyniosła kombinacja obu tych technik, wykorzystująca drzewiasty proces decyzyjny.
Chociaż ta technika ma swoje ograniczenia – takie jak miejsce w pamięci AI na obliczenia – badacze są przekonani, że dalsze modyfikacje mogą jeszcze bardziej rozbudować jej możliwości. Sugerują również, że uczenie ze wzmocnieniem, metoda, w której AI uczy się poprzez próby i błędy, mogłoby uczynić myślenie w czasie testów jeszcze bardziej inteligentnym.
Udostępniając bezpłatnie swój model i badania, zespół ma nadzieję zachęcić do bardziej otwartego i transparentnego rozwoju AI, pomagając innym budować inteligentniejsze i bardziej niezawodne systemy AI.
Zostaw komentarz
Anuluj odpowiedź