
Image by National Cancer Institute, from Unsplash
Google wprowadza ‚AI Współ-Naukowca’ Aby Przyspieszyć Odkrycia i Innowacje
Badacze z Google wprowadzili nowy system AI, znanego jako współnaukowiec AI, zbudowany na platformie Gemini 2.0.
W pośpiechu? Oto najważniejsze informacje!
- System AI posiada specjalistyczne agentów do generowania, klasyfikowania i doskonalenia pomysłów na badania.
- AI współbadacz korzysta z koalicji specjalistycznych agentów do różnych funkcji badawczych.
- Pokazał obiecujące wyniki, takie jak sugerowanie potencjalnych leków na leczenie białaczki.
Ten system ma na celu poprawę badań naukowych i biomedycznych, pełniąc rolę wirtualnego współpracownika dla naukowców.
AI współ-naukowiec został zaprojektowany, aby generować nowatorskie hipotezy, proponować kierunki badań i wspierać długoterminowe planowanie naukowe, pomagając przyspieszyć procesy odkrywania w różnych dziedzinach, w tym repozycjonowanie leków, identyfikacja celów terapeutycznych i oporność na antybiotyki.
Innowacyjność systemu tkwi w jego architekturze wieloagentowej. Zamiast polegać na jednym modelu AI, AI współ-naukowiec wykorzystuje koalicję specjalistycznych agentów, z których każdy ma określoną funkcję.
Ci agenci są inspirowani metodą naukową i współpracują, aby generować, udoskonalać i oceniać hipotezy. Na przykład agent „Generacji” proponuje nowe pomysły badawcze, podczas gdy agent „Rankingu” porównuje i ocenia te pomysły na podstawie potencjalnego wpływu.
Systemowe agenci „Ewolucji” i „Refleksji” iteracyjnie poprawiają jakość hipotez, analizując informacje zwrotne, podczas gdy agent „Meta-recenzji” nadzoruje cały proces, zapewniając zgodność z celem badawczym.
Ten współpracujący podejście pozwala systemowi na ciągłe doskonalenie swoich wyników. Przetwarzając dane cele badawcze na zrozumiałe zadania, agent nadzorujący zarządza przepływem pracy systemu, przydzielając zasoby i dbając o to, aby każdy wyspecjalizowany agent pełnił swoją rolę.
W rezultacie, AI współpracownik naukowy dostosowuje swoje podejście z czasem, poprawiając jakość i nowatorstwo swoich propozycji.
Ten proces samodoskonalenia jest napędzany przez metrykę autoewaluacji Elo, która monitoruje jakość generowanych hipotez i ocenia, czy większe nakłady czasu obliczeniowego poprawiają wydajność systemu.
W testach, AI współpracujący ze naukowcem wykazał silną zdolność do tworzenia nowych i wpływowych pomysłów badawczych. Na przykład, w dziedzinie ponownego wykorzystania leków, zaproponował kandydatów na leczenie ostrej białaczki szpikowej (AML).
Te propozycje zostały następnie zweryfikowane poprzez badania eksperymentalne, potwierdzając potencjalną skuteczność proponowanych leków.
Podobnie, w obszarze zwłóknienia wątroby, współpracujący z nami naukowiec AI zidentyfikował epigenetyczne cele o znacznym potencjale terapeutycznym, wspierając ich weryfikację eksperymentalną na organoidach ludzkiej wątroby.
Jednakże, oprócz potencjalnych korzyści, niedawne badanie ujawnia szereg wyzwań związanych z wdrożeniem AI w badaniach.
Pomimo rosnącego zainteresowania narzędziami AI, tylko 45% z prawie 5000 ankietowanych badaczy obecnie wykorzystuje AI w swojej pracy, głównie do zadań takich jak tłumaczenie i korekta.
Obawy dotyczące dokładności AI, uprzedzeń i ryzyka związanego z prywatnością są powszechne, a aż 81% respondentów wyraziło niepokój. Co więcej, prawie dwie trzecie uczestników wskazało niewystarczające szkolenie jako znaczącą barierę w efektywnym wdrożeniu AI.
Naukowcy również zachowują ostrożność wobec zdolności AI do radzenia sobie z bardziej złożonymi zadaniami, takimi jak identyfikowanie luk w literaturze czy rekomendowanie recenzentów.
W miarę jak narzędzia AI, takie jak ChatGPT, stają się coraz bardziej zintegrowane z procesami badawczymi, pojawiają się wyzwania związane z ich użyciem, zwłaszcza w zakresie dokładności cytowań.
Na przykład, niedawne badanie podkreśla ryzyko związane z generatywnymi narzędziami AI, które często błędnie przypisują lub fabrykują cytowania. Z 200 przetestowanych artykułów, 153 zawierało nieprawidłowe lub częściowe cytowania.
Ten problem budzi obawy wśród badaczy, którzy polegają na AI przy przygotowywaniu rękopisów i recenzji, ponieważ nieprecyzyjne źródłowanie może podważyć zaufanie do tych narzędzi. Wydawcy są szczególnie narażeni, ponieważ błędne przypisywanie autorstwa może szkodzić ich reputacji i podważać wiarygodność ich pracy.
Te wyzwania podkreślają potrzebę bardziej precyzyjnych wytycznych i zorganizowanej edukacji, aby zapewnić odpowiedzialne korzystanie z AI w środowisku akademickim, gdy badacze starają się zrównoważyć entuzjazm z ostrożnością przy adopcji tej technologii.
Jednakże współpracujący z naukowcami AI stanowi znaczący krok naprzód w ulepszaniu odkryć naukowych, wykorzystując sztuczną inteligencję do pomocy badaczom w eksplorowaniu nowych hipotez, ich weryfikacji i przyspieszania postępu w różnorodnych dziedzinach.
System jest obecnie dostępny do oceny poprzez Program Zaufanych Testerów, zapraszając organizacje badawcze do oceny jego przydatności i efektywności w realnych warunkach.
Zostaw komentarz
Anuluj odpowiedź