Google wprowadza ‚AI Współ-Naukowca’ Aby Przyspieszyć Odkrycia i Innowacje

Image by National Cancer Institute, from Unsplash

Google wprowadza ‚AI Współ-Naukowca’ Aby Przyspieszyć Odkrycia i Innowacje

Przeczytasz w: 4 min

Badacze z Google wprowadzili nowy system AI, znanego jako współnaukowiec AI, zbudowany na platformie Gemini 2.0.

W pośpiechu? Oto najważniejsze informacje!

  • System AI posiada specjalistyczne agentów do generowania, klasyfikowania i doskonalenia pomysłów na badania.
  • AI współbadacz korzysta z koalicji specjalistycznych agentów do różnych funkcji badawczych.
  • Pokazał obiecujące wyniki, takie jak sugerowanie potencjalnych leków na leczenie białaczki.

Ten system ma na celu poprawę badań naukowych i biomedycznych, pełniąc rolę wirtualnego współpracownika dla naukowców.

AI współ-naukowiec został zaprojektowany, aby generować nowatorskie hipotezy, proponować kierunki badań i wspierać długoterminowe planowanie naukowe, pomagając przyspieszyć procesy odkrywania w różnych dziedzinach, w tym repozycjonowanie leków, identyfikacja celów terapeutycznych i oporność na antybiotyki.

Innowacyjność systemu tkwi w jego architekturze wieloagentowej. Zamiast polegać na jednym modelu AI, AI współ-naukowiec wykorzystuje koalicję specjalistycznych agentów, z których każdy ma określoną funkcję.

Ci agenci są inspirowani metodą naukową i współpracują, aby generować, udoskonalać i oceniać hipotezy. Na przykład agent „Generacji” proponuje nowe pomysły badawcze, podczas gdy agent „Rankingu” porównuje i ocenia te pomysły na podstawie potencjalnego wpływu.

Systemowe agenci „Ewolucji” i „Refleksji” iteracyjnie poprawiają jakość hipotez, analizując informacje zwrotne, podczas gdy agent „Meta-recenzji” nadzoruje cały proces, zapewniając zgodność z celem badawczym.

Ten współpracujący podejście pozwala systemowi na ciągłe doskonalenie swoich wyników. Przetwarzając dane cele badawcze na zrozumiałe zadania, agent nadzorujący zarządza przepływem pracy systemu, przydzielając zasoby i dbając o to, aby każdy wyspecjalizowany agent pełnił swoją rolę.

W rezultacie, AI współpracownik naukowy dostosowuje swoje podejście z czasem, poprawiając jakość i nowatorstwo swoich propozycji.

Ten proces samodoskonalenia jest napędzany przez metrykę autoewaluacji Elo, która monitoruje jakość generowanych hipotez i ocenia, czy większe nakłady czasu obliczeniowego poprawiają wydajność systemu.

W testach, AI współpracujący ze naukowcem wykazał silną zdolność do tworzenia nowych i wpływowych pomysłów badawczych. Na przykład, w dziedzinie ponownego wykorzystania leków, zaproponował kandydatów na leczenie ostrej białaczki szpikowej (AML).

Te propozycje zostały następnie zweryfikowane poprzez badania eksperymentalne, potwierdzając potencjalną skuteczność proponowanych leków.

Podobnie, w obszarze zwłóknienia wątroby, współpracujący z nami naukowiec AI zidentyfikował epigenetyczne cele o znacznym potencjale terapeutycznym, wspierając ich weryfikację eksperymentalną na organoidach ludzkiej wątroby.

Jednakże, oprócz potencjalnych korzyści, niedawne badanie ujawnia szereg wyzwań związanych z wdrożeniem AI w badaniach.

Pomimo rosnącego zainteresowania narzędziami AI, tylko 45% z prawie 5000 ankietowanych badaczy obecnie wykorzystuje AI w swojej pracy, głównie do zadań takich jak tłumaczenie i korekta.

Obawy dotyczące dokładności AI, uprzedzeń i ryzyka związanego z prywatnością są powszechne, a aż 81% respondentów wyraziło niepokój. Co więcej, prawie dwie trzecie uczestników wskazało niewystarczające szkolenie jako znaczącą barierę w efektywnym wdrożeniu AI.

Naukowcy również zachowują ostrożność wobec zdolności AI do radzenia sobie z bardziej złożonymi zadaniami, takimi jak identyfikowanie luk w literaturze czy rekomendowanie recenzentów.

W miarę jak narzędzia AI, takie jak ChatGPT, stają się coraz bardziej zintegrowane z procesami badawczymi, pojawiają się wyzwania związane z ich użyciem, zwłaszcza w zakresie dokładności cytowań.

Na przykład, niedawne badanie podkreśla ryzyko związane z generatywnymi narzędziami AI, które często błędnie przypisują lub fabrykują cytowania. Z 200 przetestowanych artykułów, 153 zawierało nieprawidłowe lub częściowe cytowania.

Ten problem budzi obawy wśród badaczy, którzy polegają na AI przy przygotowywaniu rękopisów i recenzji, ponieważ nieprecyzyjne źródłowanie może podważyć zaufanie do tych narzędzi. Wydawcy są szczególnie narażeni, ponieważ błędne przypisywanie autorstwa może szkodzić ich reputacji i podważać wiarygodność ich pracy.

Te wyzwania podkreślają potrzebę bardziej precyzyjnych wytycznych i zorganizowanej edukacji, aby zapewnić odpowiedzialne korzystanie z AI w środowisku akademickim, gdy badacze starają się zrównoważyć entuzjazm z ostrożnością przy adopcji tej technologii.

Jednakże współpracujący z naukowcami AI stanowi znaczący krok naprzód w ulepszaniu odkryć naukowych, wykorzystując sztuczną inteligencję do pomocy badaczom w eksplorowaniu nowych hipotez, ich weryfikacji i przyspieszania postępu w różnorodnych dziedzinach.

System jest obecnie dostępny do oceny poprzez Program Zaufanych Testerów, zapraszając organizacje badawcze do oceny jego przydatności i efektywności w realnych warunkach.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
5.00 Na podstawie głosów 2 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Zostaw komentarz

Loader
Loader Pokaż więcej...