ChatGPT do Wzmocnienia Samochodów Autonomicznych
Spieszysz się? Oto najważniejsze informacje!
- Inżynierowie odkryli, że LLM, takie jak ChatGPT, mogą poprawić zdolności jazdy AV.
- LLM pomaga AV interpretować polecenia w naturalny sposób, poprawiając doświadczenia użytkownika.
- AV używające LLM były oceniane jako bardziej komfortowe niż tradycyjne modele.
Inżynierowie z Purdue University poinformowali, że autonomiczne pojazdy (AVs) mogą wykorzystać ChatGPT i inne chatboty, zasilane przez algorytmy sztucznej inteligencji znane jako duże modele językowe (LLMs), aby zwiększyć swoje możliwości jazdy.
Ich badanie, które zostanie zaprezentowane 25 września na 27th IEEE Międzynarodowej Konferencji na temat Inteligentnych Systemów Transportowych, bada, jak LLMs pomagają AVs interpretować polecenia pasażerów w bardziej naturalny sposób, co potencjalnie oznacza przełom w interakcji człowiek-pojazd.
W przeciwieństwie do obecnych systemów AV, które wymagają precyzyjnych danych wejściowych, LLM są szkolone w celu interpretacji mowy ludzkiej w bardziej elastyczny, konwersacyjny sposób.
Dr Wang, główny badacz prowadzący to badanie, wyjaśnia, że tradycyjne interfejsy pojazdów często wiążą się z naciskaniem przycisków czy wydawaniem konkretnych poleceń głosowych. Z drugiej strony, LLM umożliwiają bardziej intuicyjny i naturalny dialog z pasażerami.
Chociaż LLM nie kontroluje bezpośrednio pojazdu, badacze wyjaśnili, że LLM mogą być używane do wspomagania istniejących systemów AV, co sprawia, że doświadczenie z jazdy staje się bardziej spersonalizowane i dostosowane do potrzeb pasażerów.
Dla swojego eksperymentu, zespół badawczy przeszkolił ChatGPT za pomocą różnego rodzaju poleceń, zarówno bezpośrednich, jak i pośrednich. Przykłady obejmują: „Jedź szybciej” lub „Czuję się choruję na chorobę lokomocyjną”, ucząc model dostosowywania się do różnych sytuacji.
Badacze przetestowali inne chatboty, takie jak Gemini od Google i Llama AI od Meta, ale stwierdzili, że najlepiej sprawdził się ChatGPT.
Model przetwarzał te polecenia, biorąc pod uwagę bieżące warunki ruchu drogowego, pogodę i dane z czujników pojazdu.
Pojazd, który działał na czwartym poziomie autonomii (zaledwie o jeden krok poniżej pełnej autonomii), używał instrukcji generowanych przez LLM do sterowania przepustnicą, hamulcami, biegami i kierownicą.
W niektórych eksperymentach, zespół Wang’a przetestował moduł pamięci, który dodali do systemu. Pozwoliło to dużym modelom językowym na przechowywanie informacji o wcześniejszych preferencjach pasażera. Modele te następnie używały tych danych do personalizowania swoich odpowiedzi na przyszłe polecenia.
Eksperymenty przeprowadzono w kontrolowanym środowisku, w tym na dawnej pasie startowej lotniska w Columbus, Indiana, gdzie testowano reakcje AV na polecenia przy prędkościach autostradowych i na skrzyżowaniach.
Badacze poinformowali, że uczestnicy uznali swoje podróże w AV z asystą LLM za bardziej komfortowe niż w tradycyjnych systemach AV. Pojazd również konsekwentnie przewyższał podstawowe standardy bezpieczeństwa, nawet podczas reagowania na nowe polecenia.
To jest szczególnie istotne, gdy samochody autonomiczne są coraz częściej używane jako taksówki, gdzie spersonalizowane doświadczenia mogą zwiększyć zadowolenie pasażera.
Duże modele językowe użyte w tym badaniu średnio potrzebowały 1,6 sekundy na przetworzenie polecenia pasażera, co jest wystarczające dla większości sytuacji, ale w sytuacjach awaryjnych musi być szybsze, jak zauważyła dr Wang.
Chociaż to badanie nie skupiało się na tym, duże modele językowe, takie jak ChatGPT, czasami potrafią „halucynować”, co oznacza, że źle interpretują informacje i dają niepoprawne odpowiedzi.
Aby zaradzić temu problemowi, zespół wprowadził środki bezpieczeństwa chroniące pasażerów, gdy modele źle zrozumiały polecenia. Modele stawały się coraz lepsze w rozumieniu poleceń podczas jazdy, ale halucynacje nadal muszą zostać naprawione, zanim te modele mogą być używane w AVs.
Producenci samochodów będą musieli również przeprowadzić więcej testów, poza badaniami już przeprowadzonymi przez uniwersytety. Ponadto, potrzebują zgody regulatora przed pełnym zintegrowaniem dużych modeli językowych z AVs, aby kontrolować funkcje jazdy pojazdu – powiedziała Wang.
Zostaw komentarz
Anuluj odpowiedź