Tańcząc z AI: Studenci MIT Eksperymentują z Interaktywną Inteligencją
Studenci z kursu Inteligencja Interakcyjna na MIT (4.043/4.044) zaprezentowali serię projektów na 38-tym dorocznym konferencji Neural Information Processing Systems (NeurIPS) w grudniu 2024, badając nowe sposoby, w jaki AI może kształtować kreatywność, edukację i interakcję międzyludzką.
W pośpiechu? Oto najważniejsze fakty!
- Be the Beat tworzy muzykę z ruchów tanecznych za pomocą sztucznej inteligencji i PoseNet.
- A Mystery for You uczy weryfikacji faktów poprzez grę opartą na kartridżach i zasilaną przez sztuczną inteligencję.
- Memorscope tworzy wspólne wspomnienia generowane przez sztuczną inteligencję z interakcji twarzą w twarz.
Konferencja, jedna z najbardziej uznanych w dziedzinie sztucznej inteligencji i uczenia maszynowego, zgromadziła ponad 16 000 uczestników w Vancouver, jak podano w komunikacie prasowym MIT.
Pod kierunkiem profesora Marcelo Coelho z Wydziału Architektury MIT, studenci opracowali interaktywne projekty z wykorzystaniem sztucznej inteligencji, które badały ewoluującą rolę AI w codziennych doświadczeniach.
Jednym z projektów, Be the Beat, stworzony przez Ethana Changa i Zhixinga Chena, jest integracja sztucznej inteligencji z tańcem poprzez generowanie muzyki, która dostosowuje się do ruchów tancerza.
Korzystając z PoseNet do analizy ruchu i modelu języka do interpretacji stylu i tempa, system zmienia relację między tańcem a muzyką, umożliwiając kształtowanie dźwięku przez ruch, a nie odwrotnie. Uczestnicy opisali to jako alternatywną metodę choreografowania i odkrywania nowych stylów tańca.
View this post on Instagram
Keunwook Kim w swoim Memorscope bada pamięć i interakcje międzyludzkie za pomocą AI. Urządzenie pozwala dwóm osobom patrzeć na siebie przez przeciwne końce struktury przypominającej rurę, a AI generuje wspólną pamięć opartą na ich wspólnej perspektywie.
Poprzez włączanie modeli od OpenAI i Midjourney, system produkuje ewoluujące interpretacje tych interakcji, zmieniając sposób, w jaki pamięci są rejestrowane i doświadczane.
Narratron, autorstwa Xiying (Aria) Bao i Yubo Zhao, wprowadza AI do tradycyjnej opowieści za pomocą interaktywnego projektora. System interpretuje cienie dłoni jako postacie i generuje narrację w czasie rzeczywistym, łącząc elementy wizualne i dźwiękowe, aby zaangażować użytkowników w formę cieniowania wspomaganą przez AI.
Dzieło Karyn Nakamura, „Doskonała składnia”, bada rolę sztucznej inteligencji w montażu filmów i analizie ruchu. Projekt wykorzystuje uczenie maszynowe do manipulacji i rekonstrukcji fragmentów filmów, kwestionując, jak technologia interpretuje ruch i czas.
Badając relację między procesami obliczeniowymi a ludzkim postrzeganiem, praca zastanawia się, w jaki sposób sztuczna inteligencja przekształca media wizualne.
Razem te projekty badają potencjał AI wykraczający poza automatyzację, skupiając się na jego roli w kształtowaniu artystycznego wyrazu, krytycznego myślenia oraz wspólnych doświadczeń.
Zostaw komentarz
Anuluj odpowiedź