Tańcząc z AI: Studenci MIT Eksperymentują z Interaktywną Inteligencją

Image by Lorenzo Herrera, from Unsplash

Tańcząc z AI: Studenci MIT Eksperymentują z Interaktywną Inteligencją

Przeczytasz w: 2 min

Studenci z kursu Inteligencja Interakcyjna na MIT (4.043/4.044) zaprezentowali serię projektów na 38-tym dorocznym konferencji Neural Information Processing Systems (NeurIPS) w grudniu 2024, badając nowe sposoby, w jaki AI może kształtować kreatywność, edukację i interakcję międzyludzką.

W pośpiechu? Oto najważniejsze fakty!

  • Be the Beat tworzy muzykę z ruchów tanecznych za pomocą sztucznej inteligencji i PoseNet.
  • A Mystery for You uczy weryfikacji faktów poprzez grę opartą na kartridżach i zasilaną przez sztuczną inteligencję.
  • Memorscope tworzy wspólne wspomnienia generowane przez sztuczną inteligencję z interakcji twarzą w twarz.

Konferencja, jedna z najbardziej uznanych w dziedzinie sztucznej inteligencji i uczenia maszynowego, zgromadziła ponad 16 000 uczestników w Vancouver, jak podano w komunikacie prasowym MIT.

Pod kierunkiem profesora Marcelo Coelho z Wydziału Architektury MIT, studenci opracowali interaktywne projekty z wykorzystaniem sztucznej inteligencji, które badały ewoluującą rolę AI w codziennych doświadczeniach.

Jednym z projektów, Be the Beat, stworzony przez Ethana Changa i Zhixinga Chena, jest integracja sztucznej inteligencji z tańcem poprzez generowanie muzyki, która dostosowuje się do ruchów tancerza.

Korzystając z PoseNet do analizy ruchu i modelu języka do interpretacji stylu i tempa, system zmienia relację między tańcem a muzyką, umożliwiając kształtowanie dźwięku przez ruch, a nie odwrotnie. Uczestnicy opisali to jako alternatywną metodę choreografowania i odkrywania nowych stylów tańca.

View this post on Instagram

A post shared by Be the Beat (@be_thebeat)

Keunwook Kim w swoim Memorscope bada pamięć i interakcje międzyludzkie za pomocą AI. Urządzenie pozwala dwóm osobom patrzeć na siebie przez przeciwne końce struktury przypominającej rurę, a AI generuje wspólną pamięć opartą na ich wspólnej perspektywie.

Poprzez włączanie modeli od OpenAI i Midjourney, system produkuje ewoluujące interpretacje tych interakcji, zmieniając sposób, w jaki pamięci są rejestrowane i doświadczane.

Narratron, autorstwa Xiying (Aria) Bao i Yubo Zhao, wprowadza AI do tradycyjnej opowieści za pomocą interaktywnego projektora. System interpretuje cienie dłoni jako postacie i generuje narrację w czasie rzeczywistym, łącząc elementy wizualne i dźwiękowe, aby zaangażować użytkowników w formę cieniowania wspomaganą przez AI.

Dzieło Karyn Nakamura, „Doskonała składnia”, bada rolę sztucznej inteligencji w montażu filmów i analizie ruchu. Projekt wykorzystuje uczenie maszynowe do manipulacji i rekonstrukcji fragmentów filmów, kwestionując, jak technologia interpretuje ruch i czas.

Badając relację między procesami obliczeniowymi a ludzkim postrzeganiem, praca zastanawia się, w jaki sposób sztuczna inteligencja przekształca media wizualne.

Razem te projekty badają potencjał AI wykraczający poza automatyzację, skupiając się na jego roli w kształtowaniu artystycznego wyrazu, krytycznego myślenia oraz wspólnych doświadczeń.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Zostaw komentarz

Loader
Loader Pokaż więcej...