Naukowcy: AI może widzieć ekran przez wycieki z kabla HDMI

Image by Tima Miroshnichenko, from Pexels

Naukowcy: AI może widzieć ekran przez wycieki z kabla HDMI

Przeczytasz w: 2 min

Nowe badanie ujawnia, że hakerzy mogą przechwytywać promieniowanie elektromagnetyczne z kabli HDMI, aby odczytać zawartość ekranu, korzystając z sztucznej inteligencji. Ta wyszukana forma podsłuchu, choć niepokojąca, stanowi głównie zagrożenie dla środowisk o wysokim poziomie zabezpieczeń, a nie dla zwykłych użytkowników.

Połączenie między komputerami a ekranami było kiedyś całkowicie analogowe, ale dzisiaj jest głównie cyfrowe, transmitując dane binarne za pomocą kabli interfejsu multimedialnego o wysokiej rozdzielczości (HDMI). Gdy sygnał przemierza przewód, dochodzi do wycieku pewnej ilości promieniowania elektromagnetycznego, a hakerzy mogliby stosunkowo łatwo przechwycić ten wyciek w przypadku sygnałów analogowych.

Ataki wykorzystujące to zjawisko są znane jako TEMPEST. Mimo, że sygnały cyfrowe są bardziej skomplikowane i przenoszą więcej danych, co utrudnia ich odczytanie, nadal można je przechwycić.

Federico Larroca i jego zespół z Universidad de la República Uruguay, opracowali model AI zdolny do rekonstruowania tych przechwyconych sygnałów cyfrowych z odległości kilku metrów.

Ocenili wydajność modelu, porównując tekst przechwycony z odtworzonego obrazu do oryginalnego obrazu na ekranie. Sztuczna inteligencja osiągnęła błąd na poziomie około 30 procent, co oznacza, że większość tekstu mogła być dokładnie odczytana, pomimo błędnej interpretacji niektórych znaków. Jest to znaczna poprawa, błąd jest o 60 procent niższy niż w poprzednich metodach.

Hakerzy mogliby wykorzystać tę technikę do szpiegowania wrażliwych informacji, takich jak hasła i dane bankowe wyświetlane na ekranie. Mogą to zrobić, przechwytując sygnały za pomocą zdalnych anten lub ukrytych urządzeń.

W wywiadzie dla New Scientist, Larroca mówi: „Rządy się tym martwią, [ale] nie powiedziałabym, że zwykły użytkownik powinien się zbytnio niepokoić,[…] Ale jeśli naprawdę zależy ci na swoim bezpieczeństwie, bez względu na twoje powody, to może stanowić problem.”

Aby zminimalizować te ryzyka, naukowcy proponują dwie przeciwdziałania, które można zastosować, modyfikując wyświetlany obraz w sposób prawie niewidoczny dla użytkownika, ale zakłócający zdolność SI do odczytania przechwyconych sygnałów. Jedna metoda polega na dodaniu niskopoziomowego szumu do obrazu, który działa jak atak przeciwnika na sieć neuronową, sprawiając, że wynikowy tekst jest w dużej mierze nieczytelny. Innym podejściem jest użycie gradientu kolorów na tle obrazu, na przykład przejścia od białego do czarnego, co znacznie zmienia przechwycony sygnał.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Zostaw komentarz

Loader
Loader Pokaż więcej...