LinkedIn wykorzystuje dane użytkowników do trenowania modeli AI bez jasnej zgody

Image by Airam Dato-on, from Pexels

LinkedIn wykorzystuje dane użytkowników do trenowania modeli AI bez jasnej zgody

Przeczytasz w: 3 min

  • Kiara Fabbri

    Autor: Kiara Fabbri Dziennikarka multimedialna

  • Zespół ds. lokalizacji i tłumaczenia

    Tłumaczenie: Zespół ds. lokalizacji i tłumaczenia Usługi związane z tłumaczeniem i lokalizacją treści

Spieszysz się? Oto szybkie fakty!

  • LinkedIn wykorzystał dane użytkowników z USA do AI bez jasnej informacji.
  • Istniała możliwość rezygnacji, ale LinkedIn nie zaktualizował początkowo swojej polityki prywatności.
  • Opóźniona aktualizacja LinkedIna odzwierciedla rosnące globalne obawy dotyczące wykorzystania danych AI.

LinkedIn, platforma do profesjonalnych kontaktów biznesowych, spotkał się z krytyką za korzystanie z danych użytkowników do trenowania swoich modeli AI, nie informując o tym użytkowników w sposób wyraźny przedtem.

Użytkownicy LinkedIna w USA – ale nie ci w UE, EOG lub Szwajcarii, prawdopodobnie ze względu na bardziej rygorystyczne prawa dotyczące prywatności danych – mają w swoich ustawieniach przełącznik umożliwiający rezygnację, który ujawnia, że LinkedIn zbiera dane osobowe do trenowania „modeli AI do tworzenia treści”.

Chociaż przełącznik sam w sobie nie jest nowością, LinkedIn początkowo nie zaktualizował swojej polityki prywatności, aby odzwierciedlić to wykorzystanie danych, jak pierwotnie zgłosił 404 Media.

Na stronie pomocy, LinkedIn wyjaśnia, że jego generujące modele AI są wykorzystywane do zadań, takich jak funkcje asystenta pisania.

Użytkownicy mogą zrezygnować z wykorzystywania swoich danych do szkolenia AI, przechodząc do sekcji „Dane do ulepszania generatywnego AI” znajdującej się pod zakładką Prywatność danych w ustawieniach ich konta.

Wyłączenie przełącznika uniemożliwi LinkedIn wykorzystywanie danych osobowych do przyszłego treningu modeli AI, chociaż nie cofnie to szkolenia, które już miało miejsce.

Regulamin usług został od tego czasu zaktualizowany, jak informuje TechCrunch, jednak takie aktualizacje zazwyczaj następują na długo przed istotnymi zmianami, takimi jak ponowne wykorzystanie danych użytkowników.

Takie podejście zwykle pozwala użytkownikom dostosować swoje ustawienia lub opuścić platformę, jeśli nie zgadzają się ze zmianami. Tym razem jednak nie było takiej możliwości.

To pojawia się w kontekście szerszych obaw dotyczących sposobu przetwarzania danych osobowych przez systemy AI. Kontrola nad praktykami przetwarzania danych przez AI na całym świecie staje się coraz bardziej intensywna.

Niedawne badanie przeprowadzone przez MIT ujawniło, że rosnąca liczba stron internetowych ogranicza wykorzystanie swoich danych do szkolenia AI.

Dodatkowo, DPC niedawno zakończyło postępowanie prawne przeciwko X w sprawie jego narzędzia AI, po tym jak firma zgodziła się przestrzegać wcześniejszych ograniczeń dotyczących wykorzystywania danych użytkowników z EU/EEA do szkolenia AI.

Incydent ten podkreśla rosnące znaczenie przejrzystości i zgody użytkownika w rozwoju technologii AI.

W miarę jak sztuczna inteligencja (AI) nieustannie się rozwija, niezwykle istotne jest, aby firmy były jasne co do swoich praktyk związanych z danymi i uzyskały wyraźną zgodę od użytkowników, zanim wykorzystają ich informacje do celów szkoleniowych.

Incydent ten podkreśla również rosnące napięcia między firmami AI a właścicielami danych, ponieważ coraz więcej organizacji domaga się większej kontroli nad tym, jak ich dane są wykorzystywane.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Zostaw komentarz

Pokaż więcej...