
LinkedIn wdraża sztuczną inteligencję w Europie – nowa polityka zacznie obowiązywać 3 listopada 2025
Od początku listopada LinkedIn uzyska prawo do wykorzystywania informacji z profili europejskich użytkowników do trenowania generatywnej sztucznej inteligencji. Platforma argumentuje, że to konieczny krok w celu ulepszenia swoich usług, choć sceptycy mogą mieć wątpliwości, czy korzyści dla użytkowników rzeczywiście będą tak spektakularne, jak obiecują twórcy. Zwłaszcza że w grę wchodzą wszystkie publiczne aktywności – doświadczenie zawodowe, umiejętności, wykształcenie oraz treści udostępniane na platformie. Na szczęście nasze prywatne rozmowy pozostaną poza zasięgiem algorytmów.

Innymi słowy, LinkedIn będzie analizować praktycznie wszystko, co widoczne jest publicznie. To oznacza, że każdy post, komentarz czy nawet informacje o umiejętnościach mogą zostać wykorzystane do szkolenia modeli AI. Platforma zapewnia, że stosuje odpowiednie zabezpieczenia. Ciekawym aspektem jest fakt, że trenowanie generatywnych modeli AI ma służyć nie tylko lepszemu dopasowywaniu ofert pracy, ale także moderacji treści i wykrywaniu naruszeń zasad społeczności.
Czytaj też: Reklamy na lodówce? Nowy pomysł Samsunga wywołuje kontrowersje
Dnia 3 listopada 2025 r. zaktualizujemy nasze Warunki świadczenia usług. Zobacz, co się zmieni. Ponadto 3 listopada 2025 r. zaczniemy wykorzystywać dane członków z Twojego regionu, aby ulepszyć działanie generatywnej AI służącej do generowania treści w celu poprawy jakości korzystania z serwisu i skuteczniejszego łączenia naszych członków z możliwościami zawodowymi. To rozwiązanie ułatwi rekruterom znalezienie Cię i nawiązanie kontaktu, a członkom pomoże szybciej tworzyć treści, takie jak aktualizacje profilu, wiadomości czy publikacje. Dotyczy to między innymi danych zawartych w profilu oraz treści publicznych, które tworzysz na LinkedIn. Nie obejmuje to Twoich prywatnych wiadomości. Jeśli nie chcesz, aby Twoje dane były wykorzystywane w ten sposób, możesz zrezygnować w każdej chwili w ustawieniach. Jeśli już przesłałeś(-aś) Formularz sprzeciwu wobec przetwarzania danych, upewnij się, czy Twoje ustawienia rezygnacji są prawidłowe. Zapoznaj się z naszymi Informacjami o ochronie prywatności na terenie Europy, aby dowiedzieć się więcej o tym, jak uzasadniony interes stanowi dla nas podstawę prawną do przetwarzania danych na potrzeby trenowania modeli generatywnej AI służących do tworzenia treści wykorzystywanych w naszych produktach. Możesz kontrolować sposób, w jaki LinkedIn przetwarza Twoje dane. Dowiedz się więcej w Centrum pomocy.
Jak zachować kontrolę nad swoimi danymi?
Dobra wiadomość jest taka, że jeśli nie chcemy udostępniać swoich danych do trenowania AI, nie musimy tego robić, bo LinkedIn przewidział możliwość wyłączenia tej opcji. Procedura jest stosunkowo prosta, choć – co typowe – domyślnie zgoda jest włączona. Wystarczy w ustawieniach prywatności znaleźć odpowiednią opcję i zmienić jej status. Platforma deklaruje również, że rezygnacja z udostępniania danych nie wpłynie na funkcjonalność konta. To ważne, bo użytkownicy nie powinni być zmuszani do wyboru między prywatnością a pełnym dostępem do usług. Zresztą, w naszym regionie Unia nie pozwoliłaby, by było to obowiązkowe.
Czytaj też: Cyfrowa legitymacja szkolna już dostępna dla prawie 5 milionów uczniów dzięki mObywatel Junior
Chociaż LinkedIn nie kojarzy nam się z typową platformą społecznościową, to jej działanie wpisuje się w trend, który obserwujemy na Facebooku czy Twitterze od lat. Inni giganci rynkowi od dawna wykorzystują dane użytkowników do podobnych celów, nawet jeśli budzi to kontrowersje.
Czytaj też: Google Chrome z największą aktualizacją w historii. Sztuczna inteligencja Gemini zmieni sposób przeglądania
Mimo wszystko, dla polskich i ogólnie europejskich użytkowników zmiana może przynieść pewne korzyści – lepiej dopasowane oferty pracy, inteligentniejsze podpowiedzi. Nie można jednak ignorować pytania o to, gdzie przebiega granica między użytecznością a inwazją na prywatność. LinkedIn twierdzi, że stara się ją zachować, ale to każdy użytkownik musi zdecydować, na ile ufa tym zapewnieniom.