AI i kwestie pracownicze

Publikacja: 14.03.2025 17:16

Agnieszka Lechman-Filipiak Partnerka kierująca zespołem prawa pracy, DLA Piper

Agnieszka Lechman-Filipiak Partnerka kierująca zespołem prawa pracy, DLA Piper

Foto: materiały prasowe

Marta Borówka Senior Associate w zespole prawa pracy, DLA Piper

Marta Borówka Senior Associate w zespole prawa pracy, DLA Piper

Foto: materiały prasowe

W jaki sposób można wykorzystać obecnie AI w działach HR?

Narzędzia oparte na sztucznej inteligencji otwierają nowe perspektywy dla procesów HR, oferując wsparcie na różnych etapach zarządzania zasobami ludzkimi. Już na etapie rekrutacji mogą one usprawnić selekcję aplikacji, analizując CV pod kątem określonych kryteriów, a nawet przeprowadzać wstępne rozmowy kwalifikacyjne, co znacząco odciąża rekruterów i pozwala im skupić się na kandydatach o największym potencjale.

W trakcie zatrudnienia AI może ułatwiać monitorowanie efektywności pracowników m.in. poprzez analizę danych dotyczących czasu pracy, uwzględniając m.in. podział na aktywność podczas korzystania z poszczególnych programów lub aplikacji. Takie rozwiązania dostarczają informacji nie tylko działom HR, lecz także samym pracownikom, umożliwiając im bieżący wgląd we własną produktywność.

Na rynku pojawiają się także narzędzia AI weryfikujące jakość pracy pracowników, zapewniając im jednocześnie feedback w czasie rzeczywistym. Przykładem mogą być narzędzia przeznaczone dla obszaru call center, które analizują przebieg rozmowy i na bieżąco sygnalizują konieczność zwolnienia tempa wypowiedzi, poprawy tonu głosu czy przypominają o kluczowych kwestiach wymagających omówienia z klientem, umożliwiając podnoszenie jakości obsługi bez potrzeby angażowania dodatkowych zasobów.

Sztuczna inteligencja może znaleźć również zastosowanie w procesach restrukturyzacyjnych, w tym przy zwolnieniach grupowych. Algorytmy mogą wspierać pracodawców w wyborze pracowników objętych tym procesem, bazując na wcześniej zdefiniowanych kryteriach doboru.

Jakie niesie to za sobą ryzyka?

Choć AI może wydawać się remedium dla przeciążonych działów HR (lub pracodawców, którzy po prostu szukają w tym obszarze oszczędności), to jednak jej wdrożenie wiąże się z szeregiem ryzyk, których pracodawcy nie mogą bagatelizować.

Przede wszystkim należy mieć na uwadze ryzyko związane z tzw. AI bias (w wolnym tłumaczeniu: stronniczość algorytmiczna). Otóż systemy AI działają na podstawie danych, na których zostały wytrenowane, a jakość i obiektywność tych danych bezpośrednio wpływają na trafność i rzetelność wyników generowanych przez system AI. Jeśli dane wejściowe zawierają nieświadome uprzedzenia, algorytm może je odtworzyć i utrwalić w swoich decyzjach. Przykładem takiej sytuacji może być preferowanie przy rekrutacji kandydatów płci męskiej na stanowiska techniczne, co może wynikać z historycznej nadreprezentacji mężczyzn w zawodach technicznych. Innymi słowy, jeśli dane statystyczne wskazują, że w zawodach technicznych przeważają mężczyźni, system AI, bazując na tych wzorcach, może traktować tę zależność jako istotny czynnik przy podejmowaniu decyzji o wyborze kandydata, faworyzując tym samym kandydatów płci męskiej jako „bardziej odpowiednich” na dane stanowisko – a to, w świetle przepisów kodeksu pracy, należałoby uznać za nierówne traktowanie, które może generować ryzyko roszczeń odszkodowawczych ze strony pracownika.

Aby zminimalizować ryzyko wystąpienia takich nieprawidłowości, niezbędne jest odpowiednie przygotowanie danych, na których bazuje system AI, m.in. poprzez anonimizację informacji dotyczących płci, nazwiska czy wieku oraz dostosowanie algorytmów tak, by ignorowały ukryte korelacje (np. dłuższe przerwy w zatrudnieniu, które są znacznie częstsze w przypadku kobiet i wynikające z korzystania przez nie z urlopu macierzyńskiego czy rodzicielskiego).

Kolejnym istotnym wyzwaniem jest tzw. dylemat czarnej skrzynki. Problem ten pojawia się, gdy decyzje podejmowane przez system AI – jak wybór kandydata do zatrudnienia, ocena efektywności pracownika czy dobór do zwolnienia – stają się trudne do zrozumienia i wyjaśnienia. Wynika to z faktu, że systemy AI działają na zasadzie uczenia głębokiego (tzw. deep learning), przetwarzając dane w sposób skomplikowany i nieprzejrzysty nawet dla ekspertów. W efekcie użytkownicy tych systemów mogą mieć trudności z prawidłową interpretacją wygenerowanych wyników, co może prowadzić do błędnych decyzji, np. niesprawiedliwej oceny pracowników na podstawie niepełnych lub niewłaściwie sklasyfikowanych danych, a w konsekwencji ryzyka roszczeń z tytułu nierównego traktowania nieuzasadnionego żadną obiektywną przyczyną (z tytułu dyskryminacji).

W kontekście tych wyzwań istotną rolę odgrywa unijny akt w sprawie sztucznej inteligencji, który wprowadza mechanizmy zabezpieczające przed potencjalnymi nadużyciami i negatywnymi konsekwencjami dla osób, które są poddane jego działaniu, kategoryzując systemy AI na podstawie poziomu ryzyka, jakie generują. Systemy wykorzystywane w obszarze zatrudnienia zostały sklasyfikowane jako systemy wysokiego ryzyka, co jest o tyle istotne, że choć wiele wymogów wynikających z aktu dotyczy dostawców tych systemów, to również pracodawcy jako użytkownicy takich rozwiązań muszą spełnić określone wymogi. Przepisy, które dotyczą tych wymogów, zaczną obowiązywać od 2 sierpnia 2026 r.

Jednym z kluczowych obowiązków będzie zapewnienie nadzoru człowieka nad działaniem systemów AI. Co istotne, nadzór ten nie może być czysto formalny – osoba odpowiedzialna za monitorowanie działania algorytmów powinna posiadać odpowiednie kompetencje, przeszkolenie oraz wsparcie umożliwiające jej zrozumienie działania systemu, prawidłową interpretację wygenerowanych wyników i podejmowanie świadomych decyzji (w tym decyzji odmiennych od tych, które rekomenduje system AI). O ile zatem wydaje się, że w nieodległej perspektywie pracodawcy będą mogli pracować bardziej efektywnie dzięki szerszemu zastosowaniu sztucznej inteligencji w procesach HR-owych, to czynnik ludzki w dalszym ciągu będzie pozostawał kluczowy – i, co istotne, wymagany prawnie.

Co ważne, zgodnie z przepisami aktu w sprawie sztucznej inteligencji pracownik, na którego sytuację zawodową wpływa decyzja podjęta z wykorzystaniem systemu AI, będzie miał prawo zażądać od pracodawcy klarownego i merytorycznego wyjaśnienia roli tego systemu w procesie decyzyjnym. Pracownik będzie mógł również uzyskać informacje dotyczące kluczowych czynników, które wpłynęły na podjęcie tej decyzji – zwłaszcza w sytuacji, gdy uzna, że decyzja ta negatywnie oddziałuje na jego prawa podstawowe. Przykładowo pracownik zwolniony w ramach zwolnień grupowych, którego wybór do redukcji etatu został dokonany na podstawie selekcji przeprowadzonej przez system AI, będzie miał prawo dowiedzieć się, jakie konkretne kryteria i dane zadecydowały o objęciu go tym procesem. W praktyce konieczne będzie zatem wskazanie pracownikowi parametrów, które zostały uwzględnione przez algorytm – a jeśli okaże się, że te parametry były np. nieprawidłowe lub dyskryminujące, pracownik będzie miał prawo wystąpić przeciwko pracodawcy z roszczeniami odszkodowawczymi lub domagać się przywrócenia do pracy. Warto o tym pamiętać i mieć świadomość, że pracodawca de facto nigdy nie znajdzie się w sytuacji, w której będzie mógł bezrefleksyjnie polegać na wynikach systemu AI.

W jaki sposób firmy mogą zgodnie z prawem wykorzystać AI w monitorowaniu efektywności pracowników?

Przepisy polskiego prawa nie wprowadzają szczegółowych regulacji dotyczących oceny pracowników. Co więcej, pracodawca nie jest zobowiązany do przeprowadzania takiej oceny, co pozostawia szerokie pole manewru w zakresie opracowywania i wdrażania metod oceny efektywności pracy. Otwiera to pracodawcom przestrzeń do tworzenia autorskich systemów oceny, dostosowanych do specyfiki danej organizacji i jej celów biznesowych.

Warto również podkreślić, że regulacja unijna nie wyłącza stosowania przepisów kodeksu pracy, które nadal pozostają w mocy. Systemy oparte na sztucznej inteligencji, aby skutecznie monitorować efektywność pracowników, wymagają danych, takich jak czas pracy, aktywność w trakcie korzystania z firmowych urządzeń i aplikacji, jakość i terminowość realizacji zadań, a nawet interakcje z klientami (np. wspomniana analiza nagrań rozmów w call center).

Z punktu widzenia przepisów prawa pracy takie działania będą stanowiły „inną formę monitoringu”, o której mowa w art. 223 § 4 kodeksu pracy, co w praktyce oznacza, że układ zbiorowy pracy, regulamin pracy albo obwieszczenie pracodawcy będą musiały zawierać postanowienia dotyczące celów, zakresu oraz sposobu jej zastosowania. Ponadto ta forma monitoringu nie może naruszać tajemnicy korespondencji oraz innych dóbr osobistych pracownika (w tym prawa do prywatności), co oznacza konieczność upewnienia się, że system AI bazuje wyłącznie na tych danych, które są relewantne dla oceny pracy pracownika.

Co zrobić, aby przez wzrost automatyzacji (np. automatyzacja procesów HR, wykorzystanie algorytmów decyzyjnych w działach personalnych) „nie stracić z oczu człowieka”?

Z aktu w sprawie sztucznej inteligencji wynika wprost, że przed oddaniem do użytku lub wykorzystaniem systemu AI wysokiego ryzyka w miejscu pracy podmioty stosujące AI, będące pracodawcami, będą zobowiązane poinformować przedstawicieli pracowników i pracowników, których to dotyczy, że będzie w stosunku do nich wykorzystywany system AI wysokiego ryzyka. Konieczne zatem będzie zapewnienie jakiejś formy dialogu pomiędzy przedstawicielami pracowników (w tym – związkami zawodowymi) i samymi pracownikami.

Co można zrobić od strony praktycznej? Na poziomie relacji z samymi pracownikami i związkami zawodowymi warto zadbać o pracę u podstaw, w tym organizację spotkań informacyjnych czy przygotowanie materiałów wyjaśniających, w jaki sposób systemy AI będą wspierały pracodawcę w podejmowaniu decyzji.

Warto zainwestować w szkolenia zwiększające poziom kompetencji w zakresie sztucznej inteligencji (tzw. AI literacy) wśród pracowników działów HR, którzy będą korzystać z tych systemów, ale także wśród kadry zarządzającej, która podejmuje finalne decyzje kadrowe (a zatem powinna wiedzieć, jak działają narzędzia wspierające podejmowanie tych decyzji).

Wdrożenie narzędzi AI w HR to obiecujący kierunek rozwoju, ale wymaga ono strategicznego podejścia, dbałości o jakość danych oraz zgodności z obowiązującymi regulacjami prawnymi. Dopiero połączenie tej innowacji z odpowiedzialnym i świadomym zarządzaniem pozwoli w pełni wykorzystać potencjał sztucznej inteligencji w środowisku pracy.




Inwestycje
Od wyzysku do balansu
Inwestycje
Równość i jawność wynagrodzeń – prawo, a praktyka
Inwestycje
Bezpieczeństwo informacji pracodawcy w dobie elastycznych modeli zatrudnienia
Inwestycje
Trendy HR, które warto obserwować w 2025 roku