Jakie niesie to za sobą ryzyka?
Choć AI może wydawać się remedium dla przeciążonych działów HR (lub pracodawców, którzy po prostu szukają w tym obszarze oszczędności), to jednak jej wdrożenie wiąże się z szeregiem ryzyk, których pracodawcy nie mogą bagatelizować.
Przede wszystkim należy mieć na uwadze ryzyko związane z tzw. AI bias (w wolnym tłumaczeniu: stronniczość algorytmiczna). Otóż systemy AI działają na podstawie danych, na których zostały wytrenowane, a jakość i obiektywność tych danych bezpośrednio wpływają na trafność i rzetelność wyników generowanych przez system AI. Jeśli dane wejściowe zawierają nieświadome uprzedzenia, algorytm może je odtworzyć i utrwalić w swoich decyzjach. Przykładem takiej sytuacji może być preferowanie przy rekrutacji kandydatów płci męskiej na stanowiska techniczne, co może wynikać z historycznej nadreprezentacji mężczyzn w zawodach technicznych. Innymi słowy, jeśli dane statystyczne wskazują, że w zawodach technicznych przeważają mężczyźni, system AI, bazując na tych wzorcach, może traktować tę zależność jako istotny czynnik przy podejmowaniu decyzji o wyborze kandydata, faworyzując tym samym kandydatów płci męskiej jako „bardziej odpowiednich” na dane stanowisko – a to, w świetle przepisów kodeksu pracy, należałoby uznać za nierówne traktowanie, które może generować ryzyko roszczeń odszkodowawczych ze strony pracownika.
Aby zminimalizować ryzyko wystąpienia takich nieprawidłowości, niezbędne jest odpowiednie przygotowanie danych, na których bazuje system AI, m.in. poprzez anonimizację informacji dotyczących płci, nazwiska czy wieku oraz dostosowanie algorytmów tak, by ignorowały ukryte korelacje (np. dłuższe przerwy w zatrudnieniu, które są znacznie częstsze w przypadku kobiet i wynikające z korzystania przez nie z urlopu macierzyńskiego czy rodzicielskiego).
Kolejnym istotnym wyzwaniem jest tzw. dylemat czarnej skrzynki. Problem ten pojawia się, gdy decyzje podejmowane przez system AI – jak wybór kandydata do zatrudnienia, ocena efektywności pracownika czy dobór do zwolnienia – stają się trudne do zrozumienia i wyjaśnienia. Wynika to z faktu, że systemy AI działają na zasadzie uczenia głębokiego (tzw. deep learning), przetwarzając dane w sposób skomplikowany i nieprzejrzysty nawet dla ekspertów. W efekcie użytkownicy tych systemów mogą mieć trudności z prawidłową interpretacją wygenerowanych wyników, co może prowadzić do błędnych decyzji, np. niesprawiedliwej oceny pracowników na podstawie niepełnych lub niewłaściwie sklasyfikowanych danych, a w konsekwencji ryzyka roszczeń z tytułu nierównego traktowania nieuzasadnionego żadną obiektywną przyczyną (z tytułu dyskryminacji).
W kontekście tych wyzwań istotną rolę odgrywa unijny akt w sprawie sztucznej inteligencji, który wprowadza mechanizmy zabezpieczające przed potencjalnymi nadużyciami i negatywnymi konsekwencjami dla osób, które są poddane jego działaniu, kategoryzując systemy AI na podstawie poziomu ryzyka, jakie generują. Systemy wykorzystywane w obszarze zatrudnienia zostały sklasyfikowane jako systemy wysokiego ryzyka, co jest o tyle istotne, że choć wiele wymogów wynikających z aktu dotyczy dostawców tych systemów, to również pracodawcy jako użytkownicy takich rozwiązań muszą spełnić określone wymogi. Przepisy, które dotyczą tych wymogów, zaczną obowiązywać od 2 sierpnia 2026 r.
Jednym z kluczowych obowiązków będzie zapewnienie nadzoru człowieka nad działaniem systemów AI. Co istotne, nadzór ten nie może być czysto formalny – osoba odpowiedzialna za monitorowanie działania algorytmów powinna posiadać odpowiednie kompetencje, przeszkolenie oraz wsparcie umożliwiające jej zrozumienie działania systemu, prawidłową interpretację wygenerowanych wyników i podejmowanie świadomych decyzji (w tym decyzji odmiennych od tych, które rekomenduje system AI). O ile zatem wydaje się, że w nieodległej perspektywie pracodawcy będą mogli pracować bardziej efektywnie dzięki szerszemu zastosowaniu sztucznej inteligencji w procesach HR-owych, to czynnik ludzki w dalszym ciągu będzie pozostawał kluczowy – i, co istotne, wymagany prawnie.