Sztuczna inteligencja w rekrutacji pod lupą. Firmy będą musiały ujawnić użycie narzędzi AI i przeszkolić HR
Jak wynika z badania Polskiego Forum HR „HR Tech Changer 2025” przeprowadzonego na ponad 300 respondentach z branży, najczęściej narzędzia technologiczne są wykorzystywane do selekcji kandydatów, ich rekrutacji, oceny kompetencji, a także zarządzania bazą kandydatów.
AI Act (rozporządzenie UE 2024/1689) to pierwszy w Unii Europejskiej kompleksowy zestaw zasad dla AI. Przepisy wchodzą w życie etapami: rozporządzenie zaczęło formalnie obowiązywać 1 sierpnia 2024 roku, ale kluczowe wymogi są rozłożone w czasie – m.in. od 2 lutego 2025 roku stosuje się zakazy wybranych praktyk i przepisy ogólne (w tym dotyczące „AI literacy”), od 2 sierpnia 2025 roku – część regulacji dotyczących modeli ogólnego przeznaczenia i ram nadzoru. Większość obowiązków (w tym dla systemów wysokiego ryzyka w HR) zacznie być stosowana od 2 sierpnia 2026 roku, a pełne „dociągnięcie” harmonogramu przewidziano rok później.Sztuczna inteligencja jest wykorzystywana w rekrutacji nie tylko do selekcji kandydatów, ale też na późniejszych etapach. Systemy są coraz częściej automatyzowane, niektóre zadania są powierzane technologiom, co usprawnia pracę działów HR i cały proces rekrutacji. W takich branżach jak chociażby przemysł, gospodarka magazynowa, gdzie na bieżąco trzeba uzupełniać potrzeby kadrowe, trudno sobie wyobrazić zarządzanie zasobami ludzkimi i procesem rekrutacji bez wykorzystania sztucznej inteligencji – mówi agencji Newseria Nadia Winiarska, ekspertka ds. zatrudnienia w Konfederacji Lewiatan. Z perspektywy rynku pracy AI Act ma duże znaczenie, ponieważ wykorzystanie sztucznej inteligencji w systemach zarządzania zasobami ludzkimi, czyli systemach HR-owych, zostało uznane za systemy wysokiego ryzyka, co wymaga dodatkowych działań.
W załączniku III AI Act wskazano, że do kategorii wysokiego ryzyka należą m.in. systemy AI przeznaczone do rekrutacji lub selekcji osób, w tym do konstruowania ogłoszeń, analizowania i filtrowania aplikacji oraz oceny kandydatów. Jak podkreśla ekspertka, w praktyce oznacza to m.in. konieczność lepszego monitorowania procesu wdrożenia i eksploatacji: zarządzania systemem, monitorowania jego działania oraz informowania o tym, że narzędzie AI jest wykorzystywane – zwłaszcza wtedy, gdy wspiera selekcję kandydatów i kandydatek. Pracodawca korzystający z takiego narzędzia w miejscu pracy będzie mieć obowiązek poinformowania osób, których to dotyczy, zanim system zostanie uruchomiony lub użyty.
AI Act akcentuje także jakość danych i ograniczanie uprzedzeń algorytmicznych: w przypadku systemów wysokiego ryzyka wymagane są praktyki zarządzania danymi (m.in. reprezentatywność zbiorów danych, wykrywanie i łagodzenie ryzyka stronniczości, tzw. biasu). To jeden z filarów regulacji w HR, gdzie ryzyko dyskryminacji jest szczególnie wrażliwe. Stronniczość może wynikać z natury algorytmów, które uczą się na istniejących już schematach, również takich, które mogą być krzywdzące. Jak wskazują eksperci eRecruiter, przykładowo, jeśli na danym stanowisku historycznie zatrudniano w większości mężczyzn, algorytm może domyślnie odrzucać kobiety, aby wpisać się w ten schemat.Są tutaj też dodatkowe obowiązki dotyczące szkolenia personelu, który ma do czynienia z tymi systemami – podkreśla Nadia Winiarska.
Badanie Polskiego Forum HR wskazuje, że 29 proc. spośród 300 respondentów branży uważa, że błędy algorytmiczne i stronniczość AI są największym wyzwaniem w obszarze stosowania HR Tech. 19 proc. obawia się halucynacji AI.Sztuczna inteligencja w rekrutacji jest narzędziem wspierającym, natomiast jednocześnie warto pamiętać o tym, aby te nowe narzędzia wykorzystywać odpowiedzialnie, żeby AI nie powodowała zachowań niepożądanych, czyli na przykład dyskryminacji – wskazuje ekspertka Konfederacji Lewiatan. Znane są przypadki, kiedy błędne algorytmy w procesie rekrutacji prowadziły właśnie do dyskryminacji, faworyzowania niektórych kandydatów lub kandydatek, których CV miały jakieś wspólne cechy.








