29 września 2025
Sztuczna inteligencja w rekrutacji – wyzwania prawne i etyczne
Udostępnij
Systemy sztucznej inteligencji (AI) stają się coraz bardziej integralną częścią procesów rekrutacyjnych: od automatycznego generowania ogłoszeń, przez analizę CV, po podejmowanie decyzji o zaproszeniu na rozmowę kwalifikacyjną konkretnych osób i wysyłaniu do nich zautomatyzowanych zaproszeń. Technologia zmienia sposób, w jaki pracodawcy i agencje rekrutacyjne pozyskują kandydatów. Jednak wraz z tymi wszystkimi innowacjami, pojawiają się poważne wyzwania prawne i etyczne. Systemy AI przetwarzają dane osobowe kandydatów, wpływają na ich perspektywy zatrudnienia, a jeśli nie są odpowiednio zaprojektowane lub zarządzane, mogą naruszać zasady etycznej AI, jako systemy dyskryminujące konkretne grupy ludzi.
Na wstępie warto jeszcze wyjaśnić, że w praktyce wykorzystanie sztucznej inteligencji, może odbywać się co do zasady na dwa sposoby, czyli poprzez:
- wykorzystanie gotowych narzędzi rynkowych (np. oferowanych w modelu SaaS), które są dostarczane przez zewnętrznych dostawców jako gotowe rozwiązania AI, tzw. narzędzia AI. W takim przypadku organizacja musi zwrócić szczególną uwagę na warunki licencyjne, regulaminy lub warunki użytkowania tych narzędzi, zasady dalszego trenowania algorytmów przez dostawcę (ang. machine learning, ML) oraz kwestie związane z ochroną danych osobowych. W wielu przypadkach będzie trzeba zapewnić zawarcie np. odpowiedniej umowy powierzenia przetwarzania danych z dostawcą; to rozwiązanie w praktyce dotyczy najczęściej przypadków płatnych wersji danego narzędzia AI tzw. opcji enterprise dla przedsiębiorstw;
- opracowanie własnych systemów AI wewnątrz organizacji, co pozwala na pełniejszą kontrolę nad procesem tworzenia i funkcjonowania algorytmów – w tym kompleksowy nadzór nad bazą danych treningowych – ale jednocześnie nakłada na organizację większe obowiązki związane z zapewnieniem transparentności działania, bezpieczeństwa danych, regularnego audytu systemów oraz ich zgodności z regulacjami prawnymi np. RODO, Rozporządzenia o Sztucznej Inteligencji (AI Act) itd. Tworząc i trenując dany model językowy wewnątrz organizacji zyskuje się zwiększone bezpieczeństwo informacji przed dostępem osób trzecich przykładowo do danych treningowych i bazy output’ów. Nawet jeśli organizacja nie zdecyduje się skomercjalizować swojego wewnętrznego systemu AI, a będzie chciała jedynie korzystać z niego na własne potrzeby, to nie oznacza to, że nie będzie odpowiadać za szkody, które to rozwiązanie wyrządziło w toczących się i zakończonych już procesach rekrutacyjnych. Zwłaszcza, jeśli doszło do faktycznego naruszenia zasady niedyskryminacji i zostanie to udowodnione w toku postępowania sądowego.
Niniejszy artykuł przedstawia najważniejsze aspekty prawne związane z wykorzystaniem AI w rekrutacji w świetle rozważań dotyczących sprzężenia wzajemnej korelacji problematyki aspektu danych osobowych, AI Act oraz etycznych standardów i dobrych praktyk dla systemów sztucznej inteligencji.
Zastosowanie AI na etapie przygotowania rekrutacji – opis oferty pracy
Sztuczna inteligencja może wspierać rekruterów już na etapie redagowania ofert pracy. W przypadku wykorzystywania gotowych narzędzi AI na rynku, ryzykowne jest zasilanie ich danymi poufnymi organizacji takimi jak nazwy konkretnych stanowisk, oferowane widełki wynagrodzeń czy też unikalne wymagania kwalifikacyjne. Z tego względu bezpieczniejszym rozwiązaniem jest wykorzystywanie takich narzędzi jedynie jako ogólnej pomocy w tworzeniu neutralnych i generycznych opisów stanowisk. Wyjątkowo – w przypadku płatnych wersji, czyli wspomnianej subskrypcji enterprise – szczegółowe przekazanie danych poufnych zależy od warunków licencyjnych i użytkowania narzędzia. W takich sytuacjach niezbędne jest przeprowadzenie wcześniejszej analizy ryzyka oraz świadoma decyzja organizacji, czy ujawnienie tych informacji jest dopuszczalne i bezpieczne.
Natomiast trenując swój wewnętrzny model można go zasilić zebraną bazą ogłoszeń o pracę jako danych treningowych, które zostały szczegółowo zweryfikowane przez organizację. Następnie z wykorzystaniem przetwarzania języka naturalnego (NLP), model może:
- identyfikować sformułowania nacechowane stereotypowo lub wykluczająco (np. „młody zespół”, „energiczna dziewczyna”, „młoda kobieta” „doświadczony mężczyzna” itd.);
- proponować alternatywne, inkluzywne i zrozumiałe określenia;
- dostosowywać treść oferty do danej branży lub wymaganego poziomu doświadczenia, zgodnie z kryteriami danej organizacji (np. poszukuję prawnika lub prawniczki z min. 5-letnim doświadczeniem w obszarze AI, który posiada również doświadczenie w tworzeniu umów korporacyjnych).
Z punktu widzenia prawa pracy i równego traktowania należy zwrócić szczególną uwagę na to, czy przy tworzeniu ogłoszenia AI nie wprowadziła przypadkowo uprzedzeń do konkretnej grupy osób. Umożliwi to uniknięcie zarzutu nierównego dostępu do zatrudnienia już na etapie publikacji ogłoszenia.
Zastosowanie AI we wstępnym etapie rekrutacji – selekcja i weryfikacja otrzymanych CV oraz poszukiwanie pracowników w sieci
Najczęściej AI wykorzystywana jest na etapie wstępnej selekcji kandydatów. Systemy ATS (ang. Applicant Tracking Systems) analizują CV pod kątem słów kluczowych, kompetencji i dopasowania do profilu stanowiska. Niektóre narzędzia AI samodzielnie wyszukują kandydatów w sieciach zawodowych, tworząc rankingi aplikacji lub automatycznie odrzucając dokumenty niespełniające określonych kryteriów.
Zaletą tego podejścia jest skrócenie czasu rekrutacji, możliwość oceny dużej liczby zgłoszeń i eliminacja przypadkowych błędów ludzkich. Jednocześnie jednak:
- profilowanie kandydatów może prowadzić do nieprzejrzystych decyzji,
- selekcja oparta na danych historycznych może odtwarzać wcześniejsze uprzedzenia (np. preferowanie mężczyzn na stanowiska techniczne),
- brak nadzoru człowieka nad decyzjami algorytmu może naruszać przepisy RODO i zasady równości.
Z punktu widzenia prawa, kluczowe jest to, czy decyzje podejmowane są wyłącznie automatycznie – czyli bez udziału człowieka – oraz czy AI korzysta z danych osobowych kandydatów.
AI w rekrutacji w kontekście ochrony danych osobowych kandydatów do pracy
Zautomatyzowane systemy rekrutacyjne przetwarzają dane osobowe kandydatów – imiona, nazwiska, dane kontaktowe, przebieg kariery zawodowej, a czasem również dane wrażliwe (np. niepełnosprawność, przerwy zdrowotne, zdjęcie zawierające dane biometryczne). Zgodnie z RODO, pracodawca (lub agencja rekrutacyjna) występuje jako administrator danych osobowych. A z tym wiąże się:
1) Obowiązek informacyjny
Kandydaci muszą być poinformowani w sposób jasny i przejrzysty o:
- fakcie, że ich dane są przetwarzane przez system AI;
- celach przetwarzania (np. analiza dopasowania do profilu);
- logice działania systemu, jego znaczeniu i przewidywanych konsekwencjach.
W praktyce oznacza to konieczność przygotowania odpowiedniej klauzuli informacyjnej (np. w ogłoszeniu o pracę lub formularzu rekrutacyjnym);
2) Zakaz decyzji opartych wyłącznie na automatyzacji
Zgodnie z art. 22 RODO kandydat ma prawo nie podlegać decyzji opierającej się wyłącznie na zautomatyzowanym przetwarzaniu, jeśli ta wywołuje wobec niego istotne skutki prawne (np. decyzja o odrzuceniu jego kandydatury).
Jeśli AI ma podejmować takie decyzje bez udziału człowieka, należy:
- uzyskać wyraźną zgodę kandydata (np. w formie osobnego checkboxa);
- zapewnić możliwość zakwestionowania decyzji i uzyskania interwencji człowieka.
3) Zapewnienie bezpieczeństwa i zawarcie umowy powierzenia
AI często działa w modelu SaaS – dane kandydatów są przesyłane do systemu dostawcy narzędzia, co wymaga:
- zawarcia z dostawcą umowy powierzenia przetwarzania danych (art. 28 RODO);
- analizy, czy dane nie są przekazywane poza Europejski Obszar Gospodarczy (EOG);
- weryfikacji, czy dane nie są wykorzystywane do trenowania modeli AI innych klientów, co jest niedozwolone nie tylko bez zgody kandydata, ale z ogólnych względów bezpieczeństwa.
Uprzedzenia algorytmiczne – na co trzeba zwrócić uwagę w procesie rekrutacji?
AI nie jest wolna od błędów. Jeśli system został wytrenowany na stronniczych danych – np. bazujących na wcześniejszych decyzjach rekrutacyjnych, które preferowały określone grupy – może powielać te same schematy. Znany jest chociażby przypadek przedsiębiorstwa Amazon, w którym algorytm odrzucał aplikacje kobiet na stanowiska inżynierskie, ponieważ dane treningowe opierały się na wcześniejszych rekrutacjach zdominowanych przez mężczyzn.
W Unii Europejskiej obowiązuje zakaz dyskryminacji przy zatrudnianiu – zarówno bezpośredniej, jak i pośredniej.
Należy zatem zwrócić szczególną uwagę na to, że przykładem uprzedzeń algorytmicznych będą zachowania takie jak:
- faworyzowanie młodszych lub starszych kandydatów,
- filtrowanie osób na podstawie kodu pocztowego, co może wiązać się z pochodzeniem,
- ignorowanie doświadczenia zawodowego ze względu na lukę w CV (np. urlop macierzyński),
- odrzucanie osób, które np. mają określony kolor skóry.
Wspomniany wcześniej przykład Amazona pokazuje, że wdrażanie sztucznej inteligencji w procesach rekrutacyjnych musi być starannie zaplanowane już na etapie doboru danych treningowych, na których model będzie uczony. W 2018 r. media obiegła informacja, że Amazon zrezygnował z wykorzystywania sztucznej inteligencji w procesach rekrutacyjnych po tym, jak ujawniono, że system opracowywany od 2014 r. wykazywał uprzedzenia względem kobiet. Algorytm, analizując CV kandydatów, faworyzował mężczyzn ubiegających się o stanowiska techniczne, a aplikacje kobiet były systematycznie oceniane gorzej. Źródłem problemu były dane treningowe, które zdominowane zostały przez CV mężczyzn – zabrakło w nich zwiększenia liczby CV kobiet, przez co algorytm automatycznie oceniał je jako osoby mniej kompetentne, ponieważ nie odnajdywał słów kluczy w rodzaju męskim. Amazon zaprzestał korzystania ze stworzonego systemu AI uznając, że niesprawiedliwe traktowanie kandydatów czyni je nieprzydatnym do realnych procesów HR. Ten przypadek stał się symbolem zagrożeń związanych z bezrefleksyjnym wdrażaniem sztucznej inteligencji bez odpowiedniego nadzoru i kontroli ryzyka dyskryminacji[1].
Co to oznacza w praktyce? Dane treningowe, czyli dla przykładu zbiór CV, muszą zostać starannie wyselekcjonowane i zróżnicowane, aby realnie przeciwdziałać uprzedzeniom algorytmicznym. Wymaga to uwzględnienia dokumentów kandydatów reprezentujących różne płcie, wiek, poziom wykształcenia, doświadczenie zawodowe, a w pewnych przypadkach także danych wrażliwych np. dotyczących pochodzenia etnicznego itd. Czynnikiem kluczowym może być także brak wpływu CV z określonych części Polski/świata – algorytm może nauczyć się, że jeśli takie dotychczas nie pojawiły się w bazie, to powinny podlegać odrzuceniu. Brak wspomnianej różnorodności może prowadzić do wytrenowania modelu, który odtwarza lub tworzy zupełnie nowe uprzedzenia zawarte w danych historycznych. Przed rozpoczęciem trenowania systemu AI konieczna jest zatem nie tylko analiza techniczna danych, ale również ocena ich różnorodności i neutralności.
Algorytm jako rekruter, czy jako wsparcie dla rekrutera – jak zachować właściwe proporcje?
Decyzje rekrutacyjne wpływają bezpośrednio na życie zawodowe ludzi. Dlatego kluczowym pytaniem jest: czy AI może być rekruterem, czy tylko narzędziem wspierającym decyzję człowieka?
Z punktu widzenia zgodności z RODO i AI Act rekomendowane jest, aby:
- człowiek podejmował decyzję końcową, a algorytm jako AI wspierał analizę danych (np. sortowanie CV, wstępna ocena kwalifikacji);
- algorytm był przejrzysty i audytowalny, czyli żeby było możliwe zrozumienie i wyjaśnienie zasad, którymi się kieruje podczas rekrutacji;
- ryzyko błędów i dyskryminacji było monitorowane poprzez regularne audyty i testy.
Rekruterzy z danej organizacji powinni rozumieć, jak działa system AI wykorzystywany przez nich w rekrutacji, jakie są jego ograniczenia i jak rozpoznawać sytuacje naganne (zwłaszcza dyskryminujące), w których konieczna jest interwencja człowieka. W tym celu niezbędne będzie zagwarantowanie cyklicznych szkoleń dla całej organizacji.
Obowiązek informacyjny pracodawcy korzystającego z AI podczas rekrutacji
Zgodnie z art. 13 i 14 RODO, każdy administrator danych – w tym pracodawca lub agencja rekrutacyjna wykorzystująca systemy AI – ma obowiązek poinformować kandydata o przetwarzaniu jego danych osobowych[2]. W przypadku stosowania sztucznej inteligencji, obowiązek ten obejmuje również elementy wskazane w art. 22 RODO oraz postulaty przejrzystości z AI Act.
Pracodawca powinien poinformować kandydata o:
- zastosowaniu systemów AI w procesie rekrutacji, w tym o tym, że decyzje (lub ich elementy) mogą być podejmowane w sposób zautomatyzowany;
- zakresie wykorzystania AI – np. czy AI służy tylko do analizy CV, czy wpływa także na decyzję o odrzuceniu lub zaproszeniu kandydata;
- możliwości zakwestionowania decyzji oraz prawie do interwencji człowieka, jeżeli decyzje są w pełni automatyczne;
- logice działania systemu, istotnych parametrach i przewidywanych konsekwencjach dla kandydata.
Informacje te mogą zostać przekazane w ramach:
- ogłoszenia rekrutacyjnego,
- formularza rekrutacyjnego (wraz z checkboxem zgody, jeśli uzyskanie takiej jest wymagane),
- dokumentu polityki rekrutacyjnej lub prywatności.
Krótkie i przejrzyste poinformowanie o wykorzystywaniu AI w ogłoszeniu zwiększa transparentność procesu oraz ogranicza ryzyko prawne dla organizacji powołania się przez potencjalnego kandydata, że nie chciał, aby jego dane osobowe były analizowane przez sztuczną inteligencję, co realnie ułatwia ewentualną obronę przed skargami/roszczeniami. Przykładowa klauzula do ogłoszenia:
„Informujemy, że proces rekrutacji wspierany jest przez rozwiązania oparte na sztucznej inteligencji (AI) [_DOOKREŚLIĆ SPOSÓB WYKORZYSTYWANIA_], które pomagają nam analizować zgłoszenia kandydatów. Szczegółowe informacje dotyczące ochrony danych osobowych znajdziesz w naszej polityce prywatności [tu link].”
AI Act a rekrutacja – systemy wysokiego ryzyka
Systemy sztucznej inteligencji wykorzystywane w procesach rekrutacyjnych – np. do selekcji kandydatów, filtrowania CV, oceny profili czy targetowania ogłoszeń – są zgodnie z rozporządzeniem AI Act klasyfikowane jako systemy wysokiego ryzyka.
Podstawą tej kwalifikacji jest załącznik III do AI Act, który zawiera ich katalog. Wskazano tam wprost, że chodzi m.in. o systemy AI funkcjonujące w obszarze zatrudniania, zarządzania pracownikami i dostępu do samozatrudnienia, w tym w szczególności do rekrutacji lub wyboru osób fizycznych do pracy w ramach umieszczania ukierunkowanych ogłoszeń o pracę, analizy i filtrowania aplikacji o pracę oraz do oceny kandydatów. Zgodnie z motywem 57 AI Act, tego rodzaju systemy mogą w znacznym stopniu wpływać na przyszłość zawodową kandydatów, ich prawa podstawowe i źródła utrzymania.
Zgodnie z art. 26 rozporządzenia AI Act, na użytkownikach systemów sztucznej inteligencji zakwalifikowanych jako wysokiego ryzyka – w tym pracodawcach/agencjach stosujących je w rekrutacji jak dostawcy – ciąży obowiązek wdrożenia odpowiednich środków technicznych i organizacyjnych, które zapewnią zgodne z przeznaczeniem i dokumentacją użytkową korzystanie z tych systemów (w tym zadbanie o udokumentowanie danych treningowych, stworzenie kodeksu dobrych praktyk AI w danej organizacji, zabezpieczeń technicznych, rejestracji incydentów itd.). Dostawca zobowiązany jest również do zapewnienia przejrzystości informacji dla innych użytkowników, zagwarantowania nadzoru nad działaniem systemu przez człowieka (art. 14 ust. 1-2) posiadającego odpowiednie kompetencje i przeszkolenie oraz aby sam system był zgodny z zasadami etycznymi AI i nie naruszał praw podstawowych innych osób fizycznych. Uwaga – jeśli jesteś dostawcą takiego systemu AI to powinieneś go zarejestrować w unijnym rejestrze AI (art. 49 i art. 71).
W praktyce wiąże się to z koniecznością dokonania oceny ryzyka jeszcze przed wdrożeniem systemu AI albo ewentualnie ze skorzystaniem z gotowego narzędzia AI i przygotowaniem konkretnych obowiązków do spełnienia. Zignorowanie tych obowiązków może skutkować wysokimi karami finansowymi dla dostawców (deployerów) – sięgającymi nawet do 15 000 000 EUR lub 3% całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego (zastosowanie ma kwota wyższa).
Podsumowanie
AI w rekrutacji to szansa na efektywność, oszczędność czasu i lepsze dopasowanie kandydatów. Jednocześnie to także obowiązek odpowiedzialnego zarządzania danymi osobowymi i zapewnienia zgodności z przepisami prawa w duchu compliance. Organizacje, która decydują się na wdrożenie AI w procesie rekrutacyjnym, muszą zawsze pamiętać o wielowymiarowej mitygacji ryzyk takiego przedsięwzięcia, zwłaszcza jeśli system AI jest stworzony na wewnętrzne potrzeby. Chodzi przede wszystkim o:
- przeciwdziałanie dyskryminacji algorytmicznej (odpowiednie stworzenia zbioru danych treningowych, który musi podlegać regularnym audytom w zakresie jego aktualizacji);
- przejrzyste informowanie kandydatów o systemie AI, który wspomaga proces rekrutacyjny;
- zapewnienie udziału człowieka w kluczowych decyzjach i ogólnym nadzorze nad działalnością systemu AI i nad tym, w jaki sposób są wdrażane decyzje (zalecane jest pośrednie wdrażanie rekomendacji AI);
- zabezpieczenie danych osobowych/informacji poufnych;
- ocenę skutków, analizę ryzyka i wykonywanie audytów całego systemu AI w zakresie jego działalności i rozwoju.
W czasach, gdy technologia wyprzedza prawo, kluczowe jest działanie zgodne z zasadą ostrożności i przejrzystości systemów AI. Jest to istotne, zwłaszcza jeśli po ”drugiej stronie” mamy prawdziwego człowieka, którego życie zawodowe może zostać bezpośrednio dotknięte decyzją podjętą przez sztuczną inteligencję.
radca prawny Milena Dorobek-Lis
Studia prawnicze i studia podyplomowe z zakresu prawa pracy ukończyła na Uniwersytecie Warszawskim, aplikację radcowską ukończyła w Okręgowej Izbie Radców Prawnych Warszawie. Zdobywała doświadczenie w kancelariach prawnych, organach administracji publicznej, w tym Biurze Generalnego Inspektora Ochrony Danych Osobowych oraz wieloletniej współpracy z przedsiębiorcami, w szczególności z branży e-commerce. Była głównym prawnikiem w Fundacji Rozwoju Przedsiębiorczości „Twój StartUp”. Specjalizuje się w kompleksowej obsłudze prawnej przedsiębiorców, prawie nowych technologii, e-commerce, prawie i postępowaniu administracyjnym
Artykuł powstał w ramach realizacji projektu Centrum Rozwoju Małych i Średnich Przedsiębiorstw sfinansowanego ze środków Ministerstwa Rozwoju i Technologii.
[1] Business Insider Polska – artykuł opublikowany 10.10.2018 r. [Dostęp: 28.07.2025 r.].
[2] W niektórych sytuacjach agencja rekrutacyjna może być podmiotem przetwarzającym, jednak w niniejszym artykule nie analizujemy takiej sytuacji.