Artykuł

EU AI Act a agencja rekrutacyjna, czyli co zrobić przed sierpniem 2026

EU AI Act a agencja rekrutacyjna, czyli co zrobić przed sierpniem 2026

EU AI Act a agencja rekrutacyjna, czyli co zrobić przed sierpniem 2026

EU AI Act wchodzi w życie w sierpniu 2026. Sprawdź, jakie obowiązki nakłada na agencje rekrutacyjne i co konkretnie zrobić, żeby być gotowym.

Pracownicy na warsztatach kodowania – ilustracja do artykułu o EU AI Act a agencja rekrutacyjna, czyli co zrobić przed sierpniem 2026

EU AI Act a agencja rekrutacyjna, co zrobić przed sierpniem 2026

2 sierpnia 2026 roku wchodzą w życie przepisy EU AI Act dla systemów wysokiego ryzyka. Agencje rekrutacyjne są na tej liście. Nie dlatego, że coś zrobiły nie tak po prostu każde narzędzie AI, które ocenia kandydata, trafia do Aneksu III rozporządzenia i podlega rygorystycznym wymogom.

Kara za nieprzestrzeganie? Do 15 milionów euro lub 3% rocznego obrotu globalnego. Za najbardziej poważne naruszenia do 35 milionów euro albo 7% obrotu.

Trzy miesiące to mało czasu, jeśli nie wiesz, od czego zacząć. Ten artykuł daje ci konkretny punkt startowy: co klasyfikuje się jako system wysokiego ryzyka, jakie masz obowiązki i jak wygląda minimalny zestaw działań przed deadlinem.

Które narzędzia AI w twojej agencji są objęte regulacją

Nie chodzi o każde użycie AI. Jeśli używasz ChatGPT do pisania e-maili, to nie jest system wysokiego ryzyka. Problem zaczyna się tam, gdzie AI uczestniczy w decyzjach o kandydatach.

Aneks III AI Act wprost wymienia systemy używane do:

  • selekcji i filtrowania aplikacji

  • oceny kandydatów i ich kompetencji

  • tworzenia ogłoszeń o pracę (jeśli automatycznie profilują wymagania)

  • rankingowania i shortlistingu

Praktycznie: jeśli twój ATS używa AI do oceny CV, jeśli masz chatbota prowadzącego screening, jeśli korzystasz z narzędzia do analizy profili kandydatów te systemy podpadają pod regulację.

Co nie podlega? Narzędzia wspierające rekrutera bez wpływu na selekcję. Generator treści ogłoszenia (bez profilowania), AI do układania harmonogramu rozmów, automatyczne powiadomienia dla kandydatów. Granica jest płynna, ale logika prosta: jeśli AI ma wpływ na to, czy kandydat przechodzi dalej, jest wysokiego ryzyka.

Co konkretnie musisz zapewnić

To nie jest lista "dobrych praktyk". To wymogi, których spełnienie będzie weryfikowane.

Przejrzystość wobec kandydatów. Zanim AI oceni kandydata, musisz go o tym poinformować. Klauzula w formularzu aplikacyjnym to minimum, kandydat musi wiedzieć, że jego aplikacja jest przetwarzana przez system AI i jakie dane są analizowane.

Człowiek jako ostateczny decydent. Żaden system AI nie może autonomicznie odrzucić kandydata. Każda decyzja musi być możliwa do weryfikacji przez rekrutera. Oznacza to w praktyce: AI może rankingować, ale człowiek zatwierdza. Nie wolno w pełni zautomatyzować selekcji.

Dokumentacja techniczna. Musisz wiedzieć, jakich algorytmów używasz, skąd pochodzi model, na jakich danych był trenowany. Jeśli korzystasz z zewnętrznych narzędzi (np. ATS z AI), dostawca powinien dostarczyć tę dokumentację.

Logi decyzji. Każda decyzja z udziałem AI musi być rejestrowana. Kiedy AI oceniło kandydata, jaki wynik otrzymał, kto z ludzi to zweryfikował.

Szkolenia dla zespołu. AI literacy to nowy obowiązek. Twoi rekruterzy muszą rozumieć jak działa narzędzie, którego używają, i umieć zakwestionować wynik AI. Nie chodzi o kurs programowania, chodzi o to, żeby nie traktować outputu AI jak wyroku.

Jak wygląda minimalne przygotowanie na sierpień 2026

Nie musisz zatrudniać prawnika od razu. Możesz zacząć od prostego audytu wewnętrznego.

Pierwsza rzecz: zinwentaryzuj wszystkie narzędzia AI, których używasz w procesie rekrutacji. Każde. Nie tylko ATS też wtyczki, integracje, narzędzia do analizy CV, chatboty. Dla każdego sprawdź, czy ma wpływ na selekcję kandydatów.

Druga: skontaktuj się z dostawcami tych narzędzi i zapytaj wprost, czy wasze narzędzie jest klasyfikowane jako system wysokiego ryzyka wg AI Act? Jaką dokumentację techniczną możecie dostarczyć? Czy macie procedurę logowania decyzji?

Odpowiedzi dadzą ci obraz tego, gdzie jesteś. Część dostawców będzie przygotowana. Część nie.

Trzecia: zaktualizuj klauzule informacyjne w formularzach aplikacyjnych. To najmniejszy wysiłek z największym efektem compliance'owym - kandydaci muszą wiedzieć o AI przed aplikacją.

Czwarta: ustal procedurę nadzoru człowieka. Nawet prosta polityka wewnętrzna ("rekruter zatwierdza każdy shortlist wygenerowany przez AI") spełnia wymóg human oversight. Musisz to mieć w formie pisemnej.

Piąta: przeprowadź jedno szkolenie dla zespołu. Dwie godziny, podstawy AI Act, jak korzystać z AI odpowiedzialnie, jak dokumentować decyzje. To wypełnia wymóg AI literacy.

Co to oznacza dla agencji, która dopiero wdraża AI

Paradoksalnie to dobra wiadomość. Jeśli zaczynasz wdrożenie AI teraz, możesz zaprojektować procesy od razu zgodnie z AI Act. To o wiele tańsze niż retrofitowanie istniejących systemów.

Wdrożenie AI pod nadzorem compliance ekspertów zajmuje od 3 do 5 tygodni. Agencje, które dostawały narzędzia AI od różnych vendorów i nigdy nie robiły porządku, mogą spędzić tyle samo czasu tylko na inwentaryzacji.

Jeśli jeszcze nie używasz AI w rekrutacji, masz przewagę. Możesz wybrać narzędzia, które od początku mają gotową dokumentację i procedury dla AI Act.

Z naszego doświadczenia z agencjami rekrutacyjnymi wynika jedno: większość z nich nie wie, które z ich narzędzi podpadają pod regulację. AI Act zmienia ten stan rzeczy. Po sierpniu ktoś zacznie pytać.

Podsumowanie

Sierpień 2026 to za trzy miesiące. Dla agencji rekrutacyjnych AI Act oznacza konkretne obowiązki: przejrzystość wobec kandydatów, nadzór człowieka nad decyzjami AI, dokumentację techniczną, logi i szkolenia dla zespołu.

Dobra wiadomość: przygotowanie nie wymaga wielomiesięcznego projektu. Wymaga inwentaryzacji narzędzi, zaktualizowania klauzul i ustalenia prostych procedur wewnętrznych.

Złe pytanie brzmi: "czy musimy coś robić?". Dobre pytanie brzmi: "od czego zacząć?". Jeśli chcesz wiedzieć, które procesy w twojej agencji wymagają uwagi przed sierpniem to sprawdź to podczas bezpłatnego AI Audit na daplo.agency.

EU AI Act a agencja rekrutacyjna, co zrobić przed sierpniem 2026

2 sierpnia 2026 roku wchodzą w życie przepisy EU AI Act dla systemów wysokiego ryzyka. Agencje rekrutacyjne są na tej liście. Nie dlatego, że coś zrobiły nie tak po prostu każde narzędzie AI, które ocenia kandydata, trafia do Aneksu III rozporządzenia i podlega rygorystycznym wymogom.

Kara za nieprzestrzeganie? Do 15 milionów euro lub 3% rocznego obrotu globalnego. Za najbardziej poważne naruszenia do 35 milionów euro albo 7% obrotu.

Trzy miesiące to mało czasu, jeśli nie wiesz, od czego zacząć. Ten artykuł daje ci konkretny punkt startowy: co klasyfikuje się jako system wysokiego ryzyka, jakie masz obowiązki i jak wygląda minimalny zestaw działań przed deadlinem.

Które narzędzia AI w twojej agencji są objęte regulacją

Nie chodzi o każde użycie AI. Jeśli używasz ChatGPT do pisania e-maili, to nie jest system wysokiego ryzyka. Problem zaczyna się tam, gdzie AI uczestniczy w decyzjach o kandydatach.

Aneks III AI Act wprost wymienia systemy używane do:

  • selekcji i filtrowania aplikacji

  • oceny kandydatów i ich kompetencji

  • tworzenia ogłoszeń o pracę (jeśli automatycznie profilują wymagania)

  • rankingowania i shortlistingu

Praktycznie: jeśli twój ATS używa AI do oceny CV, jeśli masz chatbota prowadzącego screening, jeśli korzystasz z narzędzia do analizy profili kandydatów te systemy podpadają pod regulację.

Co nie podlega? Narzędzia wspierające rekrutera bez wpływu na selekcję. Generator treści ogłoszenia (bez profilowania), AI do układania harmonogramu rozmów, automatyczne powiadomienia dla kandydatów. Granica jest płynna, ale logika prosta: jeśli AI ma wpływ na to, czy kandydat przechodzi dalej, jest wysokiego ryzyka.

Co konkretnie musisz zapewnić

To nie jest lista "dobrych praktyk". To wymogi, których spełnienie będzie weryfikowane.

Przejrzystość wobec kandydatów. Zanim AI oceni kandydata, musisz go o tym poinformować. Klauzula w formularzu aplikacyjnym to minimum, kandydat musi wiedzieć, że jego aplikacja jest przetwarzana przez system AI i jakie dane są analizowane.

Człowiek jako ostateczny decydent. Żaden system AI nie może autonomicznie odrzucić kandydata. Każda decyzja musi być możliwa do weryfikacji przez rekrutera. Oznacza to w praktyce: AI może rankingować, ale człowiek zatwierdza. Nie wolno w pełni zautomatyzować selekcji.

Dokumentacja techniczna. Musisz wiedzieć, jakich algorytmów używasz, skąd pochodzi model, na jakich danych był trenowany. Jeśli korzystasz z zewnętrznych narzędzi (np. ATS z AI), dostawca powinien dostarczyć tę dokumentację.

Logi decyzji. Każda decyzja z udziałem AI musi być rejestrowana. Kiedy AI oceniło kandydata, jaki wynik otrzymał, kto z ludzi to zweryfikował.

Szkolenia dla zespołu. AI literacy to nowy obowiązek. Twoi rekruterzy muszą rozumieć jak działa narzędzie, którego używają, i umieć zakwestionować wynik AI. Nie chodzi o kurs programowania, chodzi o to, żeby nie traktować outputu AI jak wyroku.

Jak wygląda minimalne przygotowanie na sierpień 2026

Nie musisz zatrudniać prawnika od razu. Możesz zacząć od prostego audytu wewnętrznego.

Pierwsza rzecz: zinwentaryzuj wszystkie narzędzia AI, których używasz w procesie rekrutacji. Każde. Nie tylko ATS też wtyczki, integracje, narzędzia do analizy CV, chatboty. Dla każdego sprawdź, czy ma wpływ na selekcję kandydatów.

Druga: skontaktuj się z dostawcami tych narzędzi i zapytaj wprost, czy wasze narzędzie jest klasyfikowane jako system wysokiego ryzyka wg AI Act? Jaką dokumentację techniczną możecie dostarczyć? Czy macie procedurę logowania decyzji?

Odpowiedzi dadzą ci obraz tego, gdzie jesteś. Część dostawców będzie przygotowana. Część nie.

Trzecia: zaktualizuj klauzule informacyjne w formularzach aplikacyjnych. To najmniejszy wysiłek z największym efektem compliance'owym - kandydaci muszą wiedzieć o AI przed aplikacją.

Czwarta: ustal procedurę nadzoru człowieka. Nawet prosta polityka wewnętrzna ("rekruter zatwierdza każdy shortlist wygenerowany przez AI") spełnia wymóg human oversight. Musisz to mieć w formie pisemnej.

Piąta: przeprowadź jedno szkolenie dla zespołu. Dwie godziny, podstawy AI Act, jak korzystać z AI odpowiedzialnie, jak dokumentować decyzje. To wypełnia wymóg AI literacy.

Co to oznacza dla agencji, która dopiero wdraża AI

Paradoksalnie to dobra wiadomość. Jeśli zaczynasz wdrożenie AI teraz, możesz zaprojektować procesy od razu zgodnie z AI Act. To o wiele tańsze niż retrofitowanie istniejących systemów.

Wdrożenie AI pod nadzorem compliance ekspertów zajmuje od 3 do 5 tygodni. Agencje, które dostawały narzędzia AI od różnych vendorów i nigdy nie robiły porządku, mogą spędzić tyle samo czasu tylko na inwentaryzacji.

Jeśli jeszcze nie używasz AI w rekrutacji, masz przewagę. Możesz wybrać narzędzia, które od początku mają gotową dokumentację i procedury dla AI Act.

Z naszego doświadczenia z agencjami rekrutacyjnymi wynika jedno: większość z nich nie wie, które z ich narzędzi podpadają pod regulację. AI Act zmienia ten stan rzeczy. Po sierpniu ktoś zacznie pytać.

Podsumowanie

Sierpień 2026 to za trzy miesiące. Dla agencji rekrutacyjnych AI Act oznacza konkretne obowiązki: przejrzystość wobec kandydatów, nadzór człowieka nad decyzjami AI, dokumentację techniczną, logi i szkolenia dla zespołu.

Dobra wiadomość: przygotowanie nie wymaga wielomiesięcznego projektu. Wymaga inwentaryzacji narzędzi, zaktualizowania klauzul i ustalenia prostych procedur wewnętrznych.

Złe pytanie brzmi: "czy musimy coś robić?". Dobre pytanie brzmi: "od czego zacząć?". Jeśli chcesz wiedzieć, które procesy w twojej agencji wymagają uwagi przed sierpniem to sprawdź to podczas bezpłatnego AI Audit na daplo.agency.