AI Act wchodzi już 2 sierpnia. Kary nawet 35 milionów euro
Od sierpnia 2025 roku AI Act zobowiąże firmy w całej UE do informowania o użyciu sztucznej inteligencji w miejscach pracy, szczególnie jeśli chodzi o systemy wysokiego ryzyka, takie jak te stosowane w rekrutacji czy ocenie kadry. Przedsiębiorstwa muszą zadbać nie tylko o transparentność działania AI, lecz także o odpowiednie kompetencje i przeszkolenie personelu. Dla przeciętnego pracownika oznacza to większy wpływ na sposób, w jaki technologia decyduje o jego pracy i rozwoju kariery.

Już 2 sierpnia 2025 r. wchodzi w życie kolejny etap unijnego Aktu o Sztucznej Inteligencji, szerzej znanego wszystkim jako AI Act. Choć część przepisów zacznie obowiązywać dopiero w 2026 r., wiele kluczowych regulacji dotyczy nas już teraz. I to nie tylko programistów czy gigantów technologicznych. AI Act wpłynie także na codzienną pracę w biurach, urzędach i działach HR. Choć ma zapewnić przejrzystość, to niektóre firmy mogą się obawiać surowych kar, sięgających nawet 35 mln euro lub 7 proc. globalnych rocznych przychodów.
Co zmienia się dla pracowników i kandydatów do pracy?
Od lutego tego roku w całej UE zakazane są systemy AI o tzw. niedopuszczalnym poziomie ryzyka. Teraz dochodzą kolejne obowiązki. Przede wszystkim w miejscach, gdzie AI decyduje o rekrutacji, awansach czy ocenach pracowników. - Pracodawcy będą zobowiązani informować przedstawicieli pracowników i pracowników, których to dotyczy, o stosowaniu wobec nich systemów AI wysokiego ryzyka i o zasadach, na podstawie których systemy te funkcjonują - mówi Marcin Sanetra, radca prawny z LL.M. Kancelaria PCS Paruch Chruściel Schiffter Stępień Kanclerz.
Oznacza to, że jeśli Twój potencjalny pracodawca korzysta z algorytmu sortującego CV, będzie musiał ujawnić, jak działa taki system i jakie kryteria bierze pod uwagę.
ChatGPT i przejrzyste decyzje algorytmów
Jednym z głównych celów AI Act jest wyeliminowanie sytuacji, w których decyzje podejmowane przez algorytmy są całkowicie nieprzejrzyste. To szczególnie istotne w działach HRowych, gdzie automatyzacja może wpływać na losy kandydatów.
AI Act wymusza także, by osoby obsługujące systemy AI wysokiego ryzyka miały odpowiednie kompetencje i przeszkolenie. Jak podkreślają eksperci, to nie tylko formalność. Bez tego narzędzia mogą działać wadliwie, a konsekwencje poniesie pracodawca.
Regulacje obejmują również twórców i dostawców modeli AI ogólnego przeznaczenia (GPAI), takich jak GPT-4o. Od 2 sierpnia nowe modele wprowadzane na rynek UE będą musiały spełniać wymogi dotyczące dokumentacji technicznej, poszanowania praw autorskich i przejrzystości danych treningowych. Firmy, które oferowały je wcześniej, mają czas na pełne dostosowanie się do sierpnia 2027 r.
Co z tych uregulowań prawnych jest najważniejsze dla zwykłego "Kowalskiego"?
- Ten kamień milowy odzwierciedla zaangażowanie UE w promowanie innowacji przy jednoczesnym zapewnieniu, że AI jest bezpieczna, przejrzysta, zgodna z europejskimi wartościami - i stawia HR w centrum odpowiedzialnego wdrażania AI w miejscu pracy - podkreśla Tom Saeys, dyrektor operacyjny SD Worx.
Dla przeciętnego pracownika oznacza to większą kontrolę nad tym, jak algorytmy wpływają na jego karierę, a dla kandydatów szansę na bardziej sprawiedliwe procesy rekrutacyjne.