Spis treściKliknij link, aby przejść do wybranego miejsca
Ta treść została automatycznie przetłumaczona z ukraińskiego.
Wyobraź sobie: jesteś HR w produktowej firmie IT. Setki CV – termin "wczoraj". Propozycja: „Podłącz AI – samo wszystko zrobi”. Wygodne? Tak. Ale jeśli bot odrzuci silnego kandydata lub odczyta twarz bez zgody – odpowiedzialność spoczywa na tobie.
W 2024 roku brytyjski regulator ICO przeprowadził audyt firm, które wykorzystują AI na etapie rekrutacji. Wyniki ujawniły szereg ryzyk: automatyczne odmowy bez udziału człowieka, brak zrozumiałego informowania oraz zbieranie wrażliwych danych osobowych bez zgody. Ukraińskie prawo jeszcze nie zawiera specjalnych norm dotyczących AI, ale praktyka pewnie zmierza w stronę bardziej odpowiedzialnego wykorzystania.
Prawnicy ITStalirov&Co podzielili się praktycznymi spostrzeżeniami – jak zastosowanie rekrutacyjnego AI w biznesie IT może prowadzić do komplikacji prawnych i jak ich uniknąć.
Kluczowe ryzyka: co należy wiedzieć o legalności AI
Zanim powierzy się AI część rekrutacji, warto ocenić możliwe konsekwencje prawne. Oto, co radzą prawnicy dla projektów IT:
Dyskryminacja i uprzedzenia
AI uczy się na przeszłości. Jeśli wcześniej zatrudniano głównie mężczyzn – system to powtórzy. Tak Amazon musiał zrezygnować z własnego narzędzia rekrutacyjnego po skandalu seksistowskim: AI systematycznie obniżał oceny kandydatek, jeśli w CV pojawiały się wzmianki o żeńskich uczelniach lub doświadczenie w uczestnictwie w żeńskich społecznościach.
Prywatność danych
Wiele narzędzi przetwarza dane biometryczne – mimikę, głos, emocje. W UE, Kanadzie, Australii, USA i Ukrainie takie informacje uznawane są za wrażliwe. Ich przetwarzanie dozwolone jest tylko za bezpośrednią zgodą.
Brak przejrzystości (Black Box AI)
„Czarna skrzynka” – to algorytm, którego decyzje są trudne lub niemożliwe do wyjaśnienia. Jeśli AI odmówił – nie będziesz w stanie wyjaśnić kandydatowi, dlaczego tak się stało. Ale zgodnie z art. 22 GDPR (Europejskiego rozporządzenia o ochronie danych osobowych), osoba ma prawo nie podlegać decyzjom opartym wyłącznie na zautomatyzowanym przetwarzaniu, jeśli ma to skutki prawne lub istotnie na nią wpływa. Na Ukrainie podobne zasady są utrwalane przez praktykę sądową: kandydat ma prawo do przeglądu takich decyzji – w przeciwnym razie rosną ryzyka prawne.
Jak zmniejszyć prawdopodobieństwo skargi
Aby zminimalizować ryzyka, z którymi w praktyce spotykają się prawnicy w IT, warto przestrzegać następujących kroków:
- Pozwól, aby ostatnie słowo miała osoba. Nie podejmuj ostatecznych decyzji bez udziału HR.
- Przeprowadź DPIA (Ocena wpływu na ochronę danych) – ocenę wpływu na dane osobowe. Ważne jest, aby to zrobić, gdy wdrażasz zewnętrzny produkt lub zamawiasz rozwój własnego oprogramowania. W obu przypadkach twoja firma pełni rolę „administrator” – to ty decydujesz, po co i jak przetwarzane są dane osobowe. Część operacji technicznych związanych z przetwarzaniem można delegować zewnętrznemu wykonawcy – tzw. „procesorowi”. Niemniej jednak, nawet w takim przypadku główny obowiązek dotyczący przestrzegania wymogów ochrony danych osobowych pozostaje po stronie administratora: jeśli instrukcje będą niejasne, poziom bezpieczeństwa – niewystarczający, lub dane będą wykorzystywane poza określonym celem, odpowiedzialność spoczywa na tobie.
- Just-in-time informowanie. Jeśli twój system AI wykorzystuje wideointerwiewy lub wideofiksację – w rzeczywistości zbiera dane biometryczne. A to – wrażliwe informacje. Aby nie zmuszać kandydatów do przeglądania pięciu stron Polityki prywatności, daj krótką informację w momencie zbierania: „Ta część procesu przewiduje nagrywanie wideo. Czy wyrażasz zgodę?”.
- Formalizuj dokumenty. Warunki korzystania z AI powinny być opisane w umowach, kontraktach i publicznej ofercie.
- Wybór dostawcy AI: należyta staranność. Kiedy firma decyduje się wdrożyć system AI do rekrutacji, wybór odpowiedniego dostawcy nie powinien opierać się tylko na kryteriach funkcjonalności i ceny. Ważne jest, aby uwzględnić ryzyka prawne, przejrzystość i zgodność z przyszłymi wymaganiami prawnymi. Na etapie negocjacji z dostawcą zwróć uwagę na:
- Czy możliwe jest wyjaśnienie logiki podjętych decyzji?
- Czy istnieje mechanizm odwołania lub przeglądu wyników?
- Jakie są warunki dotyczące własności intelektualnej? Kto posiada algorytm, zebrane dane i wyniki analizy? W niektórych przypadkach standardowe warunki przewidują, że wszystko należy do dostawcy – a to oznacza utratę kontroli nad systemem.
- Kto ma prawa do kodu? Bez dostępu do niego twój zespół nie będzie mógł dostosować narzędzia ani skalować rozwiązania w przyszłości – na przykład dla nowego stanowiska lub w ramach innego wewnętrznego rozwoju.
Podsumowanie
Systemy rekrutacyjne AI to nie tylko oszczędność czasu, ale także równowaga między automatyzacją a odpowiedzialnością. Nadmierna ufność w algorytmy bez ludzkiej kontroli może prowadzić do skarg, kar i utraty reputacji.
Aby uniknąć takich ryzyk, warto od samego początku budować proces na jasnych zasadach:
- z ludzką kontrolą,
- przejrzystym informowaniem kandydatów,
- oceną ryzyk (DPIA),
- prawnym wsparciem projektów IT.
Zespoły, które uwzględniają te zasady na początku, zmniejszają ryzyka i budują zaufanie – zarówno ze strony kandydatów, jak i regulatorów.
Autor: Walery Stalirow, CEO firmy IT-prawników Stalirov&Co
Ten post nie ma jeszcze żadnych dodatków od autora.