Kiedy sztuczna inteligencja spotyka bezpieczeństwo informacji
Trzydziestego pierwszego marca 2026 roku Rada Ministrów przyjęła projekt ustawy o systemach sztucznej inteligencji — polskiej implementacji unijnego rozporządzenia znanego jako AI Act. Do sierpnia zostało cztery miesiące. Tymczasem większość organizacji, z którymi rozmawiamy, traktuje AI Act jako problem „kogoś innego" — działów innowacji, firm technologicznych, startupów budujących modele językowe.
To błąd perspektywy. AI Act nie dotyczy wyłącznie tych, którzy tworzą sztuczną inteligencję. Dotyczy również — a w wielu przypadkach przede wszystkim — tych, którzy ją wdrażają, kupują i stosują w codziennej działalności. A jeśli organizacja przetwarza dane osobowe przy pomocy algorytmów (choćby do scoringu kredytowego, oceny ryzyka ubezpieczeniowego, rekrutacji czy automatycznej klasyfikacji dokumentów), to AI Act, RODO i znowelizowana ustawa o krajowym systemie cyberbezpieczeństwa tworzą trzy nakładające się warstwy obowiązków, których nie da się spełnić w izolacji.
Co reguluje AI Act — w telegraficznym skrócie
Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689, potocznie zwane AI Act, klasyfikuje systemy sztucznej inteligencji według poziomu ryzyka, jakie stwarzają dla zdrowia, bezpieczeństwa i praw podstawowych. Wyróżnia cztery kategorie: ryzyko niedopuszczalne (systemy zakazane), ryzyko wysokie, ryzyko ograniczone i ryzyko minimalne.
Systemy zakazane — takie jak scoring społeczny w stylu chińskim, manipulacja podprogowa czy identyfikacja biometryczna w czasie rzeczywistym w przestrzeni publicznej (z wąskimi wyjątkami) — zostały wyłączone z obrotu już 2 lutego 2025 roku.
Sedno regulacji stanowią systemy wysokiego ryzyka, bo to one nakładają najwięcej obowiązków zarówno na dostawców, jak i na podmioty wdrażające. A lista tych systemów jest szersza, niż mogłoby się wydawać — obejmuje między innymi systemy stosowane w rekrutacji i zarządzaniu pracownikami, ocenie zdolności kredytowej, dostępie do usług publicznych, zarządzaniu infrastrukturą krytyczną, egzekwowaniu prawa i wymiarze sprawiedliwości.
Od 2 sierpnia 2026 roku zaczynają obowiązywać przepisy dotyczące systemów wysokiego ryzyka z Załącznika III do rozporządzenia. To data, od której podmioty wdrażające takie systemy muszą spełniać pełen katalog wymagań.
Trzy regulacje, jeden system zarządzania
Organizacja, która przetwarza dane osobowe za pomocą algorytmów uczenia maszynowego i jednocześnie podlega znowelizowanej ustawie o KSC (bo działa w jednym z osiemnastu sektorów objętych dyrektywą NIS-2), staje przed wyzwaniem, które tylko pozornie składa się z trzech odrębnych problemów.
RODO wymaga podstawy prawnej przetwarzania, minimalizacji danych, przejrzystości wobec osób, których dane dotyczą, oraz — w przypadku zautomatyzowanego podejmowania decyzji — prawa do ludzkiej interwencji (art. 22). Wymaga też przeprowadzenia oceny skutków dla ochrony danych (DPIA) w przypadkach, gdy przetwarzanie z dużym prawdopodobieństwem może powodować wysokie ryzyko dla praw i wolności osób fizycznych.
AI Act wymaga od podmiotów wdrażających systemy wysokiego ryzyka między innymi: wdrożenia nadzoru ludzkiego, zapewnienia przejrzystości działania systemu, prowadzenia dokumentacji technicznej, monitorowania systemu w środowisku produkcyjnym, zgłaszania poważnych incydentów i — co kluczowe — przeprowadzenia oceny wpływu na prawa podstawowe (Fundamental Rights Impact Assessment, FRIA) przed wprowadzeniem systemu do użytku.
Znowelizowana ustawa o KSC wymaga analizy ryzyka, wdrożenia środków zarządzania ryzykiem w cyberbezpieczeństwie, obsługi incydentów, zapewnienia ciągłości działania i bezpieczeństwa łańcucha dostaw.
Te trzy zestawy obowiązków nie funkcjonują obok siebie — one się przecinają. DPIA z RODO i FRIA z AI Act badają częściowo te same ryzyka, tyle że z różnych perspektyw. Analiza ryzyka z KSC obejmuje systemy informacyjne, w tym te wykorzystujące AI. Środki bezpieczeństwa wymagane przez KSC chronią jednocześnie dane osobowe (RODO) i integralność systemów AI (AI Act).
Wniosek jest prosty, choć jego realizacja prosta nie jest: organizacja potrzebuje jednego, spójnego systemu zarządzania bezpieczeństwem informacji, który uwzględnia wymogi wszystkich trzech regulacji. Budowanie trzech odrębnych silosów — „zespół RODO", „zespół NIS-2", „zespół AI" — to przepis na luki, duplikacje i chaos kompetencyjny.
DPIA i FRIA — dwie oceny, jedno podejście
Ocena skutków dla ochrony danych (Data Protection Impact Assessment, DPIA), wymagana przez art. 35 RODO, i ocena wpływu na prawa podstawowe (Fundamental Rights Impact Assessment, FRIA), wymagana przez art. 27 AI Act, to dwa instrumenty o zbliżonej filozofii, ale różnym zakresie.
DPIA koncentruje się na ryzykach dla prywatności i ochrony danych osobowych. FRIA obejmuje szerszy wachlarz praw podstawowych — w tym prawo do niedyskryminacji, wolność słowa, godność ludzką i prawo do skutecznego środka prawnego. W przypadku systemów AI przetwarzających dane osobowe obie oceny będą się wzajemnie uzupełniać.
Dobrą praktyką — i jednocześnie oszczędnością czasu — jest przeprowadzanie ich łącznie, w ramach jednego procesu oceny ryzyka. Punkt wyjścia stanowi ten sam system, te same dane, ten sam kontekst organizacyjny. Różnią się pytania, które trzeba postawić, i perspektywy, z których trzeba ocenić ryzyko — ale metodologia może być wspólna.
Fib.Code rekomenduje opracowanie zintegrowanego szablonu oceny, który łączy wymogi DPIA i FRIA z analizą ryzyka wymaganą przez KSC. Jeden proces, trzy wyniki — zamiast trzech procesów prowadzonych przez trzy różne zespoły, które nawzajem nie wiedzą, co ustalił sąsiad.
Nadzór ludzki — wymóg prawny, nie dobra praktyka
Art. 14 AI Act formułuje wymóg, który dla wielu organizacji okaże się trudniejszy do spełnienia niż jakakolwiek kwestia techniczna: nadzór ludzki nad systemami wysokiego ryzyka. Nie chodzi o deklaratywne „człowiek podejmuje ostateczną decyzję", lecz o realne zapewnienie, że osoba nadzorująca system rozumie jego ograniczenia, potrafi zinterpretować wyniki i ma faktyczną możliwość odrzucenia lub skorygowania decyzji algorytmu.
W kontekście bezpieczeństwa informacji oznacza to, że system wykorzystujący AI do wykrywania zagrożeń (SIEM z komponentem uczenia maszynowego, narzędzie do analizy behawioralnej, automatyczny system klasyfikacji incydentów) musi być obsługiwany przez personel przeszkolony nie tylko w zakresie obsługi narzędzia, ale również w zakresie rozumienia, jak ten model podejmuje decyzje i gdzie mogą występować błędy.
Dla organizacji objętych KSC to dodatkowa warstwa wymagań szkoleniowych — obok szkoleń z cyberhigieny i zatwierdzania polityk przez kierownictwo, dochodzi konieczność zapewnienia kompetencji w zakresie nadzoru nad systemami AI.
Incydenty — AI Act rozszerza obowiązek raportowania
Znowelizowana ustawa o KSC wymaga raportowania incydentów poważnych w schemacie 24/72/30 (dwadzieścia cztery godziny na powiadomienie wstępne, siedemdziesiąt dwie godziny na raport pośredni, miesiąc na raport końcowy). AI Act wprowadza osobny obowiązek raportowania „poważnych incydentów" związanych z systemami wysokiego ryzyka — definiowanych jako zdarzenia, które mogą stanowić zagrożenie dla zdrowia, bezpieczeństwa lub praw podstawowych.
W praktyce oznacza to, że ten sam incydent — na przykład awaria systemu AI klasyfikującego zgłoszenia ratunkowe lub błąd algorytmu sterującego infrastrukturą krytyczną — może wymagać raportowania na dwóch odrębnych torach: do CSIRT-u (na podstawie KSC) i do organu nadzoru rynku (na podstawie AI Act). A jeśli incydent obejmuje naruszenie danych osobowych, dochodzi trzeci tor: zgłoszenie do Prezesa UODO na podstawie art. 33 RODO.
Budowanie trzech niezależnych procedur zgłaszania incydentów to droga donikąd. Organizacja potrzebuje jednej procedury, która uwzględnia trzy ścieżki raportowania — z jasnym drzewem decyzyjnym, kto jest powiadamiany, w jakim terminie i w jakiej formie.
Łańcuch dostaw AI — nowe pytania do starych dostawców
AI Act wprowadza pojęcie „łańcucha wartości AI" — ciągu podmiotów zaangażowanych w tworzenie, udostępnianie i wdrażanie systemów sztucznej inteligencji. Podmiot wdrażający system wysokiego ryzyka ponosi odpowiedzialność za jego zgodne z prawem użytkowanie, nawet jeśli sam system został stworzony przez zewnętrznego dostawcę.
W połączeniu z wymogiem bezpieczeństwa łańcucha dostaw z KSC oznacza to, że organizacje muszą zadać swoim dostawcom nowe pytania. Nie wystarczy już zapytać o certyfikaty ISO i klauzule poufności. Trzeba ustalić: czy dostawca jest świadomy, że jego produkt kwalifikuje się jako system wysokiego ryzyka? Czy prowadzi wymaganą dokumentację techniczną? Czy zapewnia monitoring systemu po wdrożeniu? Jakie dane treningowe zostały użyte i czy ich wykorzystanie jest zgodne z RODO?
Umowy z dostawcami technologii AI powinny zawierać klauzule zobowiązujące do współpracy w zakresie raportowania incydentów, udostępniania dokumentacji technicznej i informowania o zmianach w systemie, które mogą wpływać na jego klasyfikację ryzyka.
KRiBSI — nowy organ, nowe uprawnienia
Polska wybrała model scentralizowanego nadzoru nad AI. Komisja ds. Rozwoju i Bezpieczeństwa Sztucznej Inteligencji (KRiBSI) będzie pełnić funkcję organu nadzoru rynku w rozumieniu AI Act — z uprawnieniami do prowadzenia postępowań, wydawania decyzji i nakładania kar administracyjnych.
To rozwiązanie wyróżnia Polskę na tle większości państw członkowskich, które rozpraszają kompetencje między kilka organów. Dla organizacji oznacza to pewną wygodę (jeden punkt kontaktowy), ale również ryzyko — scentralizowany organ dysponuje pełnym obrazem rynku i może skuteczniej identyfikować podmioty, które nie dopełniły obowiązków.
Kary za naruszenie AI Act mogą sięgać trzydziestu pięciu milionów euro lub siedmiu procent światowego rocznego obrotu — w przypadku stosowania zakazanych praktyk AI. Dla naruszeń dotyczących systemów wysokiego ryzyka przewidziane są kary do piętnastu milionów euro lub trzech procent obrotu. Skala jest porównywalna z RODO, a w przypadku najcięższych naruszeń — znacząco ją przewyższa.
Co zrobić przed sierpniem — plan działania
Dla organizacji, które stosują lub zamierzają stosować systemy sztucznej inteligencji — nawet te pozornie proste, jak chatboty obsługujące klientów, narzędzia do automatycznej analizy CV czy systemy rekomendacyjne — proponujemy cztery kroki przygotowawcze.
Po pierwsze: inwentaryzacja systemów AI. Zaskakująco wiele organizacji nie wie, ile systemów wykorzystujących elementy sztucznej inteligencji funkcjonuje w ich infrastrukturze. AI bywa osadzona w narzędziach, które nie są tak postrzegane — w systemach ERP, platformach HR, narzędziach marketingowych, rozwiązaniach do analizy logów. Punkt wyjścia to pełna mapa: co, gdzie, do czego i na czyich danych.
Po drugie: klasyfikacja ryzyka. Każdy zidentyfikowany system wymaga oceny pod kątem kategorii ryzyka z AI Act. Systemy wysokiego ryzyka — to te, które wymagają pełnego pakietu obowiązków. Ale nawet systemy o ograniczonym ryzyku (jak chatboty) podlegają wymogom przejrzystości: użytkownik musi wiedzieć, że rozmawia z maszyną.
Po trzecie: zintegrowana ocena ryzyka. Połączenie DPIA (RODO), FRIA (AI Act) i analizy ryzyka (KSC) w jeden proces — dla systemów, które podlegają wszystkim trzem regulacjom.
Po czwarte: aktualizacja dokumentacji SZBI. Jeśli organizacja posiada system zarządzania bezpieczeństwem informacji — zgodny z ISO 27001 lub wymaganiami KRI — powinna rozszerzyć go o elementy specyficzne dla AI: politykę stosowania systemów sztucznej inteligencji, procedury nadzoru ludzkiego, zasady testowania i monitorowania modeli, procedury raportowania incydentów związanych z AI.
Jak Fib.Code może pomóc
Fib.Code działa na styku bezpieczeństwa informacji, ochrony danych osobowych i cyberbezpieczeństwa — dokładnie tam, gdzie AI Act spotyka się z RODO i KSC. Nie budujemy modeli sztucznej inteligencji — pomagamy organizacjom bezpiecznie i zgodnie z prawem korzystać z tych, które już mają lub planują wdrożyć.
Nasze wsparcie obejmuje inwentaryzację systemów AI pod kątem klasyfikacji ryzyka, przeprowadzanie zintegrowanych ocen DPIA/FRIA, rozszerzanie istniejącej dokumentacji SZBI o wymogi AI Act, szkolenia dla kierownictwa i personelu technicznego oraz bieżące doradztwo w zakresie zgodności regulacyjnej.
Trzy regulacje. Jeden system zarządzania. Jeden partner, który widzi całość.
Umów bezpłatną konsultację: l.grabowski@fibcode.com | www.fibcode.com


