Rozporządzenie UE o sztucznej inteligencji (AI Act) to pierwszy na świecie kompleksowy akt prawny regulujący systemy AI. Wprowadza obowiązki zależne od poziomu ryzyka — od minimalnych wymogów transparentności po zakazy. Pomagamy organizacjom zinwentaryzować systemy AI, sklasyfikować je i wdrożyć wymagane środki zgodności.
Dostawcy systemów AI (firmy tworzące lub adaptujące modele AI) — niezależnie od siedziby, jeśli system jest używany w UE
Podmioty wdrażające systemy AI (deployers) — organizacje wykorzystujące systemy AI w swojej działalności
Firmy technologiczne oferujące narzędzia AI jako usługę (SaaS, API, platformy)
Instytucje publiczne korzystające z systemów AI do podejmowania decyzji
Importerzy i dystrybutorzy systemów AI na rynku UE
Od inwentaryzacji systemów AI po pełny system zarządzania zgodny z ISO 42001
Inwentaryzacja AI — identyfikacja wszystkich systemów AI w organizacji, w tym narzędzi zewnętrznych, modeli wbudowanych i procesów wykorzystujących AI.
Klasyfikacja ryzyka — przypisanie każdego systemu AI do kategorii ryzyka (zakazane, wysokie, ograniczone, minimalne) zgodnie z kryteriami AI Act.
Gap analysis — ocena luk względem wymogów AI Act dla zidentyfikowanych kategorii ryzyka. Priorytetyzacja działań.
Wdrożenie środków zgodności — dokumentacja techniczna, ocena ryzyka, mechanizmy nadzoru ludzkiego, testy jakości danych, procedury transparentności.
System zarządzania AI — budowa lub integracja systemu zarządzania AI zgodnego z ISO 42001, obejmującego polityki, procedury i odpowiedzialności.
Walidacja i monitoring — weryfikacja kompletności wdrożenia, szkolenia personelu, ustanowienie procesów ciągłego monitorowania zgodności.
AI Act wchodzi w życie etapami: zakazy (luty 2025), obowiązki dla systemów ogólnego przeznaczenia (sierpień 2025), pełne wymogi dla systemów wysokiego ryzyka (sierpień 2026). Warto zacząć przygotowania już teraz.
Tak — AI Act ma zasięg eksterytorialny, podobnie jak RODO. Dotyczy każdego dostawcy lub podmiotu wdrażającego system AI, którego wyniki są wykorzystywane na terenie UE.
Systemy AI używane w obszarach takich jak: rekrutacja, scoring kredytowy, diagnostyka medyczna, zarządzanie infrastrukturą krytyczną, edukacja, wymiar sprawiedliwości, migracja. Pełna lista znajduje się w Załączniku III do AI Act.
Tak — jako deployer (podmiot wdrażający) organizacja ma obowiązki informacyjne (transparentność wobec użytkowników) i musi zapewnić, że korzystanie z systemu AI jest zgodne z wymogami AI Act dla danej kategorii ryzyka.
ISO 42001 to standard zarządzania systemami AI. AI Act wprost odnosi się do norm zharmonizowanych jako ścieżki do domniemania zgodności. Wdrożenie ISO 42001 stanowi solidną bazę do spełnienia wymogów AI Act.