Pracownik, którego nie ma na liście płac

Przeciętna polska firma średniej wielkości zatrudnia — według własnej ewidencji — sto kilkadziesiąt osób. Według rzeczywistości, w której operuje dzisiaj, zatrudnia około dwustu. Ta różnica to Shadow AI — dziesiątki asystentów sztucznej inteligencji, które pracownicy uruchamiają we własnym zakresie, bez wiedzy zarządu, bez wpisu do rejestru czynności przetwarzania, bez umowy powierzenia, bez szkolenia, bez polityki, bez nadzoru.

Każdego dnia, w tej właśnie organizacji, ktoś wkleja do darmowego ChatGPT fragment umowy z klientem z prośbą „streść mi to po polsku". Ktoś inny wrzuca do Gemini zestawienie pensji działu, żeby „sformatować do prezentacji". Asystentka zarządu wkleja do Claude'a treść rozmów z rady nadzorczej, żeby „zrobić notatkę". Programista wrzuca do Copilota kod bazy danych z zahardkodowanym hasłem produkcyjnym. Każdy z nich uważa, że pomaga firmie — i każdy z nich właśnie wyniósł dane za mur, którego zarząd pilnuje setkami firewalli, segmentacjami VLAN, politykami DLP i całą maszynerią bezpieczeństwa informacji.

To zjawisko nazywamy Shadow AI. W przeciwieństwie do klasycznego insider threat — celowego wyprowadzania danych przez nieuczciwego pracownika — tu nie ma złej woli. Jest tylko niewiedza. I to właśnie czyni Shadow AI jednym z najbardziej niedocenianych ryzyk dla polskich firm w 2026 roku.

Skala, której nie widać w żadnym raporcie zarządu

Badania międzynarodowe, z którymi zestawiamy dane z polskich audytów Fib.Code, malują obraz spójny aż do bólu. W organizacjach, które nie mają formalnej polityki korzystania z narzędzi AI, od 60 do 80 procent pracowników wiedzy używa przynajmniej jednego narzędzia generatywnej AI do zadań służbowych. W dziale marketingu odsetek ten sięga bliski stu procent. W działach prawnych i HR — z pozoru konserwatywnych — przekracza połowę załogi.

Z naszych audytów wynika rzecz jeszcze bardziej niepokojąca. Kiedy prosimy zarząd o oszacowanie skali zjawiska w jego firmie, szacunki wahają się między 5 a 15 procent załogi. Rzeczywistość, którą ujawniamy w trakcie pracy, to zwykle 60 procent i więcej. Luka percepcyjna na poziomie czterdziestu punktów procentowych nie jest przypadkowa — jest konsekwencją faktu, że Shadow AI jest z definicji niewidoczna dla zarządu, który nie ma jej mierzyć czym.

Co więcej, zjawisko nie dotyczy wyłącznie darmowych narzędzi konsumenckich. Niemal równie często obserwujemy w firmach stosowanie płatnych wersji indywidualnych ChatGPT Plus czy Claude Pro, kupowanych przez pracowników z prywatnych kart, z rozliczeniem w kosztach albo bez. Te subskrypcje nie są objęte umową B2B, umową powierzenia przetwarzania ani żadną klauzulą dotyczącą niewykorzystywania danych do trenowania modeli. Z punktu widzenia dostawcy AI to konto konsumenckie. Z punktu widzenia firmy — kanał wycieku z tabliczką „płacą za to sami".

Dlaczego to nie jest problem IT. To problem zarządu

Przed wejściem w meritum warto postawić jedną rzecz jasno. Shadow AI nie jest problemem technicznym, rozwiązywalnym przez kolejny produkt klasy DLP czy przez wpisanie trzech domen na listę blokowaną. Blokada ChatGPT na firewallu nie wyłącza smartfona pracownika — a zjawisko omija korporacyjną sieć w całości, kiedy tylko ktoś przełączy się na dane komórkowe.

Shadow AI jest problemem ładu korporacyjnego — governance w dosłownym rozumieniu tego słowa. Problem sprowadza się do tego, że firma nie ustaliła, w jaki sposób jej pracownicy mają korzystać z najbardziej transformacyjnej technologii dekady. I dopóki tego nie ustali, technologia ta będzie korzystała z firmy bardziej, niż firma z niej.

To postawienie sprawy jest kluczowe z dwóch powodów. Po pierwsze, przenosi odpowiedzialność tam, gdzie jest jej miejsce — na organ zarządzający. Po drugie, otwiera drogę do rozwiązań, które działają: polityki, szkoleń, procedur, umów, architektury dostępu do sankcjonowanych narzędzi. Jednym słowem — do pełnego wachlarza instrumentów, którymi Fib.Code posługuje się od lat w projektach z zakresu RODO, ISO 27001 i NIS-2.

Pięć warstw ryzyka, które zwykle rozpoznajemy dopiero po audycie

Kiedy zespół Fib.Code przeprowadza audyt gotowości organizacji na erę AI, identyfikuje regularnie pięć kategorii ryzyka. Są one na tyle różne od siebie, że wymagają różnych narzędzi kontrolnych — i na tyle powiązane, że nie da się ich rozwiązywać osobno.

Wyciek danych osobowych — naruszenie RODO w czasie rzeczywistym

Wklejenie do darmowego ChatGPT listy klientów z danymi kontaktowymi to transfer danych osobowych do podmiotu trzeciego — zwykle spoza Europejskiego Obszaru Gospodarczego — bez podstawy prawnej, bez umowy powierzenia, bez klauzuli informacyjnej dla podmiotów danych. To klasyczny, podręcznikowy przypadek naruszenia art. 28 i art. 44 RODO. Naruszenie, które odbywa się setki razy dziennie w przeciętnej polskiej firmie, zupełnie poza radarem zarządu i Inspektora Ochrony Danych.

Konsekwencje są pięciopiętrowe: kary finansowe UODO do 20 mln EUR lub 4% rocznego obrotu światowego, roszczenia cywilne podmiotów danych, roszczenia klientów z tytułu naruszenia umów DPA, ryzyko kontraktowe (coraz więcej kontraktów zawiera klauzule zakazujące przekazywania danych do narzędzi AI bez zgody kontrahenta), wreszcie ryzyko reputacyjne, którego nie wycenia się w liczbach, ale które potrafi pogrzebać relacje budowane latami.

Wyciek tajemnicy przedsiębiorstwa — sprawa Samsunga i co z tego wynika

W 2023 roku inżynierowie Samsunga wkleili do ChatGPT fragmenty zastrzeżonego kodu półprzewodnikowego — szukając rady co do błędu. W 2024 roku pracownik pewnej europejskiej kancelarii wkleił strategię obrony w głośnej sprawie handlowej, chcąc „sprawdzić argumentację". Oba przypadki zakończyły się identycznie: dane trafiły do infrastruktury dostawcy AI bez możliwości ich realnego wycofania.

Z punktu widzenia polskiej ustawy o zwalczaniu nieuczciwej konkurencji takie działanie jest ujawnieniem tajemnicy przedsiębiorstwa. Odpowiedzialność ponosi nie tylko pracownik — odpowiada również spółka, która nie zabezpieczyła tajemnicy odpowiednimi środkami organizacyjnymi. A „odpowiednie środki" zaczynają się od pisemnej polityki, o której spółka potrafi wykazać, że była skutecznie komunikowana i egzekwowana.

Halucynacje jako podstawa decyzji biznesowych

Generatywna sztuczna inteligencja nie mówi „nie wiem". Mówi z pełnym przekonaniem rzeczy, których nie wie. I dopóki ktoś nie przyzwyczai się do tej właściwości, będzie traktował odpowiedzi jak fakty. Kiedy więc prawnik-juniorka prosi ChatGPT o cytaty z orzecznictwa SN, dostaje fantastycznie brzmiące sygnatury spraw, które nigdy nie istniały. Kiedy analityk finansowy prosi o porównanie wskaźników branżowych, dostaje liczby, które wyglądają jak prawdziwe — ale których źródła nie da się zweryfikować.

W 2023 roku amerykańska kancelaria zapłaciła karę, a prawnicy zostali ukarani dyscyplinarnie, za złożenie pisma procesowego wypełnionego sfabrykowanymi przez ChatGPT orzeczeniami. Podobne przypadki zaczynają pojawiać się w Polsce. To nie jest ciekawostka technologiczna. To ryzyko operacyjne, które uderza we wszystko, co firma produkuje — od analiz, przez umowy, po decyzje inwestycyjne.

Shadow training — kiedy dane firmy stają się częścią modelu

Większość dostawców generatywnej AI w warunkach użytkowania darmowych i indywidualnych kont rezerwuje sobie prawo do wykorzystywania treści prompts i odpowiedzi do dalszego trenowania modelu. Nie chodzi tu o dosłowne zapamiętanie treści — modele są zbyt duże, żeby tak działały. Chodzi o to, że każdy fragment wklejonych danych zwiększa szansę, że przyszłe wersje modelu zaczną generować treści tego typu także dla innych użytkowników.

W praktyce oznacza to scenariusz, w którym konkurent, wpisując specyficzne zapytanie do tego samego dostawcy AI, otrzymuje odpowiedź opartą na danych wyciągniętych miesiąc wcześniej z czyjejś firmy. Przypadki weryfikowalnego „wyciekania" firmowych identyfikatorów z promptów jednego użytkownika do odpowiedzi innego zostały udokumentowane w 2024 roku. Nie są częste, ale są — i dla zarządu, który podpisuje oświadczenia o ochronie danych, samo ryzyko powinno wystarczyć.

Niespójność z AI Act — rola „deployera", o której nikt nie mówi pracownikom

Akt w sprawie sztucznej inteligencji (Rozporządzenie UE 2024/1689) wchodzi w pełne obowiązywanie etapami, a od sierpnia 2026 roku obejmuje ostatnie, najostrzejsze wymogi dla systemów AI wysokiego ryzyka. Kluczowy dla polskich firm jest status deployera — podmiotu wdrażającego system AI w swojej działalności. To właśnie deployer odpowiada za to, jak AI jest używana wewnątrz organizacji.

Artykuł 4 rozporządzenia wprowadza obowiązek zapewnienia kompetencji w zakresie AI („AI literacy") u wszystkich osób zajmujących się systemami AI w imieniu deployera. Artykuł 26 nakłada na deployerów konkretne obowiązki: od dokumentacji, przez nadzór ludzki, po monitorowanie i logowanie zastosowań. Organizacja, która pozwala pracownikom na nieuregulowane korzystanie z narzędzi AI, z definicji nie spełnia ani jednego z tych wymogów. To nie jest kwestia interpretacji — to wynika wprost z tekstu rozporządzenia.

Co konkretnie trzeba zrobić — i w jakiej kolejności

Dobra wiadomość brzmi tak: choć ryzyko jest poważne, jego opanowanie nie wymaga rewolucji. Wymaga metody. Fib.Code wypracował sekwencję dziewięciu kroków, którą sprawdziliśmy w organizacjach z różnych branż — od kancelarii prawnych przez spółki produkcyjne po samorządy. Kolejność kroków ma znaczenie.

Krok pierwszy — inwentaryzacja. Zanim cokolwiek zakażemy lub dozwolimy, musimy wiedzieć, co się dzieje. Ankieta anonimowa, audyt ruchu sieciowego, wywiady z kierownikami działów — w połączeniu dają zwykle obraz zaskakująco pełny. Pierwsza prawda o Shadow AI polega na tym, że jest go znacznie więcej, niż zarząd się spodziewa.

Krok drugi — klasyfikacja danych. Polityka AI nie może brzmieć „nie wolno używać ChatGPT". Musi brzmieć: „do pracy z danymi kategorii A wolno używać wyłącznie narzędzia X w trybie enterprise, do pracy z danymi kategorii B można używać narzędzia Y i Z, do danych kategorii C wolno używać dowolnego narzędzia, ale nie wolno wklejać żadnych identyfikatorów klientów". Bez klasyfikacji danych nie ma dobrej polityki AI.

Krok trzeci — klasyfikacja narzędzi AI. Równolegle — przegląd dostępnych narzędzi pod kątem trzech kryteriów: zgodność z RODO, zgodność z AI Act, warunki umowne dostawcy (czy używa danych do treningu, gdzie je przetwarza, jakie ma środki bezpieczeństwa). W efekcie powstaje lista narzędzi dopuszczonych, warunkowo dopuszczonych i zakazanych, aktualizowana co kwartał.

Krok czwarty — polityka korzystania z AI. Dokument opracowany zgodnie z logiką RODO i ISO 27001:2022, zintegrowany z istniejącym Systemem Zarządzania Bezpieczeństwem Informacji. Nie regulamin w stylu „trzymaj się od tego z daleka", tylko żywy instrument pracy — precyzujący, co wolno, czego nie wolno, kto za co odpowiada i co zrobić, jeśli jednak się wydarzy.

Krok piąty — dopuszczone narzędzia w wersji enterprise. Bez tego kroku cała polityka pada. Pracownicy używają narzędzi AI, bo są przydatne — nie dlatego, że chcą złamać regulamin. Jeżeli firma nie zapewni im sankcjonowanej alternatywy (ChatGPT Enterprise, Copilot for Microsoft 365, Gemini Enterprise, Claude for Work — zależnie od profilu i budżetu), będą używać prywatnych. Polityka bez alternatywy to fikcja.

Krok szósty — DPIA dla zastosowań wysokiego ryzyka. Ocena skutków dla ochrony danych w rozumieniu art. 35 RODO, uzupełniona o wymogi AI Act. Dla każdego poważnego zastosowania AI — rekrutacja, scoring klientów, obsługa reklamacji, automatyczne decyzje — osobna DPIA. To nie jest biurokracja. To dokument, który w razie kontroli pokazuje, że firma przemyślała ryzyko.

Krok siódmy — szkolenia. Obowiązek z artykułu 4 AI Act, ale też zwykłe bezpieczeństwo informacji. Szkolenie z korzystania z AI musi obejmować trzy rzeczy: co wolno, jak działa technologia (skąd biorą się halucynacje, co to jest prompt injection, dlaczego model „kłamie z przekonaniem"), jak rozpoznać próbę manipulacji za pomocą AI (deepfake CEO, sfałszowane e-maile generowane przez AI).

Krok ósmy — monitoring i DLP. Narzędzia klasy DLP nowej generacji rozpoznają już specyficznie Shadow AI: wykrywają próby wklejenia danych osobowych czy kodu do znanych domen dostawców AI, logują takie zdarzenia, proszą o potwierdzenie użytkownika. To nie jest substytut polityki — to jej wzmocnienie.

Krok dziewiąty — przegląd i iteracja. Rynek narzędzi AI zmienia się co kilka tygodni. Polityka, która pół roku temu była nowoczesna, dzisiaj może być przestarzała. Przegląd kwartalny, aktualizacja listy dopuszczonych narzędzi, aktualizacja szkoleń. Bez tego każdy z poprzednich ośmiu kroków traci z czasem moc.

Dlaczego warto zrobić to z Fib.Code

Polityka AI w firmie to nie jest dokument do wygenerowania z ChatGPT w piętnaście minut. To splecenie co najmniej pięciu obszarów: RODO, AI Act, ISO 27001:2022, NIS-2 (jeżeli firma mu podlega) oraz wewnętrznej kultury organizacyjnej, bez której najlepsza polityka pozostanie martwą literą. Zespół Fib.Code pracuje na wszystkich pięciu obszarach od lat — i od dwóch lat specjalizuje się w ich integracji wokół tematu AI governance.

Nasze podejście opiera się na tym, czego nauczyliśmy się w kilkunastu projektach AI governance ostatniego roku. Po pierwsze, każda polityka AI musi być dopasowana do realnej pracy firmy — generyczne szablony z internetu nie przeżywają pierwszego kontaktu z działem sprzedaży. Po drugie, bez jasnej alternatywy nie ma zakazu — dlatego w projekcie zawsze proponujemy konkretny stack dopuszczonych narzędzi, dopasowany do budżetu i profilu działalności. Po trzecie, polityka żyje przez szkolenia, nie przez publikację w intranecie — dlatego każdy projekt zamyka dedykowany cykl warsztatów, zaprojektowany pod kadrę zarządzającą, działy ryzyka i pracowników wiedzy.

Efektem współpracy jest zestaw, który można pokazać zarządowi, kontrolerowi, klientowi i audytorowi certyfikującemu: spójna polityka, zatwierdzona klasyfikacja danych i narzędzi, przeprowadzone szkolenia ze sprawdzianem wiedzy, DPIA dla kluczowych zastosowań, plan przeglądu. Wszystko zharmonizowane z już istniejącym Systemem Zarządzania Bezpieczeństwem Informacji, jeżeli taki w organizacji funkcjonuje.

Trzydzieści, sześćdziesiąt, dziewięćdziesiąt dni

Jeżeli zarząd Państwa spółki zastanawia się, od czego zacząć, proponujemy prosty horyzont czasowy.

W pierwszych trzydziestu dniach — inwentaryzacja oraz wstępna klasyfikacja danych. W tym okresie identyfikujemy skalę Shadow AI w Państwa organizacji, poznajemy kluczowe zastosowania, oceniamy dojrzałość istniejących polityk bezpieczeństwa informacji.

W kolejnych trzydziestu — polityka AI, klasyfikacja narzędzi, wdrożenie sankcjonowanego stacku enterprise, DPIA dla zastosowań wysokiego ryzyka. To etap intensywnej pracy dokumentacyjnej i decyzyjnej.

W ostatnich trzydziestu — cykl szkoleń dla wszystkich poziomów organizacji, wdrożenie monitoringu DLP nastawionego na AI, pierwsza iteracja przeglądu. Po dziewięćdziesiątym dniu organizacja zyskuje stan, który można bez zastrzeżeń przedstawić w toku kontroli regulacyjnej oraz — co dla wielu klientów równie istotne — w odpowiedzi na coraz częstsze pytania kontrahentów o politykę AI w łańcuchu dostaw.

Podsumowanie, które warto zawiesić sobie nad biurkiem

Shadow AI nie zniknie. Regulacje nie sprawią, że zniknie. Blokady techniczne nie sprawią, że zniknie. Zniknie jedynie w tych organizacjach, które świadomie i w pełnej zgodności z prawem zastąpią ją kontrolowanym korzystaniem z AI — z politykami, z narzędziami, z umowami, z szkoleniami. W pozostałych będzie rosnąć, dopóki nie skończy się pierwszą poważną kontrolą UODO, pierwszym wyciekiem danych do konkurencji albo pierwszym głośnym artykułem w prasie branżowej.

Najlepszy moment na opanowanie Shadow AI był rok temu. Drugi najlepszy moment jest teraz. Nie dlatego, że regulator puka do drzwi — choć puka — tylko dlatego, że dobrze zaprojektowana AI governance staje się w 2026 roku jedną z najbardziej opłacalnych inwestycji w bezpieczeństwo i efektywność polskiej firmy średniej wielkości.

Fib.Code chętnie przeprowadzi Państwa spółkę przez tę drogę. Zaczynamy od bezpłatnej rozmowy diagnostycznej, w której w ciągu godziny potrafimy wskazać, gdzie Państwo dziś jesteście — i ile dzieli Państwa od stanu, w którym Shadow AI przestaje być problemem, a zaczyna być przewagą konkurencyjną.

Zapraszamy do kontaktu: l.grabowski@fibcode.com | fibcode.com/pl/kontakt. O powiązanych tematach pisaliśmy w artykułach AI Act a bezpieczeństwo informacji — co łączą nowe regulacje oraz Outsourcing pełnomocnika ds. bezpieczeństwa informacji — oba tematy łączą się z AI governance bezpośrednio.