Nieświadome korzystanie z AI staje się poważnym zagrożeniem cybernetycznym

Według badań polskiej firmy AMP zajmującej się cyberbezpieczeństwem, jedynie co trzecia polska firma wdrożyła formalne zasady korzystania ze sztucznej inteligencji. W sektorze publicznym – w samorządach, szpitalach i przychodniach – odsetek ten jest jeszcze niższy. Tymczasem aż 69% pracowników używa narzędzi AI bez wiedzy działu IT, a 72% wklejało treści firmowe do ChatGPT lub Gemini bez oceny ryzyka.

  • Zjawisko Shadow AI, czyli korzystanie z narzędzi AI poza wiedzą i nadzorem organizacji, dotyczy większości pracowników w Polsce, co zwiększa ryzyko wycieku danych, strat finansowych i fałszywych analiz.
  • Pracownicy w sektorze prywatnym i publicznym kopiują do AI poufne informacje, w tym dane medyczne, kadrowe czy konfiguracje systemów przemysłowych, bez kontroli nad tymi danymi.
  • Polskie firmy nie nadążają z wdrażaniem procedur, polityk AI, szkoleń, audytów ani narzędzi monitorujących, które byłyby zgodne z NIS2 i ISO 27001.
  • Nieodpowiedzialne użycie AI może prowadzić do poważnych incydentów cyberbezpieczeństwa, takich jak manipulacje danymi, prompt injection czy generowanie fałszywych komunikatów phishingowych.
  • Eksperci podkreślają, że odpowiednia polityka AI, szkolenia, audyty Shadow AI i klasyfikacja danych są absolutnym minimum, aby uniknąć nieodwracalnych strat i odpowiedzialności prawnej.

Badania przeprowadzone przez polską firmę AMP, specjalizującą się w cyberbezpieczeństwie, pokazują, że jedynie jedna na trzy polskie firmy wprowadziła formalne zasady dotyczące używania narzędzi sztucznej inteligencji. W sektorze publicznym, obejmującym samorządy, szpitale i przychodnie, liczba jednostek mających takie regulacje jest jeszcze niższa.

Analiza wskazuje również, że większość pracowników w Polsce korzysta z AI bez wiedzy działu IT. Według danych AMP, 69% pracowników używa narzędzi AI samodzielnie, a 72% wprowadzało do systemów takich jak ChatGPT czy Gemini informacje firmowe bez wcześniejszej oceny ryzyka. Eksperci podkreślają, że najpoważniejszym zjawiskiem jest Shadow AI, czyli korzystanie z narzędzi sztucznej inteligencji poza nadzorem i zgodnie z procedurami organizacji.

– Niewłaściwe korzystanie z AI przez pracowników może prowadzić do strat finansowych, wycieku poufnych danych a także do przygotowania fałszywych analiz lub porad na podstawie sfałszowanych przez cyberprzestępców danych wykorzystywanych przez sztuczną inteligencję. Jak ustrzec się przed nieodwracalnymi stratami dla firmy – radzi Przemysław Wójcik, Prezes polskiej firmy AMP.

Z raportu wynika, że brak formalnych zasad i niewiedza pracowników w kwestii ryzyka związanego z AI mogą prowadzić do poważnych konsekwencji dla firm. Wprowadzenie jasnych procedur korzystania z narzędzi sztucznej inteligencji, monitorowanie użycia systemów i edukacja pracowników są wskazywane jako podstawowe środki zapobiegawcze, które mają ograniczyć możliwość wystąpienia strat lub wycieków danych.

AI może doprowadzić do strat w firmach

Na świecie dostępnych jest już ponad 30 tysięcy narzędzi wykorzystujących sztuczną inteligencję, a według prognoz do 2026 roku ponad 80% pracowników będzie korzystać z nich codziennie. Z raportów wynika, że w wielu firmach wdrażanie zabezpieczeń wciąż pozostaje opóźnione, co zwiększa ryzyko niezamierzonego udostępniania danych poufnych. W momencie, gdy przedsiębiorstwa dopiero zaczęły rozpoznawać znaczenie sztucznej inteligencji, pracownicy rozpoczęli używanie jej do różnych zadań, również takich, które nigdy nie powinny opuszczać struktur organizacyjnych.

– W jednym z europejskich banków pracownik wkleił do darmowej wersji ChatGPT pełne dane klientów: numery PESEL, salda kont, treści umów. W globalnym koncernie technologicznym – Samsungu – inżynierowie kopiowali fragmenty kodu źródłowego do publicznych modeli AI, aby szybciej diagnozować błędy, nieświadomie udostępniając strategiczne informacje. W firmach przemysłowych pracownicy wpisywali do generatywnych modeli konfiguracje sterowników PLC wraz z hasłami dostępu, co doprowadziło do ataków na infrastrukturę. Zespoły programistyczne wklejały klucze API i loginy, co w jednej z firm zakończyło się przejęciem repozytoriów i paraliżem kilku projektów. To nie są wyjątki – to codzienność – powiedział Przemysław Wójcik, Prezes polskiej firmy AMP.

Opisane przypadki obejmują różne sektory, od bankowości, przez przemysł, aż po technologie informatyczne. W każdym z tych środowisk wykorzystanie sztucznej inteligencji do zadań operacyjnych wiązało się z przesyłaniem lub wprowadzaniem poufnych danych do systemów dostępnych publicznie. W banku chodziło o dane klientów, w dużym koncernie technologicznym – o fragmenty kodu źródłowego, a w zakładach przemysłowych – o konfiguracje i hasła sterowników. W przypadku zespołów programistycznych ujawnienie kluczy API i loginów doprowadziło do przejęcia repozytoriów oraz zablokowania kilku projektów.

Tylko co 3 firma zabezpiecza się przed niewłaściwym użyciem AI

W pierwszej połowie 2025 roku Polska była najczęściej atakowanym krajem w zakresie ransomware, odpowiadając za około 6% globalnych incydentów tego typu, wynika z danych firmy ESET. Rozwój technologii sztucznej inteligencji przebiegał szybciej, niż firmy zdążyły wdrożyć mechanizmy ochronne, a w ciągu kilku lat powstało ponad 30 tysięcy narzędzi AI. Są one wykorzystywane w pracy biurowej, w środowiskach przemysłowych, medycznych oraz administracyjnych.

Większość narzędzi AI działa w chmurze. Darmowe wersje systemów generatywnych często przechowują treści użytkowników na serwerach poza Unią Europejską i mogą wykorzystywać je do dalszego trenowania modeli. Oznacza to, że dane wprowadzone do takich systemów – w tym konfiguracje, opisy procesów, dane osobowe, dokumentacja medyczna, kody źródłowe, wyniki badań, grafiki i analizy – mogą być przechowywane w lokalizacjach, nad którymi organizacje nie mają kontroli. Wyciek takich danych jest nieodwracalny.

– Według naszych danych aż 69% pracowników w Polsce korzysta z narzędzi AI bez wiedzy działu IT, a 72% wklejało treści firmowe do ChatGPT lub Gemini bez oceny ryzyka. Jednak najbardziej alarmujące jest to, że tylko co trzecia firma w Polsce wdrożyła jakiekolwiek zasady dotyczące korzystania z AI. W sektorze publicznym sytuacja wygląda jeszcze gorzej: samorządy, przychodnie i szpitale – instytucje przetwarzające najbardziej wrażliwe dane – w ogromnej większości nie mają żadnych procedur, narzędzi kontrolnych ani świadomości zagrożeń. A to wszystko dzieje się w czasie, gdy Polska stała się jednym z najbardziej atakowanych cybernetycznie krajów na świecie – powiedział Przemysław Wójcik, Prezes polskiej firmy AMP.

Dostępność narzędzi AI oraz brak wdrożonych procedur bezpieczeństwa w wielu firmach i instytucjach publicznych zwiększają ryzyko przypadkowego ujawnienia lub utraty danych. Firmy korzystające z systemów generatywnych muszą pamiętać, że przekazane informacje mogą być przetwarzane na serwerach zlokalizowanych poza UE, a kontrola nad tymi danymi jest ograniczona. To oznacza, że incydenty związane z wyciekiem danych mogą wystąpić nawet przy standardowych czynnościach wykonywanych przez pracowników.

AI w cieniu

Największym zagrożeniem w środowiskach biznesowych i publicznych jest korzystanie z narzędzi sztucznej inteligencji poza wiedzą i nadzorem organizacji, tzw. Shadow AI. Pracownicy często sięgają po takie rozwiązania, aby przyspieszyć pracę, nie zdając sobie sprawy, że wysyłają do systemów generatywnych informacje objęte tajemnicą przedsiębiorstwa, danymi medycznymi lub konfiguracjami systemów, które zgodnie z przepisami NIS2 powinny być ściśle chronione. Takie działanie może prowadzić do powstania incydentów bezpieczeństwa, które muszą być zgłoszone do CSIRT NASK w ciągu 24 godzin.

Ryzyko związane z Shadow AI obejmuje również możliwość wykorzystania sztucznej inteligencji jako narzędzia ataku. Modele generatywne mogą być manipulowane przez cyberprzestępców poprzez wstrzykiwanie fałszywych danych, modyfikowanie rekomendacji lub przejmowanie odpowiedzi przy użyciu technik prompt injection. Skutkiem takich działań mogą być spersonalizowane komunikaty phishingowe trudne do odróżnienia od autentycznych wiadomości oraz błędne raporty techniczne generowane przez AI, które zawierają nieprawidłowe parametry urządzeń przemysłowych. Incydenty takie mogą prowadzić do awarii infrastruktury, a także do dezinformacji w mediach, jak miało to miejsce w przypadku przejęcia konta PAP i publikacji fałszywej depeszy o mobilizacji wojsk.

– Co gorsza, sztuczna inteligencja może stać się narzędziem ataku. Modele genAI są podatne na manipulacje: cyberprzestępcy mogą wstrzykiwać do nich fałszywe dane, przejmować odpowiedzi poprzez prompt injection, modyfikować rekomendacje, a nawet generować przekonujące, spersonalizowane komunikaty phishingowe, które trudno odróżnić od prawdziwych. W ostatnich latach pojawiły się przypadki, w których AI generowała raporty techniczne zawierające błędne parametry urządzeń przemysłowych, co mogło doprowadzić do awarii infrastruktury. Ataki na media – jak przejęcie konta PAP i publikacja fałszywej depeszy o mobilizacji wojsk – pokazują, że manipulowanie informacją stało się jedną z najskuteczniejszych metod destabilizacji – powiedział Przemysław Wójcik, Prezes polskiej firmy AMP.

W sektorze medycznym i publicznym Shadow AI stwarza dodatkowe zagrożenia, ponieważ dane wrażliwe i objęte tajemnicą trafiają do systemów, nad którymi nie ma kontroli. Pracownicy szpitali korzystają z AI, aby streszczać dokumentację pacjentów, urzędnicy – do redagowania pism, a nauczyciele – do tworzenia ocen opisowych. W wielu przypadkach takie działania odbywają się na prywatnych kontach, bez jakichkolwiek mechanizmów ochrony. Informacje te obejmują dane pacjentów, dane kadrowe oraz informacje o stanie zdrowia osób, które zgodnie z RODO i przepisami o cyberbezpieczeństwie powinny być objęte najwyższym poziomem ochrony. Wszystkie incydenty związane z wykorzystaniem AI muszą być traktowane tak samo, jak inne naruszenia bezpieczeństwa informacji, co oznacza obowiązek ich zgłaszania i dokumentowania.

Jak się zabezpieczyć?

Większość organizacji w Polsce nie ma jeszcze opracowanych procedur dotyczących korzystania z systemów opartych na sztucznej inteligencji ani polityki AI. Firmy nie monitorują ruchu do serwisów generatywnych, nie stosują systemów DLP (Data Loss Prevention) ani CASB (Cloud Access Security Broker), nie prowadzą szkoleń dla pracowników i nie mają wypracowanego sposobu klasyfikowania danych przed wprowadzeniem ich do systemów AI. Brak tych działań stwarza ryzyko poważnych naruszeń bezpieczeństwa i zagrożeń prawnych, finansowych, a nawet operacyjnych, ponieważ przepisy krajowe, takie jak ISO 27001 i NIS2, jasno wskazują, że wszystkie systemy przetwarzające informacje, w tym oparte na AI, muszą spełniać wymogi dotyczące kontroli dostępu, monitorowania, klasyfikacji danych, audytów oraz rejestracji incydentów.

W obecnym kontekście bezpieczeństwa cybernetycznego w Polsce brak wdrożonych polityk i procedur może prowadzić do poważnych konsekwencji. Przemysław Wójcik, Prezes polskiej firmy AMP, podkreśla, że samo korzystanie z AI nie jest zagrożeniem, ale ryzyko pojawia się w momencie, gdy użycie tej technologii jest nieświadome lub niekontrolowane. Wójcik wskazuje, że organizacje muszą wdrożyć politykę AI, prowadzić szkolenia dla pracowników, wykonywać regularne audyty Shadow AI, korzystać z narzędzi monitorujących oraz wprowadzać rygorystyczną klasyfikację danych. Brak takich działań zwiększa ryzyko incydentów bezpieczeństwa, szczególnie w kraju, który jest jednym z częściej atakowanych cybernetycznie, a systemy AI są używane zarówno przez pracowników, jak i przez cyberprzestępców.

– Sztuczna inteligencja nie jest zagrożeniem sama w sobie. Zagrożeniem jest jej nieświadome, niekontrolowane używanie. Odpowiednio wdrożona polityka AI, szkolenia, regularne audyty Shadow AI, stosowanie narzędzi monitorujących oraz rygorystyczna klasyfikacja danych są dziś absolutnym minimum, jeśli organizacje chcą uniknąć najpoważniejszych incydentów. W świecie, w którym Polska stała się jednym z najczęściej atakowanych cybernetycznie krajów, a AI wykorzystywana jest zarówno przez pracowników, jak i cyberprzestępców, brak odpowiedzialnego podejścia do nowych technologii może kosztować więcej, niż ktokolwiek się spodziewa – powiedział Przemysław Wójcik.

Działania zapobiegawcze obejmujące klasyfikację danych, monitorowanie korzystania z systemów generatywnych, szkolenia i audyty są niezbędne, aby ograniczyć ryzyko naruszeń bezpieczeństwa i spełnić wymagania regulacyjne. Organizacje, które ich nie wdrożą, pozostają narażone na incydenty, które mogą skutkować stratami finansowymi, problemami prawnymi oraz zakłóceniem ciągłości działania.

Podłącz się do źródła najważniejszych informacji z rynku energii i przemysłu