Ministerstwo Cyfryzacji przedstawiło projekt Polityki rozwoju sztucznej inteligencji w Polsce do 2030 roku, obiecując uczynić kraj liderem AI w Europie. Jednak Urząd Ochrony Danych Osobowych (UODO) bije na alarm: dokument zbyt słabo chroni prywatność obywateli. Prezes UODO, Mirosław Wróblewski, wzywa do uwzględnienia sektorowych kontekstów, pełnej zgodności z RODO, AI Act i Konwencją 108+ oraz wzmocnienia edukacji niezależnej od BigTech.
Sztuczna inteligencja (AI) zmienia świat – od automatyzacji usług publicznych po personalizację usług w biznesie. Polska, chcąc być liderem tej rewolucji, w czerwcu 2025 roku przedstawiła projekt Polityki rozwoju sztucznej inteligencji do 2030 roku, który ma uczynić kraj jednym z głównych centrów AI w Europie. Dokument, przygotowany przez Ministerstwo Cyfryzacji, zakłada rozwój ekosystemu AI opartego na współpracy nauki, biznesu i administracji, zwiększenie mocy obliczeniowych i kształcenie specjalistów. Ambitny cel: Polska w pierwszej 10–20 rankingu globalnych liderów AI do 2030 roku.
Jednak Urząd Ochrony Danych Osobowych (UODO), kierowany przez prezesa Mirosława Wróblewskiego, zgłasza poważne zastrzeżenia. W uwagach z 28 lipca 2025 roku UODO wskazuje, że projekt zbyt słabo uwzględnia ochronę danych osobowych i prywatność. Obawy dotyczą ogólnego, horyzontalnego podejścia do bezpieczeństwa danych, które nie uwzględnia specyfiki sektorów takich jak zdrowie czy sądownictwo.
AI bez granic – czy prawo nadąża za technologią?
Polityka AI do 2030 roku opiera się na horyzontalnym podejściu, zakładającym wspólne zasady dla wszystkich sektorów – od edukacji po przemysł. Ministerstwo Cyfryzacji argumentuje, że takie rozwiązanie zapewnia elastyczność i przyspiesza wdrożenia. Jednak UODO krytykuje ten model jako niewystarczający. Przetwarzanie danych w służbie zdrowia, gdzie w grę wchodzą dane genetyczne czy biometryczne, wymaga innych zabezpieczeń niż w edukacji, gdzie kluczowe są dane o uczniach, czy w sądownictwie, gdzie analizuje się informacje o karalności.
Różnice w wrażliwości danych wymagają precyzyjnych regulacji. Na przykład algorytmy AI w szpitalach mogą decydować o priorytetach leczenia, a w sądach – wspierać orzecznictwo. Bez sektorowego podejścia istnieje ryzyko naruszeń prywatności, nierównego traktowania czy błędnych decyzji. UODO podkreśla, że polityka AI musi uwzględniać różnorodność danych i ich kontekst, by zapewnić zgodność z prawem i zaufanie społeczne.
ODO, AI Act i Konwencja 108+
UODO w swoich uwagach podkreśla, że polityka AI musi być w pełni zgodna z europejskim i międzynarodowym porządkiem prawnym. Kluczowe są trzy akty:
- RODO: Rozporządzenie o ochronie danych osobowych, które od 2018 roku definiuje standardy przetwarzania danych w UE, z naciskiem na przejrzystość, zgodę i prawa jednostki.
- AI Act: Unijne rozporządzenie, przyjęte w 2024 roku, które klasyfikuje systemy AI według poziomu ryzyka (od minimalnego po niedopuszczalne) i nakłada obowiązki na dostawców, szczególnie w sektorach wysokiego ryzyka, jak zdrowie czy sądownictwo.
- Konwencja 108+: Międzynarodowy standard Rady Europy, modernizujący zasady ochrony danych w dobie nowych technologii, obowiązujący od 2018 roku.
Prezes UODO wzywa do doprecyzowania, że polityka AI będzie respektować te regulacje, bez tworzenia luk w imię innowacyjności. Na przykład AI Act wymaga, by systemy wysokiego ryzyka (np. w rekrutacji czy sądownictwie) były transparentne i podlegały audytom. RODO nakazuje minimalizację danych i wyraźną zgodę użytkownika. Konwencja 108+ wzmacnia prawa jednostek w transgranicznym przetwarzaniu danych. UODO ostrzega, że bez tych fundamentów Polska ryzykuje niezgodność z prawem UE, co może prowadzić do kar finansowych i utraty zaufania.
Największe zagrożenia: zdrowie, sądy, dane biometryczne
Sztuczna inteligencja w usługach publicznych, takich jak ochrona zdrowia czy wymiar sprawiedliwości, niesie szczególne ryzyko dla prywatności. Algorytmy analizujące dane medyczne (np. genetyczne czy biometryczne) mogą poprawić diagnostykę, ale ich wyciek lub błędne użycie grozi dyskryminacją lub naruszeniem intymności. W sądownictwie systemy AI wspierające orzecznictwo muszą być transparentne, by uniknąć uprzedzeń – np. algorytm, który faworyzuje określone grupy społeczne, może podważyć sprawiedliwość.
Dane biometryczne (rozpoznawanie twarzy, odciski palców), genetyczne czy dotyczące karalności są wyjątkowo wrażliwe. UODO podkreśla, że polityka AI musi wprowadzić system klasyfikacji danych według ich wrażliwości i jasne zasady przetwarzania w infrastrukturze krytycznej, takiej jak krajowe chmury obliczeniowe. Bez tego istnieje ryzyko, że dane trafią do nieautoryzowanych podmiotów, np. zagranicznych platform BigTech.
Jak ulepszyć politykę AI?
UODO przedstawiło konkretne rekomendacje, które mają wzmocnić politykę AI i zagwarantować ochronę prywatności:
- Ochrona danych jako zasada horyzontalna: Prywatność musi być priorytetem we wszystkich sektorach, od administracji po biznes, z naciskiem na minimalizację danych i zgodę użytkownika.
- Ramy regulacyjne dla organów publicznych: Jasne zasady użycia AI w służbie zdrowia, edukacji czy sądownictwie, z obowiązkiem audytów i transparentności.
- Wzmocnienie roli prezesa UODO: Jako niezależny organ nadzorczy, UODO powinno mieć większą władzę w kontrolowaniu systemów AI i egzekwowaniu prawa.
- Zgodność z RODO, AI Act i Konwencją 108+: Polityka AI musi explicite odnosić się do tych regulacji, by uniknąć luk prawnych.
- Zarządzanie ryzykami otwartych danych i pseudonimizacji: UODO ostrzega, że pseudonimizacja nie zawsze chroni tożsamość, a otwarte dane mogą być nadużywane przez AI.
- Edukacja niezależna od BigTech: Wzmocnienie kampanii informacyjnych i programów szkoleniowych, które uczą obywateli i specjalistów o AI bez wpływu korporacji technologicznych.
Społeczne fundamenty AI
Transformacja cyfrowa oparta na AI wymaga nie tylko technologii, ale i świadomego społeczeństwa. Polacy muszą rozumieć, jak działa sztuczna inteligencja, jakie niesie korzyści i ryzyka oraz jakie prawa im przysługują. Badanie Deloitte z 2021 roku pokazało, że 88% respondentów uważa AI za technologię wymagającą starannego zarządzania, a 68% widzi w niej korzyści społeczne. Jednak brak wiedzy o przetwarzaniu danych może prowadzić do nieufności.
UODO proponuje niezależną edukację cyfrową, wolną od wpływu BigTech, takich jak Google czy Microsoft, które często promują własne platformy. Kluczowe są kampanie informacyjne, szkolenia dla obywateli i programy dla specjalistów, np. inspektorów ochrony danych. Neutralna edukacja, wspierana przez administrację i organizacje pozarządowe, może zbudować zaufanie do AI.
Źródło: PAP