Rząd zrobił właśnie kolejny krok w stronę uporządkowania rynku sztucznej inteligencji w Polsce. We wtorek, 31 marca 2026 roku, Rada Ministrów przyjęła projekt ustawy o systemach sztucznej inteligencji. To dokument, który ma wdrożyć w polskim porządku prawnym unijny AI Act i zbudować krajowy system nadzoru nad technologiami AI. Projekt trafi teraz do dalszych prac w Sejmie.
W praktyce chodzi o coś więcej niż kolejny urzędowy papier. Państwo chce zyskać narzędzia do reagowania wtedy, gdy systemy AI zaczną realnie wpływać na życie obywateli: od decyzji kredytowych, przez diagnostykę zdrowotną, po ocenę ryzyka i automatyczne decyzje w usługach publicznych i prywatnych. Ministerstwo Cyfryzacji przekonuje, że nowe przepisy mają jednocześnie chronić użytkowników i nie zadusić innowacji formalnościami.
Jak ujął to wicepremier i minister cyfryzacji Krzysztof Gawkowski, nowe prawo ma sprawić, by sztuczna inteligencja „przestała być postrzegana jako zbiór niezrozumiałych algorytmów”. Z kolei wiceminister Dariusz Standerski podkreśla, że ustawa ma przyspieszyć rozwój „sztucznej inteligencji godnej zaufania”, a przedsiębiorcy dostaną do dyspozycji piaskownice regulacyjne, w których będą mogli testować rozwiązania pod okiem ekspertów.
Nowy urząd z szerokimi uprawnieniami
Najważniejszą zmianą ma być powołanie Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji, czyli KRiBSI. To ona ma pełnić funkcję krajowego organu nadzoru nad stosowaniem przepisów dotyczących AI. Według projektu komisja będzie mogła prowadzić postępowania administracyjne, wydawać decyzje, nakładać sankcje i koordynować nadzór nad systemami sztucznej inteligencji w Polsce.
Brzmi technicznie, ale sens jest prosty: obywatel ma dostać adres, pod który można zapukać, gdy algorytm zacznie decydować o jego życiu w sposób niejasny, krzywdzący albo zwyczajnie błędny. Resort cyfryzacji podaje przykład osoby, której bankowy system AI odrzucił wniosek w sposób mogący budzić podejrzenie niesprawiedliwości czy dyskryminacji. W takim przypadku będzie można złożyć skargę, a komisja ma sprawdzić, czy system działał zgodnie z prawem.
To ważne, bo AI coraz częściej nie jest już gadżetem od pisania maili czy generowania obrazków. Coraz częściej wchodzi w obszary, gdzie stawką są pieniądze, zdrowie, reputacja albo dostęp do usług. I właśnie tu ustawodawca próbuje wstawić bezpiecznik.
Bezpiecznik, ale też marchewka dla biznesu
Projekt nie ogranicza się do sankcji i nadzoru. Rząd chce też stworzyć mechanizmy wspierające rozwój rynku. W projekcie zapisano m.in. możliwość tworzenia i prowadzenia piaskownic regulacyjnych, czyli kontrolowanych środowisk testowych dla rozwiązań AI. Firmy i inne podmioty mają tam uzyskać wsparcie w osiąganiu zgodności z przepisami, a w określonych przypadkach także zgodę na odstępstwo od niektórych wymogów w zakresie niezbędnym do realizacji projektu.
To akurat może zainteresować przedsiębiorców bardziej niż sam skrót KRiBSI. Bo z punktu widzenia biznesu największy problem nowych regulacji zwykle nie brzmi: „czy państwo będzie patrzeć?”, tylko: „czy będę wiedział, co mi wolno?”. Projekt przewiduje więc także możliwość uzyskania indywidualnych opinii komisji, które mają dawać wiążące stanowisko w konkretnej sprawie. Innymi słowy: mniej zgadywania, więcej pewności prawnej.
Jawność, skargi i społeczna kontrola
Projekt zakłada również większą jawność. Decyzje komisji mają być dostępne publicznie, podobnie jak wykaz systemów AI, wobec których wydano decyzję o nałożeniu kary za naruszenie przepisów. Co roku, do 31 marca, komisja ma też publikować przykłady dobrych praktyk we wdrażaniu i stosowaniu systemów sztucznej inteligencji.
Do tego ma powstać Społeczna Rada ds. Sztucznej Inteligencji, organ opiniodawczo-doradczy przy KRiBSI. Jej opinie również mają być jawne. To sygnał, że rząd chce pokazać AI nie tylko jako temat dla prawników, urzędników i programistów, ale też jako sprawę publiczną, dotyczącą całego społeczeństwa.
Polska ustawa, europejski porządek
Cały projekt jest ściśle związany z unijnym AI Act, czyli rozporządzeniem UE 2024/1689. Unijne przepisy weszły w życie 1 sierpnia 2024 roku i są wdrażane etapami. Część obowiązków, w tym zakazy określonych praktyk i wymogi dotyczące edukacji w zakresie AI, obowiązuje od 2 lutego 2025 roku, a pełne stosowanie znacznej części ram prawnych przypada na 2 sierpnia 2026 roku, z niektórymi wyjątkami rozłożonymi dalej w czasie. Polska ustawa ma stworzyć krajową machinę, która pozwoli te przepisy realnie egzekwować.
I tu zaczyna się najciekawszy etap. Bo między hasłem „AI godna zaufania” a realnym działaniem państwa jest jeszcze parlament, praktyka urzędnicza i pytanie, czy nowy organ będzie sprawny, czy tylko elegancko nazwany. Polska właśnie dopisuje własny rozdział do europejskiej regulacji sztucznej inteligencji. Teraz okaże się, czy będzie to rozdział o przejrzystości i bezpieczeństwie, czy raczej o tym, jak pięknie brzmią skróty w uzasadnieniach.
Źródła: Ministerstwo Cyfryzacji, Kancelaria Prezesa Rady Ministrów, Komisja Europejska / Digital Strategy.




