W dniu 2 sierpnia 2025 r. zaczęły obowiązywać kolejne przepisy rozporządzenia Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. O rozporządzeniu szerzej informowaliśmy w poprzednich wpisach: link oraz link. Prace nad projektem ustawy o systemach sztucznej inteligencji (druk UC71) mającej na celu uregulowanie kwestii krajowego stosowania przepisów rozporządzenia nadal trwają. Projekt nie został jeszcze skierowany do Sejmu.
Celem procedowanego projektu ustawy o systemach sztucznej inteligencji jest ustanowienie krajowych ram prawnych służących wdrożeniu AI Act. Ustawa ma charakter wykonawczy i ma za zadanie uregulować m.in. strukturę organizacyjną systemu nadzoru nad AI, wyznaczyć organy właściwe oraz określić obowiązki spoczywające na podmiotach opracowujących i stosujących systemy sztucznej inteligencji. Poniżej omówione zostaną najważniejsze założenia projektu.
Utworzenie KRiBSI
Projekt przewiduje m.in. utworzenie Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji (KRiBSI) – podmiotu, który pełnić będzie funkcję krajowego organu nadzoru rynku w rozumieniu art. 74 ust. 8 AI Act. Do zadań KRiBSI należeć będzie w szczególności:
- prowadzenie postępowań administracyjnych oraz wydawanie decyzji i postanowień w indywidualnych sprawach,
- nakładanie sankcji administracyjnych w przypadkach naruszeń przepisów,
- koordynowanie nadzoru nad systemami AI.
Komisja pełnić ma również funkcję krajowego punktu kontaktowego oraz wspierać stosowanie przepisów poprzez opracowywanie wytycznych, promowanie dobrych praktyk i zarządzanie piaskownicami regulacyjnymi.
Wyżej wymienione piaskownice regulacyjne to konstrukcje prawne, które umożliwiają podmiotom w różnych sektorach wdrażanie innowacyjnych rozwiązań w sprawdzonym środowisku testowym. Mają one na celu umożliwienie eksperymentu oraz obserwacji nad danym projektem, aby skuteczniej i szybciej wdrożyć zmiany prawne.
Model rozproszonego nadzoru
Projektodawca przyjął model rozproszonego nadzoru, zakładający wykorzystanie już istniejących struktur administracyjnych do realizacji zadań w zakresie kontroli nad sztuczną inteligencją. Nie przewiduje się utworzenia nowego, wyspecjalizowanego centralnego urzędu – odpowiedzialność za egzekwowanie przepisów AI Act ma zostać przypisana organom właściwym sektorowo, np. regulatorom rynku finansowego, transportu czy ochrony zdrowia.
Dostawcy i użytkownicy systemów AI – obowiązki i odpowiedzialność
Projekt przewiduje nałożenie szeregu obowiązków na podmioty wprowadzające na rynek i eksploatujące systemy AI, w szczególności te zakwalifikowane jako systemy wysokiego ryzyka. Obejmują one m.in. obowiązek prowadzenia dokumentacji technicznej, zapewnienia przejrzystości działania systemu, nadzoru człowieka nad jego funkcjonowaniem oraz monitorowania skutków jego zastosowania.
Ustawodawca zwraca również uwagę na odpowiedzialność użytkowników systemów AI, którzy będą zobowiązani do odpowiedniego przeszkolenia personelu oraz zapewnienia zgodności operacyjnej systemów z wymogami prawnymi. Wymogi te mają charakter ciągły – zgodność musi być utrzymywana przez cały okres korzystania z systemu, co wymaga wdrożenia mechanizmów stałego nadzoru i zarządzania ryzykiem.
Aspekt ochrony danych osobowych
Ze względu na częste przetwarzanie danych osobowych przez systemy sztucznej inteligencji, projekt ustawy przewiduje ścisłą współpracę między KRiBSI a Prezesem Urzędu Ochrony Danych Osobowych. Szczególny nacisk został położony na konieczność konsultowania projektów wdrożenia systemów wysokiego ryzyka. Mogą one prowadzić do naruszenia praw i wolności jednostek.
Takie podejście ma zapewnić zgodność stosowania sztucznej inteligencji z przepisami ogólnego rozporządzenia o ochronie danych osobowych (RODO), w szczególności w kontekście zautomatyzowanego podejmowania decyzji oraz profilowania.
Ryzyko braku efektywnej egzekucji AI Act
Największym ryzykiem pozostaje obecnie brak finalizacji procesu legislacyjnego. Do czasu uchwalenia ustawy krajowej i powołania przewidzianych w niej struktur, polski system prawny nie będzie dysponował realnymi mechanizmami nadzorczymi. Oznacza to, że choć AI Act będzie formalnie obowiązywał, to jego skuteczna egzekucja na terytorium Polski może okazać się niemożliwa, bądź znacznie utrudniona.
Taka sytuacja generuje również ryzyko odpowiedzialności państwa członkowskiego za niewypełnienie obowiązków wynikających z prawa unijnego oraz potencjalnych roszczeń ze strony obywateli lub przedsiębiorców dotkniętych brakiem skutecznej ochrony prawnej.
Podsumowanie
Przyjęcie ustawy o systemach sztucznej inteligencji ma zapewnić dostosowanie polskiego porządku prawnego do regulacji unijnych w sektorze sztucznej inteligencji. Prace nad jej projektem nadal trwają. O jego dalszych losach będziemy na bieżąco informować.