Ten serwis używa cookies i podobnych technologii, brak zmiany ustawienia przeglądarki oznacza zgodę na to.

Brak zmiany ustawienia przeglądarki oznacza zgodę na to. Więcej »

Zrozumiałem

Zakończyły się prekonsultacje wdrożenia aktu o sztucznej inteligencji

Zakończyły się prekonsultacje wdrożenia aktu o sztucznej inteligencji fot.pixabay

Unijne rozporządzenie wymaga od państw członkowskich, aby tak przystosowały swoje systemy prawne, by skutecznie zrealizować nowe reguły w praktyce. Ministerstwo Cyfryzacji zakończyło właśnie prekonsultacje do projektowanej implementacji Aktu o sztucznej inteligencji. Wzięło w nich udział 50 podmiotów.

W ramach prekonsultacji skupiono się na 4 kluczowych kwestiach: powołaniu nowego organu nadzoru, kto powinien realizować funkcją organu notyfikacyjnego, czy powinna być to jedna i ta sama instytucja czy też niezależne od siebie kategorie interesariuszy – np. organów, instytucji, organizacji, przedsiębiorstw, grup społecznych, kategorii obywateli i in. powinny być traktowane priorytetowo w zakresie działań komunikacyjnych i edukacyjnych w związku z procesem wchodzenia w życie europejskiego rozporządzenia.

Zdecydowana większość głoszonych opinii zawierała wskazanie, aby powołać nowy organ nadzoru rynku sztucznej inteligencji. 

Organ ten ma m.in:

  • być pojedynczym punktem kontaktowym dla ogółu społeczeństwa oraz innych partnerów na szczeblu państw członkowskich i na szczeblu unijnym,
  • rozpatrywać wnioski dot. zezwolenia na wprowadzenie do obrotu lub oddanie do użytku systemów AI wysokiego ryzyka oraz skargi osób poddanych działaniom systemów AI,
  • przyjmować zgłoszenia dot. poważnych incydentów,
  • współpracować z Komisją, forum doradczym oraz Radą ds. AI.

Organ nadzoru rynku zgodnie z Aktem ma wykonywać swoje uprawnienia niezależnie, bezstronnie i nietendencyjnie.

Zwolennicy powołania nowego organu wskazują kilka kluczowych argumentów. Uważają, że istniejące instytucje nie mają odpowiednich kompetencji i zasobów. Dodatkowo sądzą, że stworzenie wyspecjalizowanej agencji odpowiedzialnej za bezpieczny i legalny rozwój AI przyniesie korzyści zarówno sektorowi publicznemu, jak i prywatnemu. Ponadto, twierdzą, że jeśli utworzymy nowy organ to unikniemy potencjalnych sporów kompetencyjnych oraz konfliktów priorytetów w działaniu innych instytucji.

Mniejszość respondentów uważa, że kompetencje organu nadzoru należy przekazać istniejącej instytucji. W tym kontekście wymieniano podmioty takie jak Prezes Urzędu Ochrony Konkurencji i Konsumentów (UOKiK), Prezes Urzędu Ochrony Danych Osobowych (UODO), Przewodniczący Komisji Nadzoru Finansowego (KNF), Przewodniczący Krajowej Rady Radiofonii i Telewizji (KRRiTV), Prezes Urzędu Komunikacji Elektronicznej (UKE) czy Minister Cyfryzacji (MC).

Uczestnicy prekonsultacji są natomiast podzieleni w kwestii podmiotu mającego pełnić funkcję organu notyfikującego. Organ ten ma wspólnie z partnerami unijnymi opracowywać i stosować procedury konieczne do tego, by oceniać, wyznaczać i notyfikować jednostki oceniające zgodność systemów AI oraz je monitorować, a także w określonych sytuacjach przedkładać Komisji i państwom członkowskim dowody, które potwierdzają kompetencje jednostki oceniającej zgodność. Organ notyfikujący, w zamyśle twórców Aktu, ma działać w sposób, który gwarantuje wysokie kompetencje eksperckie, poufność, bezstronność oraz brak konfliktów interesów z jednostkami oceniającymi zgodność. 

Nieco więcej respondentów popiera pomysł, by do tego celu stworzyć nową instytucję (25 wskazań). Jednocześnie znaczna liczba uczestników prekonsultacji uważa, że te zadania mogłyby realizować podmioty już istniejące (19 wskazań). Spośród istniejących instytucji, jako potencjalny organ notyfikujący respondenci najczęściej wymieniali Polskie Centrum Akredytacji (PCA).

Nieznaczna większość biorących udział w prekonsultacjach uważa, że lepiej byłoby, gdyby funkcje organu nadzoru rynku i organu notyfikującego wykonywała w Polsce ta sama instytucja (23 wskazań). 

Poza ogółem obywateli, jako kategorie osób, które powinny uzyskać informacje o przepisach wynikających z Aktu uczestnicy prekonsultacji najczęściej wskazywali następujące grupy:

  • przedsiębiorcy AI (w tym dostawcy AI wysokiego ryzyka),
  • przedstawiciele administracji publicznej,
  • naukowcy, studenci,
  • konsumenci,
  • twórcy i artyści;
  • instytucje sektora finansowego,
  • przedstawiciele ochrony zdrowia. 

Źródło: MC  

Wt., 14 Mj. 2024 0 Komentarzy Dodane przez: Małgorzata Orłowska