Dziennik Urzędowy
Unii Europejskiej
PL
Eiropas Savienības
Oficiālais Vēstnesis
LV
ROZPORZĄDZENIE PARLAMENTU EUROPEJSKIEGO I RADY (UE) 2024/1689
EIROPAS PARLAMENTA UN PADOMES REGULA (ES) 2024/1689
z dnia 13 czerwca 2024 r.
w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji)
ar ko nosaka saskaņotas normas mākslīgā intelekta jomā un groza Regulas (EK) Nr. 300/2008, (ES) Nr. 167/2013, (ES) Nr. 168/2013, (ES) 2018/858, (ES) 2018/1139 un (ES) 2019/2144 un Direktīvas 2014/90/ES, (ES) 2016/797 un (ES) 2020/1828 (Mākslīgā intelekta akts)
(Tekst mający znaczenie dla EOG)
(Dokuments attiecas uz EEZ)
PARLAMENT EUROPEJSKI I RADA UNII EUROPEJSKIEJ,
EIROPAS PARLAMENTS UN EIROPAS SAVIENĪBAS PADOME,
uwzględniając Traktat o funkcjonowaniu Unii Europejskiej, w szczególności jego art. 16 i 114,
ņemot vērā Līgumu par Eiropas Savienības darbību un jo īpaši tā 16. un 114. pantu,
uwzględniając wniosek Komisji Europejskiej,
ņemot vērā Eiropas Komisijas priekšlikumu,
po przekazaniu projektu aktu ustawodawczego parlamentom narodowym,
pēc leģislatīvā akta projekta nosūtīšanas valstu parlamentiem,
uwzględniając opinię Europejskiego Komitetu Ekonomiczno-Społecznego (1),
ņemot vērā Eiropas Ekonomikas un sociālo lietu komitejas atzinumu (1),
uwzględniając opinię Europejskiego Banku Centralnego (2),
ņemot vērā Eiropas Centrālās bankas atzinumu (2),
uwzględniając opinię Komitetu Regionów (3),
ņemot vērā Reģionu komitejas atzinumu (3),
stanowiąc zgodnie ze zwykłą procedurą ustawodawczą (4),
saskaņā ar parasto likumdošanas procedūru (4),
a także mając na uwadze, co następuje:
(1)
Celem niniejszego rozporządzenia jest poprawa funkcjonowania rynku wewnętrznego przez ustanowienie jednolitych ram prawnych, w szczególności w zakresie rozwoju, wprowadzania do obrotu, oddawania do użytku i wykorzystywania systemów sztucznej inteligencji (zwanych dalej „systemami AI”) w Unii, zgodnie z wartościami Unii, w celu promowania upowszechniania zorientowanej na człowieka i godnej zaufania sztucznej inteligencji (AI) przy jednoczesnym zapewnieniu wysokiego poziomu ochrony zdrowia, bezpieczeństwa, praw podstawowych zapisanych w Karcie praw podstawowych Unii Europejskiej (zwanej „Kartą”), w tym demokracji, praworządności i ochrony środowiska, ochrony przed szkodliwymi skutkami systemów AI w Unii, a także wspierania innowacji. Niniejsze rozporządzenie zapewnia swobodny transgraniczny przepływ towarów i usług opartych na AI, uniemożliwiając tym samym państwom członkowskim nakładanie ograniczeń na rozwój, wprowadzanie do obrotu i wykorzystywanie systemów AI, chyba że jest to wyraźnie dozwolone w niniejszym rozporządzeniu.
(1)
Šīs regulas mērķis ir uzlabot iekšējā tirgus darbību, nosakot vienotu tiesisko regulējumu, jo īpaši mākslīgā intelekta sistēmu (MI sistēmu) izstrādei, laišanai tirgū, nodošanai ekspluatācijā un lietošanai Savienībā saskaņā ar Savienības vērtībām, veicināt uz cilvēku orientēta un uzticama mākslīgā intelekta (MI) ieviešanu, vienlaikus nodrošinot augstu veselības, drošuma, Pamattiesību hartā (Harta) nostiprināto pamattiesību, tostarp demokrātijas un tiesiskuma, un vides aizsardzības līmeni, aizsargāt pret MI sistēmu radītām kaitīgām sekām Savienībā un atbalstīt inovāciju. Šī regula nodrošina uz MI bāzētu preču un pakalpojumu brīvu apriti pāri robežām, tādējādi nepieļaujot, ka dalībvalstis uzliek ierobežojumus MI sistēmu izstrādei, laišanai tirgū un lietošanai, ja vien šī regula tos nepārprotami neatļauj.
(2)
Niniejsze rozporządzenie należy stosować zgodnie z wartościami Unii zapisanymi w Karcie, ułatwiając ochronę osób fizycznych, przedsiębiorstw, demokracji, praworządności oraz ochronę środowiska, a jednocześnie pobudzając innowacje i zatrudnienie oraz czyniąc Unię liderem w upowszechnianiu godnej zaufania AI.
(2)
Šī regula būtu jāpiemēro saskaņā ar Hartā nostiprinātajām Savienības vērtībām, veicinot fizisku personu, uzņēmumu, demokrātijas, tiesiskuma un vides aizsardzību, vienlaikus veicinot inovāciju un nodarbinātību un padarot Savienību par līderi uzticama MI ieviešanā.
(3)
Systemy AI mogą być łatwo wdrażane w wielu różnych sektorach gospodarki i obszarach życia społecznego, w tym w wymiarze transgranicznym, i mogą w łatwy sposób być przedmiotem obrotu w całej Unii. Niektóre państwa członkowskie zastanawiają się już nad przyjęciem przepisów krajowych w celu zapewnienia, aby AI była godna zaufania i bezpieczna oraz rozwijana i wykorzystywana w sposób zgodny z obowiązkami wynikającymi z praw podstawowych. Zróżnicowane przepisy krajowe mogą prowadzić do rozdrobnienia rynku wewnętrznego i mogą zmniejszyć pewność prawa dla operatorów, którzy rozwijają, importują lub wykorzystują systemy AI. Aby zatem AI stałą się godna zaufania, należy zapewnić spójny i wysoki poziom ochrony w całej Unii poprzez ustanowienie jednolitych obowiązków dla operatorów i zagwarantowanie jednolitej ochrony nadrzędnego interesu publicznego i praw osób na całym rynku wewnętrznym na podstawie art. 114 Traktatu o funkcjonowaniu Unii Europejskiej (TFUE), zapobiegając jednocześnie rozbieżnościom, które utrudniają swobodny obrót systemami AI oraz powiązanymi produktami i usługami na rynku wewnętrznym, a także utrudniają innowacje w ich zakresie oraz ich wdrażanie i rozpowszechnianie. W zakresie, w jakim niniejsze rozporządzenie zawiera przepisy szczególne dotyczące ochrony osób fizycznych w związku z przetwarzaniem danych osobowych w odniesieniu do ograniczenia wykorzystywania systemów AI do zdalnej identyfikacji biometrycznej do celów ścigania przestępstw, ograniczenia wykorzystywania systemów AI do oceny ryzyka w odniesieniu do osób fizycznych do celów ścigania przestępstw i ograniczenia wykorzystywania systemów AI kategoryzacji biometrycznej do celów ścigania przestępstw, podstawą niniejszego rozporządzenia w zakresie takich przepisów szczególnych powinien być art. 16 TFUE. W świetle tych przepisów szczególnych i skorzystania z art. 16 TFUE należy skonsultować się z Europejską Radą Ochrony Danych.
(3)
MI sistēmas var viegli ieviest daudzos un dažādos ekonomikas sektoros un daudzās sabiedrības daļās, arī pāri robežām, un tās var būt apritē visā Savienībā. Dažas dalībvalstis jau ir izskatījušas iespēju pieņemt valsts līmeņa noteikumus ar mērķi nodrošināt to, ka MI ir uzticams un drošs un to izstrādā un izmanto saskaņā ar pienākumiem ievērot pamattiesības. Atšķirīgi valstu noteikumi var izraisīt iekšējā tirgus sadrumstalotību un mazināt juridisko noteiktību operatoriem, kuri izstrādā, importē vai izmanto MI sistēmas. Tāpēc visā Savienībā būtu jānodrošina konsekvents un augsts aizsardzības līmenis, lai panāktu uzticamu MI, turpretim atšķirības, kuras kavē MI sistēmu un saistīto produktu un pakalpojumu brīvu apriti, inovāciju, ieviešanu un izmantošanu iekšējā tirgū, būtu jānovērš, nosakot vienotus pienākumus operatoriem un garantējot sevišķi svarīgu sabiedrības interešu un personu tiesību vienotu aizsardzību visā iekšējā tirgū, pamatojoties uz Līguma par Eiropas Savienības darbību (LESD) 114. pantu. Ciktāl šī regula satur konkrētus noteikumus par indivīdu aizsardzību attiecībā uz personas datu apstrādi saistībā ar ierobežojumiem MI sistēmu lietošanā biometriskajai tālidentifikācijai tiesībaizsardzības nolūkos, MI sistēmu lietošanā fizisku personu radītā riska novērtējuma veikšanai tiesībaizsardzības nolūkos un biometriskās kategorizācijas MI sistēmu lietošanā tiesībaizsardzības nolūkos, ir piemēroti par šīs regulas pamatu, ciktāl tas attiecas uz minētajiem konkrētajiem noteikumiem, noteikt LESD 16. pantu. Ņemot vērā minētos konkrētos noteikumus un LESD 16. panta izmantošanu, ir lietderīgi apspriesties ar Eiropas Datu aizsardzības kolēģiju.
(4)
AI to szybko rozwijająca się grupa technologii, która przyczynia się do wielu różnych korzyści ekonomicznych, środowiskowych i społecznych we wszystkich gałęziach przemysłu i obszarach działalności społecznej. Ponieważ wykorzystywanie AI umożliwia lepsze prognozowanie, optymalizację operacji i przydzielania zasobów oraz personalizację rozwiązań cyfrowych dostępnych dla osób fizycznych i organizacji, może ono zapewnić przedsiębiorstwom kluczową przewagę konkurencyjną i wzmacniać korzyści społeczne i środowiskowe, na przykład w zakresie opieki zdrowotnej, rolnictwa, bezpieczeństwa żywności, kształcenia i szkolenia, mediów, sportu, kultury, zarządzania infrastrukturą, energetyki, transportu i logistyki, usług publicznych, bezpieczeństwa, wymiaru sprawiedliwości, zasobooszczędności i efektywności energetycznej, monitorowania środowiska, ochrony i odtwarzania różnorodności biologicznej i ekosystemów oraz łagodzenia zmiany klimatu i przystosowywania się do niej.
(4)
MI ir tehnoloģiju kopa, kas strauji attīstās un sniedz dažādus ieguvumus ekonomikai, videi un sabiedrībai visās nozarēs un sociālajās darbībās. Uzlabojot prognozēšanu, optimizējot darbības un resursu piešķiršanu un personalizējot indivīdiem un organizācijām pieejamos digitālos risinājumus, MI lietošana var nodrošināt būtiskas konkurences priekšrocības uzņēmumiem un sekmēt sabiedrībai un videi labvēlīgus rezultātus, piemēram, veselības aprūpē, lauksaimniecībā, pārtikas nekaitīguma nodrošināšanā, izglītībā un mācībās, mediju, sporta un kultūras jomā, infrastruktūras apsaimniekošanā, enerģētikā, transportā un loģistikā, sabiedriskajos pakalpojumos, drošībā, tieslietās, resursefektivitātē un energoefektivitātē, vides monitoringā, biodaudzveidības un ekosistēmu saglabāšanā un atjaunošanā un klimata pārmaiņu mazināšanas un pielāgošanās tām jomā.
(5)
Jednocześnie AI może stwarzać zagrożenia i wyrządzać szkody dla interesu publicznego i praw podstawowych chronionych przepisami prawa Unii, w zależności od okoliczności jej konkretnego zastosowania, wykorzystania oraz od poziomu rozwoju technologicznego. Szkody te mogą być materialne lub niematerialne, w tym fizyczne, psychiczne, społeczne lub ekonomiczne.
(5)
Tajā pašā laikā atkarībā no MI konkrētā lietojuma apstākļiem, izmantošanas un tehnoloģiskās attīstības pakāpes, tas var radīt riskus un nodarīt kaitējumu sabiedrības interesēm un pamattiesībām, kuras aizsargā Savienības tiesību akti. Šāds kaitējums var būt materiāls vai nemateriāls, tostarp fizisks, psiholoģisks, sabiedrisks vai ekonomisks.
(6)
Biorąc pod uwagę istotny wpływ, jaki AI może mieć na społeczeństwo, oraz potrzebę budowania zaufania, AI i jej ramy regulacyjne należy rozwijać zgodnie z wartościami Unii zapisanymi w art. 2 Traktatu o Unii Europejskiej (TUE), podstawowymi prawami i wolnościami zapisanymi w traktatach oraz, zgodnie z art. 6 TUE – w Karcie. Warunkiem wstępnym jest to, by AI była technologią zorientowaną na człowieka. Powinna ona służyć jako narzędzie dla ludzi, którego ostatecznym celem jest zwiększenie dobrostanu człowieka.
(6)
Ņemot vērā MI potenciālo lielo ietekmi uz sabiedrību un nepieciešamību veidot uzticēšanos, ir būtiski, lai MI un tā tiesiskais regulējums tiktu izstrādāts saskaņā ar Savienības vērtībām, kas nostiprinātas Līguma par Eiropas Savienību (LES) 2. pantā, un Līgumos nostiprinātajām pamattiesībām un brīvībām un, ievērojot LESD 6. pantu – Hartā. Priekšnosacījums tam – MI vajadzētu būt uz cilvēku orientētai tehnoloģijai. Tai vajadzētu būt cilvēkiem domātam instrumentam, kura galvenais mērķis ir vairot cilvēku labklājību.
(7)
W celu zapewnienia spójnego i wysokiego poziomu ochrony interesów publicznych w dziedzinie zdrowia, bezpieczeństwa i praw podstawowych należy ustanowić wspólne przepisy dotyczące systemów AI wysokiego ryzyka. Przepisy te powinny być zgodne z Kartą, niedyskryminacyjne i zgodne z międzynarodowymi zobowiązaniami handlowymi Unii. Przepisy te powinny również uwzględniać Europejską deklarację praw i zasad cyfrowych w cyfrowej dekadzie oraz Wytyczne w zakresie etyki dotyczące godnej zaufania AI grupy ekspertów wysokiego szczebla ds. AI.
(7)
Lai nodrošinātu konsekventu un augstu sabiedrības interešu aizsardzības līmeni attiecībā uz veselību, drošību un pamattiesībām, būtu jāizveido kopīgi noteikumi augsta riska MI sistēmām. Minētajiem noteikumiem būtu jāsaskan ar Hartu un jābūt nediskriminējošiem un saskaņā ar Savienības starptautiskās tirdzniecības saistībām. Tajos būtu jāņem vērā arī Eiropas deklarācija par digitālajām tiesībām un principiem digitālajai desmitgadei un Mākslīgā intelekta augsta līmeņa ekspertu grupas (AI HLEG) Ētikas vadlīnijas uzticamam mākslīgajam intelektam.
(8)
Unijne ramy prawne określające zharmonizowane przepisy dotyczące AI są zatem niezbędne, by wspierać rozwój, wykorzystywanie i upowszechnianie AI na rynku wewnętrznym, przy jednoczesnym zapewnieniu wysokiego poziomu ochrony interesów publicznych, takich jak zdrowie i bezpieczeństwo oraz ochrona praw podstawowych, w tym demokracji, praworządności i ochrony środowiska, uznanych i chronionych przez prawo Unii. Aby osiągnąć ten cel, należy ustanowić przepisy regulujące wprowadzanie do obrotu, oddawanie do użytku i wykorzystywanie niektórych systemów AI, zapewniając w ten sposób sprawne funkcjonowanie rynku wewnętrznego i obejmując te systemy zasadą swobodnego przepływu towarów i usług. Przepisy te powinny być jasne i solidne, aby chronić prawa podstawowe, sprzyjać nowym innowacyjnym rozwiązaniom, umożliwiać tworzenie europejskiego ekosystemu podmiotów publicznych i prywatnych tworzących systemy AI zgodnie z wartościami Unii oraz pozwalać realizować potencjał transformacji cyfrowej we wszystkich regionach Unii. Ustanawiając te przepisy, a także środki wspierające innowacje, ze szczególnym uwzględnieniem małych i średnich przedsiębiorstw (MŚP), w tym przedsiębiorstw typu start-up, niniejsze rozporządzenie wspiera realizację celu, jakim jest promowanie europejskiego zorientowanego na człowieka podejścia do AI i znalezienie się przez Unię w światowej czołówce, jeśli chodzi o rozwój bezpiecznej, godnej zaufania i etycznej AI, zgodnie z konkluzjami Rady Europejskiej (5), oraz zapewnia ochronę zasad etycznych, zgodnie z wyraźnym wnioskiem Parlamentu Europejskiego (6).
(8)
Tāpēc ir nepieciešams Savienības tiesiskais regulējums, kas nosaka saskaņotus noteikumus MI jomā ar mērķi veicināt MI izstrādi, ieviešanu un izmantošanu iekšējā tirgū, kas vienlaikus nodrošina augstu aizsardzības līmeni tādām sabiedrības interesēm kā veselība un drošība, un pamattiesību aizsardzība, tostarp demokrātija, tiesiskums un vides aizsardzība, kā tas atzīts un aizsargāts Savienības tiesību aktos. Lai sasniegtu minēto mērķi, būtu jānosaka noteikumi par dažu MI sistēmu laišanu tirgū, nodošanu ekspluatācijā un lietošanu, tādējādi nodrošinot netraucētu iekšējā tirgus darbību un ļaujot saistībā ar minētajām sistēmām izmantot preču un pakalpojumu brīvas aprites principa radītos ieguvumus. Minētajiem noteikumiem vajadzētu būt skaidriem un stingriem, lai aizsargātu pamattiesības, atbalstītu jaunus novatoriskus risinājumus, nodrošinātu Eiropas ekosistēmu publiskā un privātā sektora dalībniekiem, kas izstrādā MI sistēmas saskaņā ar Savienības vērtībām, un atraisītu digitālās pārveides potenciālu visos Savienības reģionos. Paredzot minētos noteikumus, kā arī pasākumus inovācijas atbalstam, īpašu uzmanību pievēršot maziem un vidējiem uzņēmumiem (MVU), tostarp jaunuzņēmumiem, šī regula atbalsta Eiropadomes (5) nosprausto Savienības mērķi – veicināt uz cilvēku orientētu pieeju MI un būt pasaules līderei droša, uzticama un ētiska mākslīgā intelekta attīstīšanā, kā arī tā nodrošina ētikas principu aizsardzību, kā to īpaši lūdzis Eiropas Parlaments (6).
(9)
Zharmonizowane przepisy mające zastosowanie do wprowadzania do obrotu, oddawania do użytku i wykorzystywania systemów AI wysokiego ryzyka należy ustanowić zgodnie z rozporządzeniem Parlamentu Europejskiego i Rady (WE) nr 765/2008 (7), decyzją Parlamentu Europejskiego i Rady nr 768/2008/WE (8) oraz rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2019/1020 (9) (zwanymi dalej „nowymi ramami prawnymi”). Zharmonizowane przepisy ustanowione w niniejszym rozporządzeniu powinny mieć zastosowanie we wszystkich sektorach i – zgodnie z nowymi ramami prawnymi – powinny pozostawać bez uszczerbku dla obowiązującego prawa Unii, w szczególności w zakresie ochrony danych, ochrony konsumentów, praw podstawowych, zatrudnienia i ochrony pracowników oraz bezpieczeństwa produktów, wobec którego to prawa niniejsze rozporządzenie ma charakter uzupełniający. W związku z tym wszystkie prawa i środki ochrony prawnej przysługujące na mocy prawa Unii konsumentom i innym osobom, na które systemy AI mogą mieć negatywny wpływ, w tym w odniesieniu do odszkodowania za ewentualne szkody zgodnie z dyrektywą Rady 85/374/EWG (10), pozostają nienaruszone i mają pełne zastosowanie. Ponadto w kontekście zatrudnienia i ochrony pracowników niniejsze rozporządzenie nie powinno zatem mieć wpływu na prawo Unii w dziedzinie polityki społecznej oraz na krajowe prawo pracy zgodne z prawem Unii dotyczące warunków zatrudnienia i pracy, w tym bezpieczeństwa i higieny pracy, oraz stosunków między pracodawcami a pracownikami. Niniejsze rozporządzenie nie powinno mieć też wpływu na korzystanie z praw podstawowych uznanych w państwach członkowskich i na poziomie Unii, w tym z prawa do strajku czy swobody prowadzenia strajku lub innych działań objętych szczególnymi systemami stosunków pracy w państwach członkowskich, ani na korzystanie z prawa do negocjowania, zawierania i egzekwowania układów zbiorowych lub podejmowania działań zbiorowych zgodnie z prawem krajowym. Niniejsze rozporządzenie nie powinno mieć wpływu na przepisy mające na celu poprawę warunków pracy świadczonej za pośrednictwem platform internetowych ustanowione w dyrektywie Parlamentu Europejskiego i Rady w sprawie poprawy warunków pracy za pośrednictwem platform internetowych. Ponadto niniejsze rozporządzenie ma na celu zwiększenie skuteczności takich istniejących praw i środków ochrony prawnej poprzez ustanowienie szczególnych wymogów i obowiązków, w tym w zakresie przejrzystości, dokumentacji technicznej i rejestrowania zdarzeń w ramach systemów AI. Co więcej obowiązki nałożone na mocy niniejszego rozporządzenia na różnych operatorów uczestniczących w łańcuchu wartości AI powinny mieć zastosowanie bez uszczerbku dla prawa krajowego zgodnego z prawem Unii, skutkującego ograniczeniem wykorzystania określonych systemów AI, gdy prawo to nie wchodzi w zakres stosowania niniejszego rozporządzenia lub służy uzasadnionym celom interesu publicznego innym niż cele niniejszego rozporządzenia. Na przykład niniejsze rozporządzenie nie powinno mieć wpływu na krajowe prawo pracy i przepisy dotyczące ochrony małoletnich, tj. osób poniżej 18. roku życia, uwzględniające komentarz ogólny nr 25 z 2021 r. w sprawie praw dziecka w środowisku cyfrowym zamieszczony w Konwencji ONZ o prawach dziecka, w zakresie w jakim prawo to i te przepisy nie dotyczą konkretnie systemów AI i służą innym uzasadnionym celom interesu publicznego.
(9)
Augsta riska MI sistēmu laišanai tirdzniecībā, nodošanai ekspluatācijā un lietošanai piemērojamie saskaņotie noteikumi būtu jānosaka saskaņā ar Eiropas Parlamenta un Padomes Regulu (EK) Nr. 765/2008 (7), Eiropas Parlamenta un Padomes Lēmumu Nr. 768/2008/EK (8) un Eiropas Parlamenta un Padomes Regulu (ES) 2019/1020 (9) (“Jaunais tiesiskais regulējums”). Šīs regulas saskaņotie noteikumi būtu jāpiemēro visos sektoros un saskaņā ar Jauno tiesisko regulējumu un tiem nebūtu jāskar spēkā esošie Savienības tiesību akti, jo īpaši tie akti datu aizsardzības, patērētāju aizsardzības, pamattiesību, nodarbinātības, darba ņēmēju aizsardzības un produktu drošības jomā, kurus šī regula papildina. Tādējādi netiek skartas un ir pilnībā piemērojamas visas tiesības un tiesiskās aizsardzības līdzekļi, kas šajos Savienības tiesību aktos paredzēti patērētājiem un citām personām, kuras MI sistēmas var nelabvēlīgi ietekmēt, tostarp tas attiecas uz iespējamo zaudējumu atlīdzināšanu, ievērojot Padomes Direktīvu 85/374/EEK (10). Turklāt saskaņā ar Savienības tiesību aktiem – saistībā ar nodarbinātību un darba ņēmēju aizsardzību šai regulai nevajadzētu ietekmēt Savienības tiesību aktus sociālās politikas jomā un valstu darba tiesības, kas skar nodarbinātības apstākļus, darba apstākļus, tostarp veselību un drošību darbā, un attiecības starp darba devējiem un darba ņēmējiem. Šai regulai arī nevajadzētu ietekmēt dalībvalstīs un Savienības līmenī atzīto pamattiesību īstenošanu, tostarp tiesības vai brīvību streikot vai veikt citu rīcību, kas paredzēta konkrētajās dalībvalstu darba attiecību sistēmās, kā arī tiesības apspriest, noslēgt un izpildīt koplīgumus vai kolektīvi rīkoties saskaņā ar valsts tiesību aktiem. Šai regulai nebūtu jāietekmē Eiropas Parlamenta un Padomes Direktīvā par darba nosacījumu uzlabošanu platformu darbā paredzētie noteikumi, kuru mērķis ir uzlabot darba apstākļus platformu darbā. Papildus tam šīs regulas mērķis ir stiprināt šādu esošo tiesību un tiesiskās aizsardzības līdzekļu efektivitāti, nosakot konkrētas prasības un pienākumus, tostarp attiecībā uz MI sistēmu pārredzamību, tehnisko dokumentāciju un uzskaiti. Turklāt pienākumi, kas šajā regulā paredzēti dažādiem operatoriem, kuri iesaistīti MI vērtības ķēdē, būtu jāpiemēro, neskarot valstu tiesību aktus, atbilstoši Savienības tiesību aktiem, ar ierobežojošu ietekmi uz dažu MI sistēmu lietošanu, ja šādi tiesību akti neietilpst šīs regulas darbības jomā vai tiem ir leģitīmi sabiedrības interešu mērķi, kas nav šīs regulas mērķi. Piemēram, šai regulai nebūtu jāietekmē valsts darba tiesības un tiesību akti par nepilngadīgo, proti, personu, kas jaunākas par 18 gadiem, aizsardzību, ņemot vērā ANO Vispārējo komentāru Nr. 25 (2021) par bērnu tiesībām saistībā ar digitālo vidi, ciktāl tie konkrēti neattiecas uz MI sistēmām un tiem ir citi leģitīmi sabiedrības interešu mērķi.
(10)
Podstawowe prawo do ochrony danych osobowych jest gwarantowane w szczególności przez rozporządzenia Parlamentu Europejskiego i Rady (UE) 2016/679 (11) i (UE) 2018/1725 (12) oraz dyrektywę Parlamentu Europejskiego i Rady (UE) 2016/680 (13). Dyrektywa Parlamentu Europejskiego i Rady 2002/58/WE (14) dodatkowo chroni życie prywatne i poufność komunikacji, w tym określając warunki dotyczące przechowywania danych osobowych i nieosobowych w urządzeniach końcowych oraz warunki uzyskiwania dostępu do tych danych z urządzeń końcowych. Te unijne akty prawne stanowią podstawę zrównoważonego i odpowiedzialnego przetwarzania danych, w tym w przypadku gdy zbiory danych zawierają połączenie danych osobowych i nieosobowych. Celem niniejszego rozporządzenia nie jest wpływanie na stosowanie obowiązującego prawa Unii regulującego przetwarzanie danych osobowych, w tym na zadania i uprawnienia niezależnych organów nadzoru właściwych do monitorowania zgodności z tymi instrumentami. W zakresie, w jakim projektowanie, rozwój lub wykorzystywanie systemów AI wiąże się z przetwarzaniem danych osobowych, niniejsze rozporządzenie nie wpływa też na wynikające z prawa Unii lub prawa krajowego obowiązki w dziedzinie ochrony danych osobowych spoczywające na dostawcach i podmiotach stosujących systemy AI, którzy pełnią funkcję administratorów danych lub podmiotów przetwarzających. Należy również wyjaśnić, że osoby, których dane dotyczą, zachowują wszystkie prawa i gwarancje przyznane im na mocy takiego prawa Unii, w tym prawa związane z całkowicie zautomatyzowanym podejmowaniem decyzji w indywidualnych sprawach, w tym z profilowaniem. Ustanowione w niniejszym rozporządzeniu zharmonizowane przepisy dotyczące wprowadzania do obrotu, oddawania do użytku i wykorzystywania systemów AI powinny ułatwiać skuteczne wdrażanie i umożliwiać korzystanie przez osoby, których dane dotyczą, z praw i innych środków ochrony prawnej zagwarantowanych na podstawie prawa Unii dotyczącego ochrony danych osobowych i innych praw podstawowych.
(10)
Pamattiesības uz personas datu aizsardzību ir aizsargātas jo īpaši ar Eiropas Parlamenta un Padomes Regulām (ES) 2016/679 (11) un (ES) 2018/1725 (12) un Eiropas Parlamenta un Padomes Direktīvu (ES) 2016/680 (13). Papildus Eiropas Parlamenta un Padomes Direktīva 2002/58/EK (14) aizsargā privāto dzīvi un saziņas konfidencialitāti, tostarp, paredzot nosacījumus personas datu un nepersondatu glabāšanai galiekārtās un piekļuvei tiem no galiekārtām. Minētie Savienības tiesību akti nodrošina pamatu ilgtspējīgai un atbildīgai datu apstrādei, arī gadījumos, kad datu kopās ir gan personas dati, gan nepersondati. Šīs regulas mērķis nav ietekmēt to spēkā esošo Savienības tiesību aktu piemērošanu, kas reglamentē personas datu apstrādi, tostarp to neatkarīgo uzraudzības iestāžu uzdevumus un pilnvaras, kas ir kompetentas uzraudzīt atbilstību minētajiem instrumentiem. Tā arī neietekmē MI sistēmu nodrošinātāju un uzturētāju – kā datu pārziņu vai apstrādātāju – pienākumus, kas izriet no Savienības vai valsts tiesību aktiem par personas datu aizsardzību, ciktāl MI sistēmu projektēšana, izstrāde vai lietošana ietver personas datu apstrādi. Ir lietderīgi arī precizēt, ka datu subjektiem joprojām ir visas tiesības un garantijas, kas tiem piešķirtas ar šādiem Savienības tiesību aktiem, tostarp tiesības, kas saistītas tikai ar automatizētu individuālu lēmumu pieņemšanu, tostarp profilēšanu. Saskaņotiem noteikumiem par MI sistēmu laišanu tirgū, nodošanu ekspluatācijā un lietošanu, kas paredzēti šajā regulā, būtu jāveicina efektīva īstenošana un jādara iespējama datu subjektu tiesību un citu tiesiskās aizsardzības līdzekļu, kas garantēti Savienības tiesību aktos par personas datu un citu pamattiesību aizsardzību, izmantošana.
(11)
Niniejsze rozporządzenie powinno pozostawać bez uszczerbku dla przepisów dotyczących odpowiedzialności dostawców usług pośrednich, określonych w rozporządzeniu Parlamentu Europejskiego i Rady (UE) 2022/2065 (15).
(11)
Šai regulai nevajadzētu skart noteikumus par starpnieku pakalpojumu sniedzēju atbildību, kā noteikts Eiropas Parlamenta un Padomes Regulā (ES) 2022/2065 (15).
(12)
Pojęcie „systemu AI” w niniejszym rozporządzeniu powinno być jasno zdefiniowane i ściśle powiązane z pracami organizacji międzynarodowych zajmujących się AI, aby zapewnić pewność prawa, ułatwiać międzynarodową konwergencję i szeroką akceptację, przy jednoczesnym zapewnieniu swobody umożliwiającej dostosowanie się do szybkiego rozwoju technologicznego w tej dziedzinie. Ponadto pojęcie to powinno opierać się na kluczowych cechach systemów AI, które odróżniają je od prostszych tradycyjnych systemów oprogramowania lub założeń programistycznych, i nie powinno obejmować systemów opartych na zasadach określonych wyłącznie przez osoby fizyczne w celu automatycznego wykonywania operacji. Jedną z kluczowych cech systemów AI jest ich zdolność do wnioskowania. Ta zdolność do wnioskowania odnosi się do procesu uzyskiwania wyników, takich jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne i wirtualne, oraz do zdolności systemów AI do tworzenia modeli lub algorytmów na podstawie informacji wejściowych lub danych. Techniki, które umożliwiają wnioskowanie podczas tworzenia systemu AI, obejmują mechanizmy uczenia maszynowego, które na podstawie danych uczą się, jak osiągnąć określone cele, oraz podejścia oparte na logice i wiedzy, które polegają na wnioskowaniu na podstawie zakodowanej wiedzy lub symbolicznego przedstawienia zadania, które należy rozwiązać. Zdolność systemu AI do wnioskowania wykracza poza podstawowe przetwarzanie danych w wyniku umożliwiania uczenia się, rozumowania lub modelowania. Termin „maszynowy” odnosi się do faktu, że systemy AI działają z wykorzystaniem maszyn. Odniesienie do wyraźnych lub dorozumianych celów podkreśla, że systemy AI mogą działać według jasno określonych lub dorozumianych celów. Cele systemu AI mogą różnić się od przeznaczenia systemu AI w określonym kontekście. Na potrzeby niniejszego rozporządzenia środowiska należy rozumieć jako konteksty, w których działają systemy AI, natomiast wyniki generowane przez system AI odzwierciedlają różne funkcje wykonywane przez systemy AI i obejmują predykcje, treści, zalecenia lub decyzje. Systemy AI są zaprojektowane tak, aby działały z różnym poziomem autonomii, co oznacza, że są w pewnym stopniu niezależne od zaangażowania ze strony człowieka i zdolne do działania bez interwencji człowieka. Zdolność adaptacji, jaką system AI może wykazać po jego wdrożeniu, odnosi się do zdolności do samouczenia się, która umożliwia zmianę systemu w czasie jego wykorzystywania. Systemy AI mogą być wykorzystywane jako samodzielne rozwiązania lub jako element produktu, niezależnie od tego, czy system jest fizycznie zintegrowany z produktem (wbudowany), czy też służy realizacji funkcji produktu, choć nie jest z nim zintegrowany (niewbudowany).
(12)
“MI sistēmas” jēdziens šajā regulā būtu skaidri jādefinē un cieši jāsaskaņo ar MI jomas starptautisko organizāciju darbu, lai nodrošinātu juridisko noteiktību, veicinātu starptautisko konverģenci un plašu atzīšanu, vienlaikus nodrošinot elastību, kas vajadzīga, lai pielāgotos tehnoloģiju straujajai attīstībai šajā jomā. Turklāt definīcijas pamatā vajadzētu būt MI sistēmu galvenajām iezīmēm, kas to atšķir no vienkāršākām tradicionālajām programmatūras sistēmām vai programmēšanas pieejām, un tam nebūtu jāattiecas uz sistēmām, kuru pamatā ir tikai fizisku personu definēti noteikumi darbību automātiskai izpildei. MI sistēmu galvenā iezīme ir to spēja izdarīt secinājumus. Šī spēja secināt attiecas uz tādu iznākumu iegūšanas procesu kā prognozes, saturs, ieteikumi vai lēmumi, kas var ietekmēt fizisko un virtuālo vidi, un MI sistēmu spēju atvasināt modeļus vai algoritmus, vai abus, no ievaddatiem vai datiem. Paņēmieni, kas ļauj izdarīt secinājumus, veidojot MI sistēmu, ietver mašīnmācīšanās pieejas, kas mācās no datiem, kā sasniegt konkrētus mērķus, un uz loģiku un zināšanām balstītas pieejas, kas no kodētām zināšanām vai risināmā uzdevuma simboliska atspoguļojuma izdara secinājumus. MI sistēmas spēja izsecināt pārsniedz vienkāršu datu apstrādi, nodrošinot mācīšanās, spriešanas un modelēšanas procesus. Termins “mašinizēta” nozīmē to, ka MI sistēmas darbina mašīnas. Atsauce uz eksplicītiem vai implicītiem mērķiem uzsver, ka MI sistēmas var darboties saskaņā ar eksplicīti noteiktiem mērķiem vai implicītiem mērķiem. MI sistēmas mērķi konkrētā kontekstā var atšķirties no MI sistēmas paredzētā nolūka. Šajā regulā vide būtu jāsaprot kā konteksts, kurā MI sistēmas darbojas, savukārt MI sistēmas radītie iznākumi atspoguļo dažādas funkcijas, ko veic MI sistēmas, un ietver prognozes, saturu, ieteikumus vai lēmumus. MI sistēmas ir projektētas darbībai dažādās autonomijas pakāpēs, kas nozīmē, ka tās zināmā mērā darbojas neatkarīgi no cilvēka iesaistīšanās un spēj darboties bez cilvēka iejaukšanās. Pielāgošanās spēja, kāda MI sistēmai varētu būt pēc ieviešanas, attiecas uz pašmācīšanās spējām, kas ļauj sistēmai mainīties lietošanas laikā. MI sistēmas var izmantot kā savrupas sistēmas vai kā produkta sastāvdaļu neatkarīgi no tā, vai sistēma ir fiziski integrēta produktā (iegulta) vai nodrošina produktam funkcionalitāti, nebūdama tajā integrēta (neiegulta).
(13)
Pojęcie „podmiotu stosującego”, o którym mowa w niniejszym rozporządzeniu, należy interpretować jako osobę fizyczną lub prawną, w tym organ publiczny, agencję lub inny podmiot, która wykorzystuje system AI, nad którym sprawuje kontrolę, oprócz przypadków gdy wykorzystywanie systemu AI odbywa się w ramach osobistej działalności pozazawodowej. W zależności od rodzaju systemu AI korzystanie z takiego systemu może mieć wpływ na osoby inne niż podmiot stosujący.
(13)
Šajā regulā minētais jēdziens “uzturētājs” būtu jāinterpretē kā jebkura fiziska vai juridiska persona, tostarp publiskā sektora iestāde, aģentūra vai cita struktūra, kura lieto MI sistēmu, kas ir tās pārziņā, izņemot gadījumus, kad MI sistēmu lieto personiskas neprofesionālas darbības veikšanai. Atkarībā no MI sistēmas veida sistēmas lietošana var ietekmēt personas, kas nav uzturētājs.
(14)
Pojęcie „danych biometrycznych” stosowane w niniejszym rozporządzeniu należy interpretować w świetle pojęcia danych biometrycznych zdefiniowanego w art. 4 pkt 14 rozporządzenia (UE) 2016/679, art. 3 pkt 18 rozporządzenia (UE) 2018/1725 i art. 3 pkt 13 dyrektywy (UE) 2016/680. Dane biometryczne mogą umożliwiać uwierzytelnianie, identyfikację lub kategoryzację osób fizycznych oraz rozpoznawanie emocji osób fizycznych.
(14)
Šajā regulā izmantotais jēdziens “biometriskie dati” būtu jāinterpretē, ņemot vērā biometrisko datu jēdzienu, kā definēts Regulas (ES) 2016/679 4. panta 14. punktā, Regulas (ES) 2018/1725 3. panta 18. punktā un Direktīvas (ES) 2016/680 3. panta 13. punktā. Biometriskie dati var ļaut autentificēt, identificēt vai kategorizēt fiziskas personas un atpazīt fizisku personu emocijas.
(15)
Pojęcie „identyfikacji biometrycznej”, o którym mowa w niniejszym rozporządzeniu, należy zdefiniować jako zautomatyzowane rozpoznawanie fizycznych, fizjologicznych i behawioralnych cech człowieka, takich jak twarz, ruch gałek ocznych, kształt ciała, głos, właściwości mowy, chód, postawa, tętno, ciśnienie krwi, zapach, sposób pisania na klawiaturze, w celu ustalenia tożsamości osoby fizycznej przez porównanie danych biometrycznych tej osoby z przechowywanymi w referencyjnej bazie danych danymi biometrycznymi osób fizycznych, niezależnie od tego, czy osoba ta wyraziła na to zgodę. Do tej kategorii nie należą systemy AI przeznaczone do weryfikacji biometrycznej, która obejmuje uwierzytelnianie, prowadzonej jedynie w celu potwierdzenia, że dana osoba fizyczna jest osobą, za którą się podaje, oraz potwierdzenia tożsamości osoby fizycznej wyłącznie w celu uzyskania dostępu do usługi, uruchomienia urządzenia lub uzyskania bezpiecznego dostępu do pomieszczeń.
(15)
Šajā regulā minētais jēdziens “biometriskā identifikācija” būtu jādefinē kā cilvēka fizisko, fizioloģisko un uzvedības īpašību, piemēram, sejas, acu kustību, ķermeņa formas, balss, prosodijas, gaitas, stājas, sirdsdarbības ātruma, asinsspiediena, smaržas, taustiņsitienu raksturlielumu, automātiska atpazīšana, lai konstatētu personas identitāti, salīdzinot šīs personas biometriskos datus ar atsauces datubāzē glabātiem personu biometriskajiem datiem, neatkarīgi no tā, vai persona ir devusi piekrišanu vai nav. Tas izslēdz MI sistēmas, kuras paredzēts izmantot biometriskajai verifikācijai, kas ietver autentifikāciju, kuras vienīgais nolūks ir apstiprināt, ka konkrēta fiziska persona ir persona, par ko tā uzdodas, un apstiprināt fiziskas personas identitāti vienīgi nolūkā piekļūt pakalpojumam, atbloķēt ierīci vai iegūt drošības piekļuvi telpām.
(16)
Pojęcie „kategoryzacji biometrycznej”, o którym mowa w niniejszym rozporządzeniu, należy zdefiniować jako przypisywanie osób fizycznych do określonych kategorii na podstawie danych biometrycznych tych osób. Takie szczególne kategorie mogą odnosić się do takich aspektów jak płeć, wiek, kolor włosów, kolor oczu, tatuaże, cechy behawioralne bądź osobowości, język, religia, przynależność do mniejszości narodowej, orientacja seksualna lub poglądy polityczne. Nie obejmuje to systemów kategoryzacji biometrycznej, które pełnią jedynie funkcję pomocniczą nieodłącznie związaną z inną usługą komercyjną, co oznacza, że z obiektywnych względów technicznych funkcja ta nie może być wykorzystywana bez usługi głównej, a włączenie takiej funkcji lub funkcjonalności nie jest sposobem na obejście stosowania przepisów niniejszego rozporządzenia. Przykładem pełnienia takiej funkcji pomocniczej mogą być filtry klasyfikujące cechy twarzy lub ciała wykorzystywane na internetowych platformach handlowych, ponieważ można je stosować wyłącznie w powiązaniu z usługą główną, która polega na sprzedaży produktu przy jednoczesnym umożliwieniu konsumentowi uzyskania wyobrażenia, jak produkt będzie się na nim prezentował, aby pomóc mu w podjęciu decyzji o zakupie. Filtry stosowane w internetowych serwisach społecznościowych, które kategoryzują cechy twarzy lub ciała, aby umożliwić użytkownikom dodawanie lub modyfikowanie zdjęć lub filmów wideo, można również uznać za funkcję pomocniczą, ponieważ filtry takie nie mogą być stosowane bez usługi głównej polegającej na udostępnianiu treści online w ramach serwisu społecznościowego.
(16)
Šajā regulā minētais jēdziens “biometriskā kategorizācija” būtu jādefinē kā fizisku personu iedalīšana konkrētās kategorijās, pamatojoties uz viņu biometriskajiem datiem. Šādas konkrētas kategorijas var būt saistītas ar tādiem aspektiem kā dzimums, vecums, matu krāsa, acu krāsa, tetovējumi, personības iezīmes, valoda, reliģija, piederība nacionālajai minoritātei, seksuālā vai politiskā orientācija. Tas neietver biometriskās kategorizācijas sistēmas, kas ir tikai papildfunkcija, kura ir cieši saistīta ar citu komercpakalpojumu, proti, tas nozīmē, ka objektīvu tehnisku iemeslu dēļ šo funkciju nevar izmantot bez galvenā pakalpojuma, un šīs funkcijas vai funkcionalitātes integrēšana nav līdzeklis, lai apietu šīs regulas noteikumu piemērojamību. Piemēram, filtri, kas kategorizē sejas vai ķermeņa iezīmes un ko izmanto tiešsaistes tirdzniecības vietās, varētu būt šāda papildfunkcija, jo tos var izmantot tikai saistībā ar galveno pakalpojumu – produkta pārdošanu –, dodot patērētājam iespēju pašam redzēt produkta attēlojumu un palīdzot viņam pieņemt lēmumu par pirkumu. Par palīgfunkcijām varētu uzskatīt arī filtrus, ko izmanto tiešsaistes sociālo tīklu pakalpojumos, kuri kategorizē sejas vai ķermeņa iezīmes, lai lietotāji varētu pievienot vai pārveidot attēlus vai videomateriālus, jo šādu filtru nevar izmantot bez sociālā tīkla pakalpojumu galvenā pakalpojuma, kas ietver satura kopīgošanu tiešsaistē.
(17)
Pojęcie „systemu zdalnej identyfikacji biometrycznej”, o którym mowa w niniejszym rozporządzeniu, należy zdefiniować funkcjonalnie jako system AI służący do identyfikacji osób fizycznych bez aktywnego udziału tych osób, co do zasady na odległość, poprzez porównanie danych biometrycznych danej osoby z danymi biometrycznymi zawartymi w referencyjnej bazie danych, niezależnie od konkretnej stosowanej technologii oraz konkretnych wykorzystywanych procesów lub rodzajów danych biometrycznych. Takie systemy zdalnej identyfikacji biometrycznej są zwykle wykorzystywane do jednoczesnego obserwowania wielu osób lub ich zachowania w celu znacznego ułatwienia identyfikacji osób fizycznych bez ich aktywnego udziału. Do tej kategorii nie należą systemy AI przeznaczone do weryfikacji biometrycznej, która obejmuje uwierzytelnianie, prowadzonej jedynie w celu potwierdzenia, że dana osoba fizyczna jest osobą, za którą się podaje, oraz potwierdzenia tożsamości osoby fizycznej wyłącznie w celu uzyskania dostępu do usługi, uruchomienia urządzenia lub uzyskania bezpiecznego dostępu do pomieszczeń. Wyłączenie to jest uzasadnione faktem, że takie systemy w niewielkim stopniu mogą wpływać na prawa podstawowe osób fizycznych w porównaniu z systemami zdalnej identyfikacji biometrycznej, które mogą być wykorzystywane do przetwarzania danych biometrycznych dużej liczby osób bez ich aktywnego udziału. W przypadku systemów działających „w czasie rzeczywistym” zbieranie danych biometrycznych, porównanie i identyfikacja następują natychmiast, niemal natychmiast lub w każdym razie bez znacznego opóźnienia. W związku z tym nie powinno być możliwości obchodzenia przepisów niniejszego rozporządzenia dotyczących stosowania systemów AI „w czasie rzeczywistym” poprzez wprowadzanie niewielkich opóźnień. Systemy identyfikacji „w czasie rzeczywistym” obejmują wykorzystanie materiału rejestrowanego „na żywo” lub „niemal na żywo”, takiego jak materiał wideo generowany przez kamerę lub inne urządzenie o podobnej funkcjonalności. Natomiast w przypadku systemów identyfikacji post factum dane biometryczne zostały już zebrane, a porównanie i identyfikacja następują ze znacznym opóźnieniem. Dotyczy to materiałów, takich jak zdjęcia lub materiały wideo generowane przez kamery telewizji przemysłowej lub urządzenia prywatne, które to materiały zostały wygenerowane, zanim użyto systemu identyfikacji w stosunku do danej osoby fizycznej.
(17)
Šajā regulā minētais jēdziens “biometriskā tālidentifikācija sistēma” būtu jādefinē funkcionāli kā MI sistēma, kas paredzēta fizisku personu identifikācijai bez to aktīvas iesaistīšanas, parasti no attāluma, salīdzinot personas biometriskos datus ar atsauces datubāzē esošajiem biometriskajiem datiem, neatkarīgi no konkrētās izmantotās tehnoloģijas, procesa vai biometrisko datu veida. Šādas biometriskās tālidentifikācijas sistēmas parasti izmanto, lai uztvertu vairākas personas vai to uzvedību vienlaikus nolūkā būtiski atvieglot fizisku personu identificēšanu bez to aktīvas iesaistīšanās. Tas izslēdz MI sistēmas, kuras paredzēts izmantot biometriskajai verifikācijai, kas ietver autentifikāciju, kuras vienīgais nolūks ir apstiprināt, ka konkrēta fiziska persona ir persona, par ko tā uzdodas, un apstiprināt fiziskas personas identitāti vienīgi nolūkā piekļūt pakalpojumam, atbloķēt ierīci vai iegūt drošības piekļuvi telpām. Minēto izslēgšanu pamato ar to, ka šādām sistēmām, visticamāk, ir neliela ietekme uz fizisku personu pamattiesībām salīdzinājumā ar biometriskās tālidentifikācijas sistēmām, kuras var izmantot liela skaita personu biometrisko datu apstrādei bez to aktīvas iesaistīšanās. Reāllaika sistēmu gadījumā biometrisko datu iegūšana, salīdzināšana un identifikācija notiek uzreiz, gandrīz uzreiz vai, jebkurā gadījumā, bez būtiskas aiztures. Šajā ziņā nevajadzētu būt iespējai apiet šīs regulas noteikumus par attiecīgo MI sistēmu lietošanu reāllaikā, paredzot nelielas aiztures. Reāllaika sistēmās izmanto “tiešraides” vai “gandrīz tiešraides” materiālu, piemēram, videomateriālu, ko ģenerē kamera vai cita ierīce ar līdzīgu funkcionalitāti. Turpretī vēlāklaika sistēmu gadījumā biometriskie dati jau ir iegūti, un salīdzināšana un identifikācija notiek tikai pēc būtiskas aiztures. Tās izmanto materiālu, piemēram, attēlus vai videomateriālus, ko ģenerējušas videonovērošanas sistēmas kameras vai privātas ierīces pirms sistēmas lietošanas attiecībā uz attiecīgajām fiziskajām personām.
(18)
Pojęcie „systemu rozpoznawania emocji”, o którym mowa w niniejszym rozporządzeniu, należy zdefiniować jako system AI służący do rozpoznawania emocji lub zamiarów osób fizycznych na podstawie danych biometrycznych tych osób, lub wyciągania wniosków odnośnie do tych emocji lub zamiarów. Pojęcie to dotyczy emocji lub zamiarów, takich jak radość, smutek, złość, zdziwienie, obrzydzenie, zakłopotanie, podekscytowanie, wstyd, pogarda, satysfakcja i rozbawienie. Nie obejmuje ono stanów fizycznych, takich jak ból lub zmęczenie; w tym na przykład systemów stosowanych do wykrywania poziomu zmęczenia zawodowych pilotów lub kierowców w celu zapobiegania wypadkom. Nie obejmuje ono również samego wykrywania łatwych do zauważenia form wyrazu, gestów lub ruchów, chyba że wykorzystuje się je do identyfikacji lub wnioskowania na temat emocji. Te formy wyrazu mogą obejmować podstawowe rodzaje wyrazu twarzy, takie jak grymas lub uśmiech, gesty, takie jak ruch rąk, ramion lub głowy, lub cechy głosu danej osoby, takie jak podniesiony ton lub szept.
(18)
Šajā regulā minētais jēdziens “emociju uztveršanas sistēma” būtu jādefinē kā MI sistēma, kuras mērķis ir identificēt vai izsecināt fizisku personu emocijas vai nodomus, pamatojoties uz viņu biometriskajiem datiem. Šis jēdziens attiecas uz tādām emocijām vai nodomiem kā laime, skumjas, dusmas, pārsteigums, nepatika, apmulsums, satraukums, kauns, nicinājums, gandarījums un bauda. Tas neietver fizisku stāvokli, piemēram, sāpes vai nogurumu; tostarp, piemēram, uz sistēmām, ko izmanto, lai noteiktu profesionālu pilotu vai vadītāju noguruma stāvokli negadījumu novēršanas nolūkā. Tas neattiecas arī uz acīmredzamu izpausmju, žestu vai kustību vienkāršu atpazīšanu, ja vien tos neizmanto emociju identificēšanai vai izsecināšanai. Šīs izpausmes var būt vienkāršas sejas izteiksmes, piemēram, saraukta piere vai smaids, vai žesti, piemēram, plaukstu, roku vai galvas kustība, vai personas balss īpašības, piemēram, pacelta balss vai čuksti.
(19)
Do celów niniejszego rozporządzenia pojęcie „przestrzeni publicznej” należy rozumieć jako odnoszące się do każdej przestrzeni fizycznej, która jest dostępna dla nieokreślonej liczby osób fizycznych, niezależnie od tego, czy dana przestrzeń jest własnością prywatną czy publiczną, a także niezależnie od rodzaju działalności, dla której się ją wykorzystuje, takiej jak działalność handlowa (na przykład sklepy, restauracje, kawiarnie), działalność usługowa (na przykład banki, działalność zawodowa, hotelarstwo), działalność sportowa (na przykład baseny, sale do ćwiczeń, stadiony), działalność transportowa (na przykład dworce autobusowe i kolejowe, stacje metra, lotniska, środki transportu), działalność rozrywkowa (na przykład kina, teatry, muzea, sale koncertowe i konferencyjne) lub przestrzenie służące wypoczynkowi lub innym celom (na przykład drogi publiczne i place, parki, lasy i place zabaw). Przestrzeń należy uznać za przestrzeń publiczną również wtedy, gdy niezależnie od potencjalnych ograniczeń w zakresie pojemności lub bezpieczeństwa, dostęp do niej podlega pewnym określonym z góry warunkom, które mogą zostać spełnione przez nieokreśloną liczbę osób, takich jak zakup biletu wstępu lub biletu na przejazd, uprzednia rejestracja lub osiągnięcie określonego wieku. Danej przestrzeni nie należy natomiast uznawać za przestrzeń publiczną, jeśli dostęp do niej ograniczony jest do konkretnych i określonych osób fizycznych na mocy prawa Unii lub prawa krajowego bezpośrednio związanego z bezpieczeństwem publicznym lub ochroną publiczną lub w wyniku wyraźnego wyrażenia woli przez osobę posiadającą odpowiednie uprawnienia związane z taką przestrzenią. Faktyczna możliwość samego dostępu (taka jak niezamknięte drzwi, otwarta bramka w ogrodzeniu) nie oznacza, że dana przestrzeń stanowi przestrzeń publiczną, jeśli istnieją wskazania lub okoliczności sugerujące inaczej (takie jak znaki zakazujące dostępu lub go ograniczające). Tereny przedsiębiorstw i fabryk, a także biura i miejsca pracy, do których dostęp powinni mieć wyłącznie odpowiedni pracownicy i usługodawcy, to przestrzenie, które nie stanowią przestrzeni publicznej. Do przestrzeni publicznej nie zaliczają się więzienia ani strefy kontroli granicznej. Niektóre przestrzenie mogą zawierać zarówno przestrzenie publiczne, jak i niepubliczne, takie jak hol w prywatnym budynku mieszkalnym prowadzący do gabinetu lekarskiego lub lotnisko. Przestrzenie internetowe również nie są objęte tym pojęciem, ponieważ nie są to przestrzenie fizyczne. To, czy dana przestrzeń jest dostępna publicznie, powinno być jednak ustalane indywidualnie w każdym przypadku, z uwzględnieniem specyfiki danej sytuacji.
(19)
Šajā regulā jēdziens “publiski piekļūstama vieta” būtu jāsaprot kā atsauce uz jebkuru fizisku vietu, kas ir piekļūstama nenoteiktam fizisku personu skaitam neatkarīgi no tā, vai minētā vieta ir publisks vai privāts īpašums, un neatkarīgi no tā, kādām aktivitātēm vietu var izmantot, piemēram, tirdzniecībai (piemēram, veikali, restorāni, kafejnīcas); pakalpojumu sniegšanai, piemēram, bankas, profesionālā darbība, viesmīlība; sportam, piemēram, peldbaseini, sporta zāles, stadioni; transportam, piemēram, autoostas, metro un dzelzceļa stacijas, lidostas, transportlīdzekļi; izklaidei, piemēram, kinoteātri, teātri, muzeji, koncertzāles un konferenču zāles; atpūtai vai citādiem mērķiem, piemēram, koplietošanas ceļi un laukumi, parki, meži, rotaļu laukumi. Vieta būtu jāklasificē kā publiski piekļūstama arī tad, ja – neatkarīgi no potenciālās kapacitātes vai drošības ierobežojumiem – piekļuve ir atkarīga no konkrētiem iepriekš noteiktiem nosacījumiem, kuriem var atbilst nenoteikts personu skaits, piemēram, tās ir iegādājušās biļeti vai transporta lietošanas tiesības, veikušas iepriekšēju reģistrāciju vai sasniegušas konkrētu vecumu. Vietu turpretī nevajadzētu uzskatīt par publiski piekļūstamu, ja piekļuve attiecas tikai uz konkrētām un definētām fiziskām personām, kā noteikts ar Savienības vai valsts tiesību aktiem, kas ir tieši saistīti ar sabiedrības drošumu vai sabiedrisko drošību, vai ja tādu gribu skaidri paudusi persona, kurai ir attiecīgās pilnvaras attiecībā uz konkrēto vietu. Faktiskā piekļuves iespēja pati par sevi (piemēram, atslēgtas durvis, atvērti vārti nožogojuma vietā) nenozīmē, ka vieta ir publiski piekļūstama, ja ir norādes vai apstākļi, kas liecina par pretējo (piemēram, zīmes, kas aizliedz vai ierobežo piekļuvi). Uzņēmumu un rūpnīcu telpas, kā arī biroji un darba vietas, kurām paredzēts piekļūt tikai attiecīgajiem darbiniekiem un pakalpojumu sniedzējiem, nav publiski piekļūstamas vietas. Cietumi vai robežkontroles zonas nebūtu jāuzskata par publiski piekļūstamām vietām. Dažas citas teritorijas var ietvert gan vietas, kas nav publiski piekļūstamas, gan vietas, kas ir publiski piekļūstamas, piemēram, privātas dzīvojamās ēkas gaitenis, kas nepieciešams, lai piekļūtu ārsta kabinetam, vai lidostu. Arī tiešsaistes vietas nav aptvertas, jo tās nav fiziskas vietas. Tomēr tas, vai konkrēta vieta ir publiski piekļūstama, būtu jānosaka katrā gadījumā atsevišķi, ņemot vērā konkrētās individuālās situācijas specifiku.
(20)
Dostawców, podmioty stosujące i osoby, na które AI ma wpływ, należy wyposażyć w niezbędne kompetencje w zakresie AI umożliwiające im podejmowanie świadomych decyzji w odniesieniu do systemów AI, co pozwoli czerpać największe korzyści z systemów AI, a jednocześnie chronić prawa podstawowe, zdrowie i bezpieczeństwo oraz sprawować kontrolę demokratyczną. Kompetencje te mogą różnić się w zależności od danego kontekstu i mogą obejmować rozumienie prawidłowego stosowania elementów technicznych na etapie rozwoju systemu AI, rozumienie środków, które mają być stosowane podczas jego wykorzystywania, odpowiednich sposobów interpretacji wyników działania systemu AI oraz, w przypadku osób, na które AI ma wpływ – wiedzę niezbędną do zrozumienia, jaki wpływ będą miały na nie decyzje podejmowane przy pomocy AI. W kontekście stosowania niniejszego rozporządzenia kompetencje w zakresie AI powinny oznaczać, że wszystkie odpowiednie podmioty w łańcuchu wartości AI będą posiadać wiedzę konieczną do zapewnienia odpowiedniej zgodności z przepisami niniejszego rozporządzenia i ich prawidłowego egzekwowania. Ponadto szerokie wdrażanie środków rozwijających kompetencje w zakresie AI oraz wprowadzanie odpowiednich działań następczych mogłyby przyczynić się do poprawy warunków pracy, a w ostatecznym rozrachunku wsparłyby konsolidację i innowacyjną ścieżkę godnej zaufania AI w Unii. Europejska Rada ds. Sztucznej Inteligencji (zwana dalej „Radą ds. AI”) powinna wspierać Komisję w promowaniu narzędzi rozwijających kompetencje w zakresie AI, świadomości społecznej oraz zrozumienia korzyści, ryzyka, zabezpieczeń, praw i obowiązków związanych z wykorzystaniem systemów AI. We współpracy z odpowiednimi zainteresowanymi stronami Komisja i państwa członkowskie powinny ułatwiać opracowywanie dobrowolnych kodeksów postępowania w celu podnoszenia kompetencji w zakresie AI wśród osób zajmujących się rozwojem, działaniem i wykorzystywaniem AI.
(20)
Lai gūtu vislielāko labumu no MI sistēmām, vienlaikus aizsargājot pamattiesības, veselību un drošību, un lai nodrošinātu demokrātisku kontroli, MI pratībai būtu jāsniedz sagādātājiem, uzturētājiem un skartajām personām nepieciešamie jēdzieni, lai tie varētu pieņemt uz informāciju balstītus lēmumus par MI sistēmām. Minētie jēdzieni var atšķirties atkarībā no attiecīgā konteksta, un tie var ietvert izpratni par tehnisko elementu pareizu piemērošanu MI sistēmas izstrādes posmā, pasākumiem, kas piemērojami tās izmantošanas laikā, piemērotiem veidiem, kā interpretēt MI sistēmas iznākumu, un – skarto personu gadījumā – zināšanas, kas vajadzīgas, lai izprastu, kā lēmumi, kas pieņemti ar MI palīdzību, tās ietekmēs. Šīs regulas piemērošanas kontekstā MI pratībai būtu jāsniedz visiem attiecīgajiem MI vērtības ķēdes dalībniekiem zināšanas, kas vajadzīgas, lai nodrošinātu pienācīgu atbilstību un tās pareizu izpildi. Turklāt MI pratības pasākumu plaša īstenošana un atbilstošu turpmāko pasākumu ieviešana varētu palīdzēt uzlabot darba apstākļus un galu galā uzturēt uzticama MI konsolidāciju un inovāciju Savienībā. Eiropas Mākslīgā intelekta padomei (MI padomei) būtu jāatbalsta Komisija MI pratības rīku, sabiedrības informētības un izpratnes veicināšanā par ieguvumiem, riskiem, aizsardzības pasākumiem, tiesībām un pienākumiem saistībā ar MI sistēmu lietošanu. Komisijai un dalībvalstīm sadarbībā ar attiecīgajām ieinteresētajām personām būtu jāveicina brīvprātīgu rīcības kodeksu izstrāde, lai uzlabotu MI pratību to personu vidū, kuras nodarbojas ar MI izstrādi, darbību un lietošanu.
(21)
W celu zapewnienia równych szans oraz skutecznej ochrony praw i wolności osób fizycznych w całej Unii przepisy ustanowione niniejszym rozporządzeniem powinny mieć zastosowanie do dostawców systemów AI w sposób niedyskryminacyjny, niezależnie od tego, czy mają oni siedzibę w Unii, czy w państwie trzecim, oraz do podmiotów stosujących systemy AI mających siedzibę w Unii.
(21)
Lai nodrošinātu vienlīdzīgus konkurences apstākļus un indivīdu tiesību un brīvību efektīvu aizsardzību visā Savienībā, šīs regulas noteikumiem būtu jāattiecas uz MI sistēmu nodrošinātājiem nediskriminējošā veidā neatkarīgi no tā, vai tie iedibināti Savienībā vai trešā valstī, un uz Savienībā iedibinātiem MI sistēmu uzturētājiem.
(22)
Ze względu na swój cyfrowy charakter niektóre systemy AI powinny zostać objęte zakresem stosowania niniejszego rozporządzenia, nawet jeśli nie zostały wprowadzane do obrotu, oddane do użytku ani są wykorzystywane w Unii. Dotyczy to na przykład operatora mającego siedzibę w Unii, który zleca operatorowi mającemu siedzibę w państwie trzecim określone usługi w związku z działaniem, które ma być wykonywane przez system AI, który zostałby zakwalifikowany jako system wysokiego ryzyka. W takich okolicznościach system AI wykorzystywany w państwie trzecim przez operatora mógłby przetwarzać dane, które legalnie zgromadzono w Unii i przekazano poza Unię, oraz przekazywać zlecającemu operatorowi z Unii wynik przetwarzania tych danych przez system AI, natomiast sam system AI nie byłby wprowadzony do obrotu lub oddany do użytku w Unii ani nie byłby w Unii wykorzystywany. Aby zapobiec obchodzeniu przepisów niniejszego rozporządzenia oraz zapewnić skuteczną ochronę osób fizycznych znajdujących się w Unii, niniejsze rozporządzenie powinno mieć również zastosowanie do dostawców i podmiotów stosujących systemy AI, którzy mają siedzibę lub miejsce zamieszkania w państwie trzecim, w zakresie, w jakim wyniki wytworzone przez te systemy są przeznaczone do wykorzystywania w Unii. Aby uwzględnić jednak istniejące ustalenia i szczególne potrzeby w zakresie przyszłej współpracy z partnerami zagranicznymi, z którymi wymienia się informacje i dowody, niniejszego rozporządzenia nie powinno się stosować do organów publicznych państwa trzeciego i organizacji międzynarodowych działających w ramach współpracy lub na mocy zawartych na poziomie Unii lub poziomie krajowym umów międzynarodowych o współpracy organów ścigania i wymiarów sprawiedliwości z Unią lub państwami członkowskimi, pod warunkiem zapewnienia przez to państwo trzecie lub organizację międzynarodową odpowiednich zabezpieczeń w odniesieniu do ochrony podstawowych praw i wolności osób fizycznych. W stosownych przypadkach może to obejmować działania podmiotów, którym państwa trzecie powierzyły wykonywanie szczególnych zadań w ramach wsparcia ścigania przestępstw i współpracy wymiarów sprawiedliwości. Takie ramy współpracy lub umowy zostały ustanowione dwustronnie między państwami członkowskimi a państwami trzecimi lub między Unią Europejską, Europolem i innymi agencjami Unii a państwami trzecimi i organizacjami międzynarodowymi. Organy właściwe do sprawowania nadzoru nad organami ścigania i organami wymiaru sprawiedliwości na mocy niniejszego rozporządzenia powinny ocenić, czy te ramy współpracy lub umowy międzynarodowe zawierają odpowiednie zabezpieczenia w odniesieniu do ochrony podstawowych praw i wolności osób fizycznych. Będące odbiorcami organy krajowe oraz instytucje, organy i jednostki organizacyjne Unii korzystające z takich wyników w Unii pozostają odpowiedzialne za zapewnienie zgodności ich stosowania z prawem Unii. W przypadku zmiany takich umów międzynarodowych lub zawarcia nowych w przyszłości umawiające się strony powinny dołożyć wszelkich starań, by dostosować takie umowy do wymogów niniejszego rozporządzenia.
(22)
Ņemot vērā to digitālo raksturu, šai regulai būtu jāattiecas uz dažām MI sistēmām, pat ja tās nav laistas tirgū, nodotas ekspluatācijā vai izmantotas Savienībā. Tā tas ir, piemēram, ja Savienībā iedibināts operators iepērk dažus pakalpojumus no trešās valstīs iedibināta operatora saistībā ar darbību, ko veic MI sistēma, kura uzskatāma par augsta riska sistēmu. Minētajos apstākļos MI sistēma, ko operators izmanto trešā valstī varētu apstrādāt datus, kas likumīgi savākti Savienībā un nosūtīti no tās, un nodot pakalpojumus iepirkušajam Savienības operatoram minētās MI sistēmas iznākumus, kas izriet no minētās datu apstrādes, minēto MI sistēmu nelaižot tirgū, nenododot ekspluatācijā vai neizmantojot Savienībā. Lai novērstu šīs regulas noteikumu apiešanu un nodrošinātu Savienībā esošo fizisko personu efektīvu aizsardzību, šai regulai būtu jāattiecas arī uz MI sistēmu nodrošinātājiem un uzturētājiem, kuri iedibināti trešā valstī, ciktāl minēto sistēmu radītie iznākumi ir paredzēti izmantošanai Savienībā. Tomēr, lai ņemtu vērā esošo kārtību un īpašu nepieciešamību turpmāk sadarboties ar ārvalstu partneriem, ar kuriem notiek informācijas un pierādījumu apmaiņa, šī regula nebūtu jāpiemēro trešo valstu publiskām iestādēm un starptautiskām organizācijām, ja to darbība notiek sadarbības vai starptautisku nolīgumu ietvaros, kas noslēgti Eiropas vai valstu līmenī tiesībaizsardzības un tiesu iestāžu sadarbības nolūkā ar Savienību vai dalībvalstīm, ar noteikumu, ka attiecīgā trešā valsts vai starptautiskā organizācija nodrošina pienācīgus aizsardzības pasākumus attiecībā uz personu pamattiesību un pamatbrīvību aizsardzību. Attiecīgā gadījumā tas var attiekties uz tādu vienību darbībām, kurām trešās valstis uzticējušas veikt konkrētus uzdevumus, atbalstot šādu tiesībaizsardzības un tiesu iestāžu sadarbību. Šāda sadarbības sistēma vai nolīgumi ir izstrādāti divpusēji starp dalībvalstīm un trešām valstīm vai starp Eiropas Savienību, Eiropolu un citām Savienības aģentūrām un trešām valstīm un starptautiskām organizācijām. Iestādēm, kuru kompetencē ir tiesībaizsardzības un tiesu iestāžu uzraudzība saskaņā ar šo regulu, būtu jānovērtē, vai minētās sadarbības sistēmas vai starptautiskie nolīgumi ietver pienācīgus aizsardzības pasākumus attiecībā uz personu pamattiesību un pamatbrīvību aizsardzību. Saņēmēju valstu iestādes un Savienības iestādes, struktūras, biroji un aģentūras, kas izmanto šādus iznākumus Savienībā, joprojām ir atbildīgas par to, lai nodrošinātu, ka to izmantošana atbilst Savienības tiesību aktiem. Kad minētie starptautiskie nolīgumi tiek pārskatīti vai turpmāk tiek noslēgti jauni nolīgumi, līgumslēdzējām pusēm būtu jādara viss iespējamais, lai minētos nolīgumus saskaņotu ar šīs regulas prasībām.
(23)
Niniejsze rozporządzenie powinno być również stosowane do instytucji, organów i jednostek organizacyjnych Unii, gdy działają one jako dostawca systemu AI lub podmiot stosujący system AI.
(23)
Šī regula būtu jāpiemēro arī Savienības iestādēm, struktūrām, birojiem, un aģentūrām, kad tās rīkojas kā MI sistēmas nodrošinātājs vai uzturētājs.
(24)
Jeżeli i w zakresie, w jakim systemy AI wprowadza się do obrotu, oddaje do użytku lub wykorzystuje się je ze zmianami lub bez zmian – do celów wojskowych, obronnych lub celów bezpieczeństwa narodowego, systemy te należy wyłączyć z zakresu stosowania niniejszego rozporządzenia niezależnie od tego, jaki podmiot wykonuje te działania – nie ma znaczenia na przykład, czy jest on podmiotem publicznym czy prywatnym. W przypadku celów wojskowych i obronnych, takie wyłączenie jest uzasadnione zarówno art. 4 ust. 2 TUE, jak i specyfiką polityki obronnej państw członkowskich i wspólnej polityki obronnej Unii objętej tytułem V rozdział 2 TUE, które podlegają prawu międzynarodowemu publicznemu stanowiącemu zatem bardziej odpowiednie ramy prawne dla regulacji systemów AI w kontekście stosowania śmiercionośnej siły i innych systemów AI w kontekście działań wojskowych i obronnych. W przypadku celów bezpieczeństwa narodowego wyłączenie to jest uzasadnione zarówno faktem, że za bezpieczeństwo narodowe wyłączną odpowiedzialność ponoszą państwa członkowskie zgodnie z art. 4 ust. 2 TUE, jak i faktem, że działania w zakresie bezpieczeństwa narodowego mają szczególny charakter, wiążą się ze szczególnymi potrzebami operacyjnymi i że stosuje się do nich szczególne przepisy krajowe. Jeżeli jednak system AI rozwinięty, wprowadzony do obrotu, oddany do użytku lub wykorzystywany do celów wojskowych, obronnych lub celów bezpieczeństwa narodowego jest tymczasowo lub na stałe wykorzystywany do innych celów, na przykład do celów cywilnych lub humanitarnych, do celów ścigania przestępstw lub bezpieczeństwa publicznego, system taki objęty zostanie zakresem stosowania niniejszego rozporządzenia. W takim przypadku podmiot wykorzystujący system AI do celów inne niż cele wojskowe, obronne lub cele bezpieczeństwa narodowego powinien zapewnić zgodność systemu AI z niniejszym rozporządzeniem, chyba że system ten jest już z nim zgodny. Systemy AI wprowadzane do obrotu lub oddawane do użytku do celu stanowiącego podstawę wyłączenia, tzn. celu wojskowego, obronnego lub celu bezpieczeństwa narodowego, oraz do jednego lub kilku celów niestanowiących podstawy wyłączenia, takich jak cele cywilne lub ściganie przestępstw, są objęte zakresem stosowania niniejszego rozporządzenia, a dostawcy tych systemów powinni zapewnić zgodność z niniejszym rozporządzeniem. W takich przypadkach fakt, że system AI może wchodzić w zakres stosowania niniejszego rozporządzenia, nie powinien mieć wpływu na możliwość wykorzystywania – przez podmioty prowadzące działania dotyczące bezpieczeństwa narodowego, działania obronne i wojskowe, bez względu na rodzaj podmiotu prowadzącego te działania – systemów AI do celów bezpieczeństwa narodowego, celów wojskowych i obronnych, których wykorzystanie jest wyłączone z zakresu stosowania niniejszego rozporządzenia. System AI wprowadzany do obrotu do celów cywilnych lub w celu ścigania przestępstw, który jest wykorzystywany ze zmianami lub bez zmian do celów wojskowych, obronnych lub do celów bezpieczeństwa narodowego, nie powinien być objęty zakresem stosowania niniejszego rozporządzenia, bez względu na rodzaj podmiotu prowadzącego działania związane z tymi celami.
(24)
Ja un ciktāl MI sistēmas tiek laistas tirgū, nodotas ekspluatācijā vai izmantotas ar šādu sistēmu modifikāciju vai bez tās militārām, aizsardzības vai valsts drošības vajadzībām, tās būtu jāizslēdz no šīs regulas piemērošanas jomas neatkarīgi no tā, kāda veida vienība veic minētās darbības, piemēram, neatkarīgi no tā, vai tā ir publiska vai privāta vienība. Attiecībā uz militāriem un aizsardzības mērķiem šāda izslēgšana ir pamatota gan ar LES 4. panta 2. punktu, gan ar dalībvalstu un Savienības kopējās aizsardzības politikas īpatnībām, ko reglamentē Līguma par Eiropas Savienību (LES) V sadaļas 2. nodaļa un uz ko attiecas starptautiskās publiskās tiesības, kas tādējādi ir piemērotāks tiesiskais regulējums MI sistēmu reglamentēšanai saistībā ar letāla spēka izmantošanu un citu MI sistēmu reglamentēšanai militāro un aizsardzības darbību kontekstā. Attiecībā uz valsts drošības mērķiem izslēgšana ir pamatota gan ar to, ka valsts drošība joprojām ir vienīgi dalībvalstu atbildība saskaņā ar LES 4. panta 2. punktu, gan ar valsts drošības darbību specifisko raksturu un operatīvajām vajadzībām, kā arī ar konkrētiem valsts noteikumiem, kas piemērojami minētajām darbībām. Tomēr, ja MI sistēmu, kas izstrādāta, laista tirgū, nodota ekspluatācijā vai tiek izmantota militāriem, aizsardzības vai valsts drošības mērķiem, uz laiku vai pastāvīgi izmanto citiem mērķiem (piemēram, civiliem vai humanitāriem mērķiem, tiesībaizsardzības vai sabiedriskās drošības mērķiem), šāda sistēma ietilptu šīs regulas piemērošanas jomā. Tādā gadījumā vienībai, kas MI sistēmu izmanto nevis militāriem, aizsardzības vai valsts drošības mērķiem, bet citiem mērķiem, būtu jānodrošina MI sistēmas atbilstība šai regulai, ja vien sistēma tai jau neatbilst. MI sistēmas, kas laistas tirgū vai nodotas ekspluatācijā izslēgtiem mērķiem, t. i., militāriem, aizsardzības vai valsts drošības mērķiem, un vienam vai vairākiem mērķiem, kas nav izslēgti, piemēram, civiliem mērķiem vai tiesībaizsardzībai, ietilpst šīs regulas piemērošanas jomā, un minēto sistēmu nodrošinātājiem būtu jānodrošina atbilstība šai regulai. Minētajos gadījumos tam, ka MI sistēma var ietilpt šīs regulas piemērošanas jomā, nebūtu jāietekmē iespēja vienībām, kas veic valsts drošības, aizsardzības un militārās darbības, – neatkarīgi no vienības, kas veic minētās darbības, veida – lietot tās MI sistēmas valsts drošības, militārajiem un aizsardzības mērķiem, kuru lietošana ir izslēgta no šīs regulas piemērošanas jomas. MI sistēmai, kas laista tirgū civiliem vai tiesībaizsardzības mērķiem un ko ar modifikāciju vai bez tās izmanto militāriem, aizsardzības vai valsts drošības mērķiem, nebūtu jāietilpst šīs regulas piemērošanas jomā neatkarīgi no vienības, kas veic minētās darbības, veida.
(25)
Niniejsze rozporządzenie powinno wspierać innowacje, szanować wolność nauki i nie powinno osłabiać działalności badawczo-rozwojowej. Należy zatem wyłączyć z jego zakresu stosowania systemy i modele AI rozwinięte i oddane do użytku wyłącznie do celów badań naukowych i rozwojowych. Ponadto należy zapewnić, aby niniejsze rozporządzenie nie wpływało w żaden inny sposób na działalność badawczo-rozwojową dotyczącą systemów lub modeli AI przed wprowadzeniem tych systemów lub modeli do obrotu lub oddaniem ich do użytku. Przepisów niniejszego rozporządzenia nie powinno się również stosować do zorientowanej na produkty działalności badawczej, testowej i rozwojowej dotyczącej systemów lub modeli AI przed oddaniem tych systemów i modeli do użytku lub wprowadzaniem ich do obrotu. Wyłączenie to pozostaje to bez uszczerbku dla obowiązku zapewnienia zgodności z niniejszym rozporządzeniem, gdy system AI objęty zakresem stosowania niniejszego rozporządzenia jest wprowadzany do obrotu lub oddawany do użytku w wyniku takiej działalności badawczo-rozwojowej, oraz dla stosowania przepisów dotyczących piaskownic regulacyjnych w zakresie AI i testów w warunkach rzeczywistych. Ponadto bez uszczerbku dla wyłączenia systemów AI rozwiniętych i oddanych do użytku wyłącznie do celów badań naukowych i rozwojowych, wszelkie inne systemy AI, które mogą być wykorzystywane do prowadzenia wszelkiej działalności badawczo-rozwojowej, powinny podlegać przepisom niniejszego rozporządzenia. W każdym przypadku wszelka działalność badawczo-rozwojowa powinna być prowadzona zgodnie z uznanymi normami etycznymi i zawodowymi dotyczącymi badań naukowych oraz zgodnie z mającym zastosowanie prawem Unii.
(25)
Šai regulai būtu jāatbalsta inovācija un būtu jāievēro zinātnes brīvība, un tai nebūtu jākavē pētniecības un izstrādes darbība. Tāpēc no tās darbības jomas ir jāizslēdz MI sistēmas un modeļi, kas konkrēti izstrādāti un nodoti ekspluatācijā vienīgi zinātniskās pētniecības un izstrādes nolūkā. Turklāt ir jānodrošina, ka šī regula citādi neietekmē zinātniskās pētniecības un izstrādes darbību saistībā ar MI sistēmām vai modeļiem pirms to laišanas tirgū vai nodošanas ekspluatācijā. Šīs regulas noteikumi nebūtu jāpiemēro arī uz produktiem orientētai pētniecības, testēšanas un izstrādes darbībai saistībā ar MI sistēmām vai modeļiem pirms minēto sistēmu un modeļu nodošanas ekspluatācijā vai laišanas tirgū. Minētā izslēgšana neskar pienākumu ievērot šo regulu, ja MI sistēma, kas ietilpst šīs regulas darbības jomā, tiek laista tirgū vai nodota ekspluatācijā šādas pētniecības un izstrādes darbības rezultātā, un MI “regulatīvo smilškastu” noteikumu un noteikumu par testēšanu reālos apstākļos piemērošanu. Turklāt, neskarot MI sistēmu izslēgšanu, kuras konkrēti izstrādātas un nodotas ekspluatācijā vienīgi zinātniskās pētniecības un izstrādes nolūkā, uz jebkuru citu MI sistēmu, ko var lietot jebkādu pētniecības un izstrādes darbību veikšanai, arī turpmāk būtu jāattiecina šīs regulas noteikumi. Jebkurā gadījumā ikviena pētniecības un izstrādes darbība būtu jāveic saskaņā ar atzītiem zinātniskās pētniecības ētikas un profesionālajiem standartiem un saskaņā ar piemērojamiem Savienības tiesību aktiem.
(26)
Aby wprowadzić proporcjonalny i skuteczny zbiór wiążących przepisów dotyczących systemów AI, należy zastosować jasno określone podejście oparte na analizie ryzyka. Takie podejście powinno polegać na dostosowywaniu rodzaju i treści takich przepisów do intensywności i zakresu ryzyka, jakie mogą powodować systemy AI. Konieczne jest zatem wprowadzenie zakazu stosowania niektórych niedopuszczalnych praktyk w zakresie AI, ustanowienie wymogów dotyczących systemów AI wysokiego ryzyka i obowiązków spoczywających na odpowiednich operatorach oraz ustanowienie obowiązków w zakresie przejrzystości w odniesieniu do niektórych systemów AI.
(26)
Lai ieviestu samērīgu un iedarbīgu saistošu noteikumu kopumu MI sistēmām, būtu jāizmanto skaidri noteikta, uz risku balstīta pieeja. Minētajai pieejai šādu noteikumu veids un saturs būtu jāpielāgo MI sistēmu potenciāli radīto risku intensitātei un apmēram. Tāpēc ir jāaizliedz daži nepieņemami MI prakses veidi, jānosaka prasības augsta riska MI sistēmām un pienākumi attiecīgajiem operatoriem un jānosaka pārredzamības pienākumi attiecībā uz dažām MI sistēmām.
(27)
Chociaż podstawą proporcjonalnego i skutecznego zbioru wiążących przepisów jest podejście oparte na analizie ryzyka, należy przypomnieć Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji z 2019 r. opracowane przez niezależną grupę ekspertów wysokiego szczebla ds. AI powołaną przez Komisję. W tych wytycznych grupa ekspertów wysokiego szczebla ds. AI opracowała siedem niewiążących zasad etycznych dotyczących AI, które mają pomóc zapewnić, aby AI była godna zaufania i zgodna z normami etycznymi. Te siedem zasad to: przewodnia i nadzorcza rola człowieka; solidność techniczna i bezpieczeństwo; ochrona prywatności i zarządzanie danymi; przejrzystość; różnorodność, niedyskryminacja i sprawiedliwość; dobrostan społeczny i środowiskowy oraz odpowiedzialność. Bez uszczerbku dla prawnie wiążących wymogów niniejszego rozporządzenia i wszelkich innych mających zastosowanie przepisów prawa Unii, wytyczne te przyczyniają się do zaprojektowania spójnej, wiarygodnej i zorientowanej na człowieka AI, zgodnie z Kartą i wartościami, na których opiera się Unia. Zgodnie z wytycznymi grupy ekspertów wysokiego szczebla ds. AI przewodnia i nadzorcza rola człowieka oznacza, że systemy AI rozwija się i wykorzystuje jako narzędzia służące ludziom, szanujące godność ludzką i autonomię osobistą oraz działające w sposób, który może być odpowiednio kontrolowany i nadzorowany przez człowieka. Solidność techniczna i bezpieczeństwo oznaczają, że systemy AI rozwija się i wykorzystuje w taki sposób, by okazały się wytrzymałe w przypadku wystąpienia problemów oraz odporne na próby zmiany ich wykorzystania lub skuteczności działania, co pozwoli zapobiec bezprawnemu wykorzystaniu przez osoby trzecie i zminimalizować niezamierzone szkody. Ochrona prywatności i zarządzanie danymi oznaczają, że systemy AI rozwija się i wykorzystuje zgodnie z przepisami dotyczącymi prywatności i ochrony danych, przy czym przetwarzanie danych spełnia wysokie standardy pod względem jakości i integralności. Przejrzystość oznacza, że systemy AI rozwija się i wykorzystuje w sposób umożliwiający odpowiednią identyfikowalność i wytłumaczalność, jednocześnie informując ludzi o tym, że komunikują się z systemem AI lub podejmują z nim interakcję, a także należycie informując podmioty stosujące o zdolnościach i ograniczeniach tego systemu AI, a osoby, na które AI ma wpływ, o przysługujących im prawach. Różnorodność, niedyskryminacja i sprawiedliwość oznaczają, że systemy AI rozwija się i wykorzystuje w sposób, który angażuje różne podmioty i propaguje równy dostęp, równouprawnienie płci i różnorodność kulturową, jednocześnie unikając dyskryminujących skutków i niesprawiedliwej stronniczości, których zakazują prawo Unii lub prawo krajowe. Dobrostan społeczny i środowiskowy oznacza, że systemy AI rozwija się i wykorzystuje w sposób zrównoważony, przyjazny dla środowiska i przynoszący korzyści wszystkim ludziom, jednocześnie monitorując i oceniając długoterminowy wpływ tych systemów na osoby fizyczne, społeczeństwo i demokrację. Stosowanie tych zasad powinno w miarę możliwości znaleźć odzwierciedlenie w projektowaniu i wykorzystywaniu modeli AI. Zasady te powinny w każdym przypadku stanowić fundament przy opracowywaniu kodeksów postępowania na podstawie niniejszego rozporządzenia. Wszystkie zainteresowane strony, w tym przedstawicieli przemysłu, środowisko akademickie, społeczeństwo obywatelskie i organizacje normalizacyjne, zachęca się, by przy opracowywaniu dobrowolnych najlepszych praktyk i norm uwzględniali odpowiednio przedmiotowe zasady etyczne.
(27)
Lai gan uz risku balstītā pieeja ir samērīga un efektīva saistošu noteikumu kopuma pamats, ir svarīgi atgādināt 2019. gada Ētikas vadlīnijas uzticamam mākslīgajam intelektam, kuras izstrādājusi Komisijas ieceltā neatkarīgā AI HLEG. Minētajās vadlīnijās AI ALEG izstrādāja septiņus nesaistošus ar MI saistītus ētikas principus, kuru mērķis ir palīdzēt nodrošināt, lai MI būtu uzticams un ētiski pamatots. Minētie septiņi principi ietver cilvēka darbībspēju un virsvadību; tehnisko robustumu un drošumu; privātumu un datu pārvaldību; pārredzamību; daudzveidību, nediskriminēšanu un taisnīgumu; sociālo un vides labbūtību un pārskatatbildību. Neskarot šīs regulas un citu piemērojamo Savienības tiesību aktu juridiski saistošās prasības, minētās vadlīnijas palīdz projektēt saskaņotu, uzticamu un uz cilvēku orientētu MI saskaņā ar Hartu un vērtībām, uz kuru pamata ir dibināta Savienība. Saskaņā ar AI HLEG vadlīnijām cilvēka darbībspēja un virsvadība nozīmē, ka MI sistēmas tiek projektētas un lietotas kā instruments, kas kalpo cilvēkiem, respektē cilvēka cieņu un personisko autonomiju un darbojas tādā veidā, ko cilvēki var pienācīgi kontrolēt un virsvadīt. Tehniskais robustums un drošums nozīmē, ka MI sistēmas tiek projektētas un lietotas tā, lai nodrošinātu robustumu problēmu gadījumā un noturību pret mēģinājumiem mainīt MI sistēmas lietošanu vai veiktspēju tā, ka trešās personas to var lietot nelikumīgi, un lai līdz minimumam samazinātu neparedzētu kaitējumu. Privātums un datu pārvaldība nozīmē, ka MI sistēmas tiek projektētas un lietotas saskaņā ar privātuma un datu aizsardzības noteikumiem, savukārt datus apstrādā atbilstoši augstiem kvalitātes un integritātes standartiem. Pārredzamība nozīmē, ka MI sistēmas tiek projektētas un lietotas tā, lai būtu iespējama pienācīga izsekojamība un izskaidrojamība un vienlaikus lai cilvēki apzinātos, ka sazinās vai ir saskarē ar MI sistēmu, kā arī lai pienācīgi informētu uzturētājus par MI sistēmas spējām un ierobežojumiem un skartās personas – par to tiesībām. Daudzveidība, nediskriminēšana un taisnīgums nozīmē, ka MI sistēmas tiek projektētas un lietotas tā, lai aptvertu dažādus dalībniekus un veicinātu vienlīdzīgu piekļuvi, dzimumu līdztiesību un kultūru daudzveidību un vienlaikus lai netiktu pieļauta diskriminējoša ietekme un netaisnīgi aizspriedumi, ko aizliedz Savienības vai valsts tiesību akti. Sociālā un vides labbūtība nozīmē, ka MI sistēmas tiek projektētas un lietotas ilgtspējīgā un videi nekaitīgā veidā, kā arī tā, lai ieguvēji būtu visi cilvēki un vienlaikus tiktu uzraudzīta un novērtēta ilgtermiņa ietekme uz indivīdu, sabiedrību un demokrātiju. Minēto principu piemērošana, cik vien iespējams, būtu jāintegrē MI modeļu projektēšanā un lietošanā. Jebkurā gadījumā tiem būtu jākalpo par pamatu šajā regulā noteiktajai rīcības kodeksu izstrādei. Visas ieinteresētās personas, tostarp nozare, akadēmiskā vide, pilsoniskā sabiedrība un standartizācijas organizācijas, tiek mudinātas brīvprātīgas paraugprakses un standartu izstrādē pienācīgi ņemt vērā minētos ētikas principus.
(28)
Oprócz wielu korzystnych zastosowań AI może ona być również wykorzystywana niewłaściwie i może dostarczać nowych i potężnych narzędzi do praktyk manipulacji, wyzyskiwania i kontroli społecznej. Takie praktyki są szczególnie szkodliwe i stanowią nadużycie i powinny być zakazane, ponieważ są sprzeczne z unijnymi wartościami dotyczącymi poszanowania godności ludzkiej, wolności, równości, demokracji i praworządności oraz z prawami podstawowymi zapisanymi w Karcie, w tym z prawem do niedyskryminacji, ochrony danych i prywatności oraz z prawami dziecka.
(28)
Līdztekus daudziem lietderīgiem MI lietošanas veidiem to var lietot arī ļaunprātīgi, un tā var sniegt nebijušus un spēcīgus rīkus manipulatīvas, ekspluatatīvas un sociālās kontroles prakses īstenošanai. Šāda prakse ir īpaši kaitējoša un ļaunprātīga un būtu jāaizliedz, jo tā ir pretrunā Savienības vērtībām attiecībā uz cilvēka cieņu, brīvību, līdztiesību, demokrātiju un tiesiskumu un pamattiesībām, kas nostiprinātas Hartā, ieskaitot tiesības uz nediskriminēšanu, datu aizsardzību un privātumu un bērna tiesības.
(29)
Techniki manipulacyjne oparte na AI mogą być wykorzystywane w celu nakłaniania osób do niepożądanych zachowań lub w celu wprowadzania ich w błąd poprzez skłanianie ich do podejmowania decyzji w sposób, który podważa i ogranicza ich autonomię, decyzyjność i swobodę wyboru. Wprowadzanie do obrotu, oddawanie do użytku lub wykorzystywanie niektórych systemów AI, których celem lub skutkiem jest znacząca zmiana ludzkiego zachowania, w związku z czym mogą wystąpić poważne szkody, w szczególności mające wystarczająco istotny niepożądany wpływ na zdrowie fizyczne, psychiczne lub na interesy finansowe, są szczególnie niebezpieczne i w związku z tym powinny być zakazane. Takie systemy AI wykorzystują elementy działające podprogowo, takie jak bodźce dźwiękowe, bodźce będące obrazami lub materiałami wideo, których nie można dostrzec, ponieważ bodźce takie wykraczają poza świadomą ludzką percepcję, lub stosują inne techniki manipulacyjne lub wprowadzające w błąd, które podważają lub ograniczają autonomię człowieka, decyzyjność lub swobodę wyboru w taki sposób, że osoby nie są świadome takich technik lub nawet jeśli są ich świadome, mogą zostać wprowadzone w błąd lub nie są w stanie sprawować nad nimi kontroli ani im się sprzeciwić. Przyczyniać się do tego mogą na przykład interfejsy maszyna-mózg lub rzeczywistość wirtualna, ponieważ pozwalają one na większą kontrolę nad tym, jakim bodźcom są poddawane osoby, do tego stopnia, że mogą one znacząco zmieniać zachowanie tych osób w sposób znacząco szkodliwy. Ponadto systemy AI mogą również w inny sposób wykorzystywać słabości danej osoby lub określonej grupy osób ze względu na ich wiek, niepełnosprawność w rozumieniu dyrektywy Parlamentu Europejskiego i Rady (UE) 2019/882 (16) lub szczególną sytuację społeczną lub ekonomiczną, która może sprawić, że osoby te, takie jak osoby żyjące w skrajnym ubóstwie, osoby z mniejszości etnicznych lub religijnych, będą bardziej narażone na ich wykorzystanie. Takie systemy AI mogą być wprowadzane do obrotu, oddawane do użytku lub wykorzystywane w celu lub ze skutkiem znaczącej zmiany zachowania danej osoby, oraz w sposób, który wyrządza lub może z uzasadnionym prawdopodobieństwem wyrządzić poważną szkodę tej osoby lub innej osoby lub grupy osób, w tym szkody kumulujące się z biegiem czasu, i w związku z tym powinny być zakazane. Nie można zakładać, że zaistniał zamiar dokonania zmiany zachowania, jeżeli zmiana ta wynika z czynników, które mają charakter zewnętrzny w stosunku do systemu AI i które są poza kontrolą dostawcy lub podmiotu stosującego, a zatem ani dostawca ani podmiot stosujący AI nie mogą ich racjonalnie przewidzieć ani im przeciwdziałać. W każdym razie nie ma znaczenia, czy dostawca lub podmiot stosujący mieli zamiar wyrządzić poważną szkodę, istotny jest fakt, że szkoda wynika z praktyk manipulacyjnych opartych na AI lub ich wykorzystywania. Zakazy dotyczące takich praktyk w zakresie AI stanowią uzupełnienie przepisów zawartych w dyrektywie Parlamentu Europejskiego i Rady 2005/29/WE (17), w szczególności przepisu zakazującego stosowania we wszelkich okolicznościach nieuczciwych praktyk handlowych powodujących dla konsumentów szkody ekonomiczne lub finansowe, niezależnie od tego, czy praktyki te stosuje się za pomocą systemów AI czy w innym kontekście. Zawarty w niniejszym rozporządzeniu zakaz praktyk polegających na manipulacji lub wykorzystywaniu nie powinien mieć wpływu na zgodne z prawem praktyki w kontekście leczenia, takie jak terapia psychologiczna w związku z chorobą psychiczną lub rehabilitacja fizyczna, gdy praktyki te są prowadzone zgodnie z mającymi zastosowanie prawem i normami medycznymi, na przykład za wyraźną zgodą danej osoby fizycznej lub jej przedstawiciela prawnego. Ponadto powszechne i zasadne praktyki handlowe, na przykład w dziedzinie reklamy, które są zgodne z mającym zastosowanie prawem, nie powinny być same w sobie uznawane za szkodliwe praktyki manipulacyjne oparte na AI.
(29)
MI iespējotas manipulatīvas metodes var izmantot, lai pārliecinātu personas iesaistīties nevēlamā rīcībā vai lai maldinātu tās, vedinot pieņemt lēmumus tādā veidā, kas grauj un vājina to autonomiju, lēmumu pieņemšanu un brīvu izvēli. Tādu konkrētu MI sistēmu laišana tirgū, nodošana ekspluatācijā vai lietošana, kuru mērķis vai sekas ir cilvēka uzvedības būtiska iespaidošana, kā dēļ var rasties būtisks kaitējums, jo īpaši pietiekami būtiska nelabvēlīga ietekme uz fizisko un psiholoģisko veselību vai finanšu interesēm, ir īpaši bīstama un tāpēc būtu jāaizliedz. Šādas MI sistēmas izmanto zemapziņai adresētus elementus, piemēram, audio, attēlu vai video stimulus, kurus personas kā tādus nespēj uztvert, jo tie darbojas ārpus cilvēka uztveres, vai citus manipulatīvus vai maldinošus paņēmienus, kas grauj vai vājina personas autonomiju, lēmumu pieņemšanu vai brīvu izvēli tā, ka cilvēki neapzinās minētos paņēmienus vai – pat ja tos apzinās – viņi joprojām var tikt maldināti vai nespēj tos kontrolēt vai tiem pretoties. To varētu veicināt, piemēram, mašīnas–smadzeņu saskarnes vai virtuālā realitāte, jo tās ļauj vairāk kontrolēt to, kādi stimuli personām tiek piedāvāti, ciktāl tās var būtiski iespaidot personu uzvedību tā, ka tiek nodarīts būtisks kaitējums. Turklāt MI sistēmas var arī citādi izmantot kādas personas vai konkrētas personu grupas neaizsargātību to vecuma, invaliditātes Eiropas Parlamenta un Padomes Direktīvas (ES) 2019/882 (16) nozīmē vai konkrētas sociālas vai ekonomiskas situācijas dēļ, kas var padarīt minētās personas neaizsargātākas pret izmantošanu, piemēram, personas, kas dzīvo galējā nabadzībā, etniskās vai reliģiskās minoritātes. Šādas MI sistēmas var laist tirgū, nodot ekspluatācijā vai lietot ar mērķi vai sekām – būtiska personas uzvedības iespaidošana – un tā, ka tiek nodarīts vai var pamatoti uzskatīt, ka var tikt nodarīts būtisks kaitējums minētajai vai kādai citai personai vai personu grupām, tostarp kaitējums, kas var tikt uzkrāts laika gaitā, un tāpēc tās būtu jāaizliedz. Pieņemt, ka nodoms ir iespaidot uzvedību, var būt neiespējami, ja iespaidošana izriet no faktoriem, kas nav saistīti ar MI sistēmu un ir ārpus nodrošinātāja vai uzturētāja kontroles, proti, faktoriem, kurus pamatoti nevar paredzēt un kurus tādēļ MI sistēmas nodrošinātājs vai uzturētājs nevar mazināt. Jebkurā gadījumā nodrošinātājam vai uzturētājam nav noteikti jābūt nodomam radīt būtisku kaitējumu, ar noteikumu, ka šāds kaitējums izriet no manipulatīvas vai ekspluatatīvas MI iespējotas prakses. Šādas MI prakses aizliegumi papildina Eiropas Parlamenta un Padomes Direktīvā 2005/29/EK (17) ietvertos noteikumus, jo īpaši to, ka negodīga komercprakse, kas rada ekonomisku vai finansiālu kaitējumu patērētājiem, jebkuros apstākļos ir aizliegta neatkarīgi no tā, vai tā tiek īstenota ar MI sistēmām vai citādi. Šajā regulā noteiktajiem manipulatīvas un ekspluatatīvas prakses aizliegumiem nebūtu jāietekmē likumīga prakse medicīniskās aprūpes kontekstā, piemēram, garīgas slimības psiholoģiska ārstēšana vai fiziska rehabilitācija, ja minētā prakse tiek veikta saskaņā ar piemērojamiem tiesību aktiem un medicīniskajiem standartiem, piemēram, ar personu vai to juridisko pārstāvju nepārprotamu piekrišanu. Turklāt vispārpieņemta un leģitīma komercprakse, piemēram, reklāmas jomā, kas atbilst piemērojamiem tiesību aktiem, pati par sevi nebūtu jāuzskata par kaitīgu manipulatīvu MI iespējotu praksi.
(30)
Należy zakazać stosowania systemów kategoryzacji biometrycznej, które opierają się na danych biometrycznych osób fizycznych, takich jak twarz lub odciski palców danej osoby, w celu wydedukowania lub wywnioskowania informacji na temat opinii politycznych, przynależności do związków zawodowych, przekonań religijnych lub filozoficznych, rasy, życia seksualnego lub orientacji seksualnej danej osoby. Zakaz ten nie powinien obejmować zgodnego z prawem etykietowania, filtrowania lub kategoryzacji zbiorów danych biometrycznych, pozyskanych zgodnie z prawem Unii lub prawem krajowym, według danych biometrycznych, takiego jak sortowanie obrazów według koloru włosów lub koloru oczu, które można na przykład wykorzystać w obszarze ścigania przestępstw.
(30)
Būtu jāaizliedz biometriskās kategorizācijas sistēmas, kuru pamatā ir fizisku personu biometriskie dati, piemēram, personas seja vai pirkstu nospiedumi, lai atvedinātu vai izsecinātu personas politiskos uzskatus, dalību arodbiedrībās, reliģisko vai filozofisko pārliecību, rasi, dzimumdzīvi vai seksuālo orientāciju. Minētajam aizliegumam nebūtu jāattiecas uz tādu biometrisko datu kopu likumīgu marķēšanu, filtrēšanu vai kategorizēšanu, kas iegūtas saskaņā ar Savienības vai valsts tiesību aktiem attiecībā uz biometriskajiem datiem, piemēram, attēlu šķirošanu pēc matu krāsas vai acu krāsas, ko var izmantot, piemēram, tiesībaizsardzības jomā.
(31)
Systemy AI, które umożliwiają prowadzenie przez podmioty publiczne lub prywatne scoringu społecznego, mogą prowadzić do wyników stanowiących dyskryminację i do wykluczenia pewnych grup. Mogą one naruszać prawo do godności i niedyskryminacji oraz wartości, jakimi są równość i sprawiedliwość. Takie systemy AI oceniają lub klasyfikują osoby fizyczne lub grupy osób fizycznych na podstawie wielu punktów danych dotyczących ich zachowań społecznych w wielu kontekstach lub na podstawie znanych, wywnioskowanych lub przewidywanych cech osobistych lub cech osobowości w określonych przedziałach czasowych. Scoring społeczny uzyskany w rezultacie działania takich systemów AI może prowadzić do krzywdzącego lub niekorzystnego traktowania osób fizycznych lub całych grup osób fizycznych w kontekstach społecznych, które nie są związane z kontekstem, w którym pierwotnie wygenerowano lub zgromadzono dane, lub do krzywdzącego traktowania, które jest nieproporcjonalne lub nieuzasadnione w stosunku do wagi ich zachowań społecznych. Należy zatem zakazać systemów AI, w których stosuje się takie niedopuszczalne praktyki scoringu, które przynoszą takie krzywdzące lub niekorzystne wyniki. Zakaz ten nie powinien mieć wpływu na zgodne z prawem praktyki oceny osób fizycznych, które są stosowane w konkretnym celu zgodnie z prawem Unii i prawem krajowym.
(31)
MI sistēmas, ar ko publiski vai privāti dalībnieki nodrošina fizisko personu sociālo novērtēšanu, var radīt diskriminējošus iznākumus un dažu grupu atstumtību. Tās var pārkāpt tiesības uz cieņu un nediskriminēšanu un līdztiesības un tiesiskuma vērtības. Šādas MI sistēmas izvērtē vai klasificē fiziskas personas vai personu grupas noteiktā laikposmā, pamatojoties uz vairākiem datu punktiem, kas saistīti ar to sociālo uzvedību dažādos kontekstos vai zināmām, izsecinātām vai prognozētām personas vai personības īpašībām. Šādu MI sistēmu radītais sociālā novērtējuma rezultāts var izraisīt kaitējošu vai nelabvēlīgu attieksmi pret fiziskām personām vai veselām fizisku personu grupām sociālos kontekstos, kas nav saistīti ar to kontekstu, kurā dati tika sākotnēji ģenerēti vai savākti, vai kaitējošu attieksmi, kas nav pamatota vai samērīga ar personu sociālās uzvedības “smagumu”. Tāpēc MI sistēmas, kas ietver šādu nepieņemamu vērtēšanas praksi un rada šādus kaitīgus vai nelabvēlīgus rezultātus, būtu jāaizliedz. Minētajam aizliegumam nebūtu jāietekmē fizisku personu likumīga novērtēšanas prakse, ko īsteno konkrētā nolūkā saskaņā ar Savienības vai valsts tiesību aktiem.
(32)
Wykorzystanie systemów AI do zdalnej identyfikacji biometrycznej osób fizycznych w czasie rzeczywistym w przestrzeni publicznej w celu ścigania przestępstw szczególnie ingeruje w prawa i wolności zainteresowanych osób, do tego stopnia że może ono wpływać na życie prywatne dużej części społeczeństwa, wywoływać poczucie stałego nadzoru i pośrednio zniechęcać do korzystania z wolności zgromadzeń i innych praw podstawowych. Techniczne niedokładności systemów AI przeznaczonych do zdalnej identyfikacji biometrycznej osób fizycznych mogą prowadzić do nieobiektywnych wyników i wywoływać skutki w postaci dyskryminacji. Takie ewentualne nieobiektywne wyniki i skutki w postaci dyskryminacji są szczególnie istotne w odniesieniu do wieku, pochodzenia etnicznego, rasy, płci lub niepełnosprawności. Ponadto bezpośredniość oddziaływania i ograniczone możliwości późniejszej kontroli lub korekty wykorzystania takich systemów działających w czasie rzeczywistym niosą ze sobą zwiększone ryzyko dla praw i wolności osób zainteresowanych w związku z działaniami organów ścigania lub na które działania te miały wpływ.
(32)
MI sistēmu lietošana fizisku personu reāllaika biometriskajai tālidentifikācijai publiski piekļūstamās vietās tiesībaizsardzības nolūkos ir īpaši aizskarošu attiecībā uz konkrēto personu tiesībām un brīvībām, ciktāl tā var ietekmēt lielas sabiedrības daļas privāto dzīvi, izraisīt pastāvīgas novērošanas sajūtu un netieši atturēt no pulcēšanās brīvības un citu pamattiesību īstenošanas. Fizisku personu biometriskajai tālidentifikācijai paredzētu MI sistēmu tehniskās neprecizitātes var novest pie neobjektīviem rezultātiem un radīt diskriminējošas sekas. Šādi iespējami neobjektīvi rezultāti un diskriminējošas sekas ir īpaši saistīti ar vecumu, etnisko piederību, rasi, dzimumu vai invaliditāti. Turklāt tūlītējā ietekme un ierobežotas iespējas veikt turpmākas pārbaudes vai labojumus attiecībā uz šādu reāllaikā darbojošos sistēmu lietošanu rada pastiprinātu risku attiecīgo personu tiesībām un brīvībām tiesībaizsardzības darbību vai to ietekmes kontekstā.
(33)
Wykorzystanie tych systemów w celu ścigania przestępstw powinno zatem być zabronione, z wyjątkiem wyczerpującej listy wąsko zdefiniowanych sytuacji, w których wykorzystanie to jest bezwzględnie konieczne do realizacji istotnego interesu publicznego, którego waga przeważa nad ryzykiem. Sytuacje te obejmują poszukiwanie określonych ofiar przestępstw, w tym osób zaginionych; zapobieganie niektórym zagrożeniom życia lub bezpieczeństwa fizycznego osób fizycznych lub atakowi terrorystycznemu; oraz lokalizowanie lub identyfikowanie sprawców przestępstw lub podejrzanych o popełnienie przestępstw wymienionych w załączniku do niniejszego rozporządzenia, w przypadku gdy przestępstwa te podlegają w danym państwie członkowskim karze pozbawienia wolności lub środkowi polegającemu na pozbawieniu wolności przez okres, którego górna granica wynosi co najmniej cztery lata, zgodnie z ich definicją w prawie tego państwa członkowskiego. Taki próg kary pozbawienia wolności lub środka polegającego na pozbawieniu wolności zgodnie z prawem krajowym pozwala zapewnić, aby przestępstwo było na tyle poważne, by potencjalnie uzasadniać wykorzystanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym. Ponadto wykaz przestępstw przedstawiony w załączniku do niniejszego rozporządzenia opiera się na 32 przestępstwach wymienionych w decyzji ramowej Rady 2002/584/WSiSW (18), biorąc pod uwagę, że niektóre z tych przestępstw mogą w praktyce mieć większe znaczenie niż inne, ponieważ można przewidzieć, że korzystanie ze zdalnej identyfikacji biometrycznej w czasie rzeczywistym może być w bardzo różnym stopniu konieczne i proporcjonalne do praktycznych celów lokalizowania lub identyfikowania sprawcy poszczególnych wymienionych przestępstw lub podejrzanego o popełnienie tych przestępstw, przy uwzględnieniu prawdopodobnych różnic w odniesieniu do powagi, prawdopodobieństwa i skali szkody lub ewentualnych negatywnych konsekwencji. Bezpośrednie zagrożenie życia lub bezpieczeństwa fizycznego osób fizycznych może również wynikać z poważnego zakłócenia funkcjonowania infrastruktury krytycznej zdefiniowanej w art. 2 pkt 4 dyrektywy Parlamentu Europejskiego i Rady (UE) 2022/2557 (19), w przypadku gdy zakłócenie lub zniszczenie takiej infrastruktury krytycznej spowodowałoby bezpośrednie zagrożenie życia lub bezpieczeństwa fizycznego osoby, w tym poprzez poważną szkodę w dostarczaniu podstawowych dostaw dla ludności lub w wykonywaniu podstawowych funkcji państwa. Ponadto niniejsze rozporządzenie powinno utrzymać możliwość przeprowadzania przez organy ścigania, organy kontroli granicznej, organy imigracyjne lub organy azylowe kontroli tożsamości w obecności danej osoby zgodnie z warunkami określonymi w prawie Unii i prawie krajowym w odniesieniu do takich kontroli. W szczególności organy ścigania, organy kontroli granicznej, organy imigracyjne lub organy azylowe powinny mieć możliwość korzystania z systemów informacyjnych, zgodnie z prawem Unii lub prawem krajowym, w celu zidentyfikowania osób, które podczas kontroli tożsamości odmawiają identyfikacji lub nie są w stanie podać lub dowieść swojej tożsamości – bez konieczności uzyskiwania uprzedniego zezwolenia na podstawie niniejszego rozporządzenia. Może to na przykład dotyczyć osoby mającej związek z przestępstwem, która nie chce lub – w wyniku wypadku lub z powodu stanu zdrowia – nie jest w stanie ujawnić swojej tożsamości organom ścigania.
(33)
Tāpēc minēto sistēmu izmantošana tiesībaizsardzības nolūkos būtu jāaizliedz, izņemot izsmeļoši uzskaitītas un šauri definētas situācijas, kurās sistēmu izmantošana ir absolūti nepieciešama tādu būtisku sabiedrības interešu īstenošanai, kuru nozīme atsver riskus. Minētās situācijas ietver konkrētu noziegumos cietušo, tostarp pazudušu personu, meklēšanu; konkrētus draudus fizisku personu dzīvībai vai fiziskajai drošībai vai teroristu uzbrukuma draudus; un šīs regulas pielikumā uzskaitīto noziedzīgo nodarījumu izdarītāju vai aizdomās turēto atrašanās vietas noteikšanu vai identificēšanu, ja par minētajiem noziedzīgajiem nodarījumiem attiecīgajā dalībvalstī saskaņā ar minētās dalībvalsts tiesību aktiem ir paredzēts brīvības atņemšanas sods vai ar brīvības atņemšanu saistīts drošības līdzeklis, kura maksimālais ilgums ir vismaz četri gadi. Šāda robežvērtība brīvības atņemšanas sodam vai ar brīvības atņemšanu saistītam drošības līdzeklim saskaņā ar valsts tiesību aktiem palīdz nodrošināt to, ka noziedzīgajam nodarījumam vajadzētu būt pietiekami smagam, lai potenciāli pamatotu reāllaika biometriskās tālidentifikācijas sistēmas lietošanu. Turklāt noziedzīgo nodarījumu, kas paredzēti šīs regulas pielikumā, pamatā ir 32 Padomes Pamatlēmumā 2002/584/TI (18) uzskaitīti noziedzīgi nodarījumi, ņemot vērā, ka daži no minētajiem nodarījumiem praksē, iespējams, būs būtiskāki nekā citi, proti, paredzams, ka reāllaika biometriskās tālidentifikācijas sistēmas lietošana varētu būt nepieciešama un samērīga ļoti atšķirīgā pakāpē atkarībā no praktiskajām darbībām dažādo uzskaitīto noziedzīgo nodarījumu izdarītāja vai aizdomās turētā atrašanās vietas noteikšanai vai identificēšanai, ņemot vērā iespējamās atšķirības kaitējuma smaguma, iespējamības un apmēra vai iespējamo negatīvo seku ziņā. Nenovēršamus draudus fizisku personu dzīvībai vai fiziskajai drošībai varētu radīt arī Eiropas Parlamenta un Padomes Direktīvas (ES) 2022/2557 (19) 2. panta 4. punktā definētās kritiskās infrastruktūras nopietni traucējumi, ja šādas kritiskās infrastruktūras traucējumu vai iznīcināšanas rezultātā nenovēršami tiktu apdraudēta personas dzīvība vai fiziskā drošība, tostarp, nopietni kaitējot pamatapgādes nodrošināšanai iedzīvotājiem vai valsts pamatfunkciju īstenošanai. Papildus tam šajā regulā būtu jāsaglabā tiesībaizsardzības, robežkontroles, imigrācijas vai patvēruma iestādēm iespēja attiecīgās personas klātbūtnē veikt identitātes pārbaudes saskaņā ar nosacījumiem, kas attiecībā uz šādām pārbaudēm paredzēti Savienības un valsts tiesību aktos. Jo īpaši tiesībaizsardzības, robežkontroles, imigrācijas vai patvēruma iestādēm vajadzētu būt iespējai lietot informācijas sistēmas saskaņā ar Savienības vai valsts tiesību aktiem, lai identificētu personas, kuras identitātes pārbaudes laikā vai nu atsakās tikt identificētas, vai nespēj norādīt vai apliecināt savu identitāti, un šajā regulā tām nebūtu jāparedz prasība saņemt iepriekšēju atļauju. Tā varētu būt, piemēram, noziedzīgā nodarījumā iesaistīta persona, kas nevēlas atklāt savu identitāti tiesībaizsardzības iestādēm vai to nespēj negadījuma vai medicīniska stāvokļa dēļ.
(34)
W celu zapewnienia, aby systemy te były wykorzystywane w sposób odpowiedzialny i proporcjonalny, należy również zastrzec, że w każdej z tych wąsko zdefiniowanych sytuacji z wyczerpującej listy należy uwzględniać pewne elementy, w szczególności charakter sytuacji, która skutkowała złożeniem wniosku, wpływ wykorzystania takich systemów na prawa i wolności wszystkich zainteresowanych osób, a także zabezpieczenia i warunki przewidziane na potrzeby wykorzystania takich systemów. Ponadto wykorzystanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej w celu ścigania przestępstw powinno mieć miejsce jedynie, by potwierdzić tożsamość konkretnej poszukiwanej osoby, i nie powinno wykraczać poza to, co jest bezwzględnie konieczne w odniesieniu do przedziału czasowego, a także zakresu geograficznego i podmiotowego, z uwzględnieniem w szczególności dowodów lub wskazówek dotyczących zagrożeń, ofiar lub sprawcy. Wykorzystanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej powinno być dozwolone tylko wtedy, gdy odpowiedni organ ścigania przeprowadził ocenę skutków dla praw podstawowych oraz, o ile niniejsze rozporządzenie nie stanowi inaczej, zarejestrował system w bazie danych, jak określono w niniejszym rozporządzeniu. Referencyjna baza danych osób powinna być odpowiednia dla każdego przypadku wykorzystania w każdej z wyżej wymienionych sytuacji.
(34)
Lai nodrošinātu, ka minētās sistēmas tiek lietotas atbildīgi un samērīgi, ir svarīgi arī noteikt, ka katrā no izsmeļoši uzskaitītajām un šauri definētajām situācijām būtu jāņem vērā daži elementi, it īpaši situācijas raksturs, kurš pamato sistēmas lietošanu, lietošanas ietekme uz visu attiecīgo personu tiesībām un brīvībām, un saistībā ar lietošanu paredzētie aizsardzības pasākumi un nosacījumi. Turklāt reāllaika biometriskās tālidentifikācijas sistēmu lietošana publiski piekļūstamās vietās tiesībaizsardzības nolūkos būtu jāizvērš tikai, lai apstiprinātu konkrētas personas identitāti, un tai būtu jānotiek tikai tiktāl, cik tas ir absolūti nepieciešams laikposma, kā arī ģeogrāfiskā un personiskā tvēruma ziņā, jo īpaši, ņemot vērā pierādījumus vai norādes par draudiem, cietušajiem vai nodarījuma izdarītāju. Reāllaika biometriskās tālidentifikācijas sistēmu lietošana publiski piekļūstamās vietās būtu jāatļauj vienīgi tad, ja attiecīgā tiesībaizsardzības iestāde ir pabeigusi novērtējumu par ietekmi uz pamattiesībām un, ja vien šajā regulā nav paredzēts citādi, ir reģistrējusi sistēmu datubāzē, kā noteikts šajā regulā. Personu atsauces datubāzei vajadzētu būt piemērotai katram lietošanas gadījumam katrā no iepriekš minētajām situācijām.
(35)
Każde wykorzystanie systemu zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej w celu ścigania przestępstw powinno wymagać wyraźnego i szczególnego zezwolenia wydanego przez organ wymiaru sprawiedliwości lub niezależny organ administracyjny państwa członkowskiego, którego decyzje są wiążące. Takie zezwolenie należy co do zasady uzyskać przed wykorzystaniem systemu AI w celu zidentyfikowania osoby lub osób. Wyjątki od tej zasady powinny być dozwolone w należycie uzasadnionych sytuacjach nadzwyczajnych, to znaczy w sytuacjach, w których potrzeba wykorzystania danego systemu jest na tyle duża, że uzyskanie zezwolenia przed rozpoczęciem korzystania z tego systemu AI jest faktycznie i obiektywnie niemożliwe. W takich sytuacjach nadzwyczajnych wykorzystanie systemu AI powinno być ograniczone do bezwzględnie niezbędnego minimum i powinno podlegać odpowiednim zabezpieczeniom i warunkom określonym w prawie krajowym i sprecyzowanym przez sam organ ścigania w kontekście każdego przypadku nadzwyczajnego wykorzystania. Ponadto organ ścigania powinien w takich sytuacjach wystąpić o takie zezwolenie, podając powody, dla których nie był w stanie wystąpić o nie wcześniej, bez zbędnej zwłoki i nie później niż w ciągu 24 godzin. W przypadku odmowy udzielenia takiego zezwolenia wykorzystywanie systemów identyfikacji biometrycznej w czasie rzeczywistym powiązanych z tym zezwoleniem powinno zostać wstrzymane ze skutkiem natychmiastowym, a wszystkie dane związane z takim wykorzystaniem powinny zostać odrzucone i usunięte. Dane takie obejmują dane wejściowe uzyskane bezpośrednio przez system AI w trakcie korzystania z takiego systemu, a także związane z tym zezwoleniem rezultaty i wyniki uzyskane podczas tego wykorzystania. Powyższe nie powinno mieć zastosowania do danych wejściowych uzyskanych legalnie zgodnie z innymi przepisami prawa Unii lub prawa krajowego. W każdym przypadku żadnej decyzji wywołującej niepożądane skutki prawne dla osoby nie należy podejmować wyłącznie na podstawie wyników uzyskanych z systemu zdalnej identyfikacji biometrycznej.
(35)
Katram reāllaika biometriskās tālidentifikācijas sistēmas lietošanas gadījumam publiski piekļūstamās vietās tiesībaizsardzības nolūkos vajadzētu saņemt skaidru un konkrētu atļauju no tiesu iestādes vai dalībvalsts neatkarīgas administratīvās iestādes, kuras lēmums ir saistošs. Šāda atļauja principā būtu jāsaņem pirms MI sistēmas lietošanas personas vai personu identificēšanai. Izņēmumi no minētā noteikuma būtu pieļaujami pienācīgi pamatotās situācijās steidzamu iemeslu dēļ, proti, situācijās, kurās nepieciešamība lietot attiecīgās sistēmas padara atļaujas iegūšanu pirms MI sistēmas lietošanas sākšanas faktiski un objektīvi neiespējamu. Šādās steidzamās situācijās MI sistēmas lietošanai būtu jāaprobežojas ar absolūti nepieciešamo minimumu un uz to būtu jāattiecina pienācīgi aizsardzības pasākumi un nosacījumi, kā to nosaka valsts tiesību akti un katra atsevišķa steidzamas lietošanas gadījuma kontekstā precizē pati tiesībaizsardzības iestāde. Turklāt tiesībaizsardzības iestādei šādās situācijās bez liekas kavēšanās un ne vēlāk kā 24 stundu laikā būtu jāpieprasa šāda atļauja, vienlaikus norādot iemeslus, kāpēc tā nav varējusi to pieprasīt agrāk. Ja šāda atļauja tiek noraidīta, būtu nekavējoties jāpārtrauc lietot reāllaika biometriskās identifikācijas sistēmas, kas saistītas ar minēto atļauju, un visi dati, kas saistīti ar šādu lietošanu, būtu jāatmet un jādzēš. Šādi dati ietver ievades datus, ko MI sistēma tieši ieguvusi šādas sistēmas lietošanas gaitā, kā arī ar minēto atļauju saistītās lietošanas rezultātus un iznākumus. Tam nebūtu jāiekļauj ievades dati, kas likumīgi iegūti saskaņā ar citiem Savienības vai valsts tiesību aktiem. Jebkurā gadījumā neviens lēmums, kas personai rada nelabvēlīgas tiesiskas sekas, nebūtu jāpieņem, balstoties vienīgi uz biometriskās tālidentifikācijas sistēmas iznākumu.
(36)
Aby umożliwić odpowiednim organom nadzoru rynku i krajowym organom ochrony danych wykonywanie ich zadań zgodnie z wymogami ustanowionymi w niniejszym rozporządzeniu oraz w przepisach krajowych, należy powiadamiać je o każdym wykorzystaniu systemu identyfikacji biometrycznej w czasie rzeczywistym. Organy nadzoru rynku i krajowe organy ochrony danych, które otrzymały powiadomienie, powinny przedkładać Komisji roczne sprawozdanie na temat wykorzystania systemów identyfikacji biometrycznej w czasie rzeczywistym.
(36)
Lai attiecīgā tirgus uzraudzības iestāde un valstu datu aizsardzības iestāde varētu pildīt savus uzdevumus saskaņā ar šajā regulā un valsts noteikumos paredzētajām prasībām, tās būtu jāinformē par katru reāllaika biometriskās identifikācijas sistēmas lietošanas gadījumu. Valstu tirgus uzraudzības iestādēm un valsts datu aizsardzības iestādēm, kuras ir informētas, būtu jāiesniedz Komisijai gada ziņojums par reāllaika biometriskās identifikācijas sistēmu lietošanu.
(37)
Ponadto należy zapewnić, z zastosowaniem wyczerpujących ram określonych w niniejszym rozporządzeniu, aby takie wykorzystanie na terytorium państwa członkowskiego zgodnie z niniejszym rozporządzeniem było możliwe tylko wówczas, gdy – i w zakresie, w jakim – dane państwo członkowskie postanowiło wyraźnie przewidzieć możliwość zezwolenia na takie wykorzystanie w swoich szczegółowych przepisach prawa krajowego. W związku z tym państwa członkowskie mogą na mocy niniejszego rozporządzenia w ogóle nie przewidywać takiej możliwości lub przewidzieć ją jedynie w odniesieniu do niektórych celów mogących uzasadniać dozwolone wykorzystanie, określonych w niniejszym rozporządzeniu. Komisja powinna zostać powiadomiona o takich przepisach krajowych w terminie 30 dni od ich przyjęcia.
(37)
Turklāt šīs regulas izveidotajā izsmeļošajā regulējumā ir lietderīgi noteikt, ka minētajai lietošanai dalībvalsts teritorijā saskaņā ar šo regulu vajadzētu būt iespējamai tikai, ja un ciktāl attiecīgā dalībvalsts ir nolēmusi savos sīki izstrādātajos valsts tiesību aktu noteikumos skaidri paredzēt iespēju atļaut šādu lietošanu. Tādējādi šī regula dalībvalstīm ļauj neparedzēt šādu iespēju nemaz vai paredzēt to tikai attiecībā uz dažiem mērķiem, ar kuriem var pamatot šajā regulā noteikto atļauto lietošanu. Šādi valsts noteikumi būtu jāpaziņo Komisijai 30 dienu laikā pēc to pieņemšanas.
(38)
Wykorzystanie systemów AI do zdalnej identyfikacji biometrycznej osób fizycznych w czasie rzeczywistym w przestrzeni publicznej w celu ścigania przestępstw nieuchronnie wiąże się z przetwarzaniem danych biometrycznych. Przepisy niniejszego rozporządzenia zakazujące, z zastrzeżeniem pewnych wyjątków, takiego wykorzystywania, a których podstawę stanowi art. 16 TFUE, powinny mieć zastosowanie jako lex specialis w odniesieniu do przepisów dotyczących przetwarzania danych biometrycznych zawartych w art. 10 dyrektywy (UE) 2016/680, regulując tym samym w sposób wyczerpujący takie wykorzystywanie i przetwarzanie wspomnianych danych biometrycznych. W związku z tym takie wykorzystywanie i przetwarzanie powinno być możliwe wyłącznie w zakresie, w jakim jest zgodne z ramami określonymi w niniejszym rozporządzeniu, przy czym wykorzystywanie takich systemów i przetwarzanie takich danych przez właściwe organy – gdy działają w celu ścigania przestępstw – w oparciu o przesłanki wymienione w art. 10 dyrektywy (UE) 2016/680 może mieć miejsce wyłącznie w granicach wyznaczonych przez te ramy. W tym kontekście niniejsze rozporządzenie nie ma na celu ustanowienia podstawy prawnej do przetwarzania danych osobowych na podstawie art. 8 dyrektywy (UE) 2016/680. Wykorzystywanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów innych niż ściganie przestępstw, w tym przez właściwe organy, nie powinno być jednak objęte szczególnymi ramami dotyczącymi takiego wykorzystywania w celu ścigania przestępstw, określonymi w niniejszym rozporządzeniu. Takie wykorzystywanie do celów innych niż ściganie przestępstw nie powinno zatem podlegać wymogowi uzyskania zezwolenia na mocy niniejszego rozporządzenia ani obowiązującym szczegółowym przepisom prawa krajowego, które mogą stanowić podstawę ubiegania się o takie zezwolenie.
(38)
MI sistēmu lietošana fizisku personu reāllaika biometriskajai tālidentifikācijai publiski piekļūstamās vietās tiesībaizsardzības nolūkos neizbēgami ietver biometrisko datu apstrādi. Šīs regulas noteikumi, kas aizliedz (ar dažiem izņēmumiem) šādu lietošanu un pamatojas uz LESD 16. pantu, būtu jāpiemēro kā lex specialis attiecībā uz Direktīvas (ES) 2016/680 10. panta noteikumiem par biometrisko datu apstrādi, tādējādi izsmeļoši regulējot šādu lietošanu un ar to saistīto biometrisko datu apstrādi. Tāpēc šādai lietošanai un datu apstrādei vajadzētu būt iespējamai tikai, ciktāl tā ir saderīga ar šajā regulā noteikto satvaru, bez darbības jomas ārpus minētā satvara, kurā kompetentās iestādes, rīkojoties tiesībaizsardzības nolūkā, varētu lietot šādas sistēmas un apstrādāt šādus datus saistībā ar tām, pamatojoties uz Direktīvas (ES) 2016/680 10. pantā uzskaitītajiem iemesliem. Minētajā kontekstā šī regula nav paredzēta juridiskā pamata nodrošināšanai Direktīvas (ES) 2016/680 8. pantā noteiktajai personas datu apstrādei. Tomēr reāllaika biometriskās tālidentifikācijas sistēmu lietošana publiski piekļūstamās vietās nolūkos, kas nav tiesībaizsardzība, tostarp no kompetento iestāžu puses, nebūtu jāiekļauj šajā regulā noteiktajā konkrētajā regulējumā attiecībā uz šādu lietošanu tiesībaizsardzības nolūkos. Tāpēc šajā regulā noteiktā prasība saņemt atļauju un piemērojamie sīki izstrādātie valsts tiesību aktu noteikumi, kas minēto atļauju var ieviest, nebūtu jāattiecina uz šādu lietošanu nolūkos, kas nav tiesībaizsardzība.
(39)
Wszelkie przetwarzanie danych biometrycznych i innych danych osobowych związane z wykorzystaniem systemów AI do identyfikacji biometrycznej, inne niż w związku z wykorzystywaniem systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej w celu ścigania przestępstw zgodnie z przepisami niniejszego rozporządzenia, powinno pozostawać zgodne z wymogami wynikającymi z art. 10 dyrektywy (UE) 2016/680. Do celów innych niż ściganie przestępstw art. 9 ust. 1 rozporządzenia (UE) 2016/679 i art. 10 ust. 1 rozporządzenia (UE) 2018/1725 zakazują przetwarzania danych biometrycznych z uwzględnieniem ograniczonej liczby wyjątków określonych w tych artykułach. W ramach stosowania art. 9 ust. 1 rozporządzenia (UE) 2016/679 wykorzystywanie zdalnej identyfikacji biometrycznej do celów innych niż ściganie przestępstw było już przedmiotem decyzji zakazujących takiego wykorzystywania, wydawanych przez krajowe organy ochrony danych.
(39)
Biometrisko datu un citu personas datu apstrādei saistībā ar MI sistēmu lietošanu biometriskajai identifikācijai, kas nav saistīta ar reāllaika biometriskās tālidentifikācijas sistēmu lietošanu publiski piekļūstamās vietās tiesībaizsardzības nolūkos, kā to reglamentē šī regula, arī turpmāk būtu jāatbilst visām prasībām, kas izriet no Direktīvas (ES) 2016/680 10. panta. Nolūkos, kas nav tiesībaizsardzība, Regulas (ES) 2016/679 9. panta 1. punkts un Regulas (ES) 2018/1725 10. panta 1. punkts aizliedz biometrisko datu apstrādi, ievērojot minētajos pantos paredzētos ierobežotos izņēmumus. Piemērojot Regulas (ES) 2016/679 9. panta 1. punktu, uz biometriskās tālidentifikācijas lietošanu nolūkos, kas nav tiesībaizsardzība, jau attiecās valsts datu aizsardzības iestāžu lēmumi par aizliegšanu.
(40)
Zgodnie z art. 6a Protokołu nr 21 w sprawie stanowiska Zjednoczonego Królestwa i Irlandii w odniesieniu do przestrzeni wolności, bezpieczeństwa i sprawiedliwości, załączonego do TUE i TFUE, Irlandia nie jest związana przepisami ustanowionymi w art. 5 ust. 1 akapit pierwszy lit. g) – w takim zakresie, w jakim dotyczy on wykorzystania systemów kategoryzacji biometrycznej w odniesieniu do działań w obszarze współpracy policyjnej i współpracy wymiarów sprawiedliwości w sprawach karnych, w art. 5 ust. 1 akapit pierwszy lit. d) – w takim zakresie, w jakim dotyczy on wykorzystania systemów AI objętych tym przepisem, w art. 5 ust. 1 akapit pierwszy lit. h), art. 5 ust. 2–6 i art. 26 ust. 10 niniejszego rozporządzenia przyjętymi na podstawie art. 16 TFUE, dotyczącymi przetwarzania danych osobowych przez państwa członkowskie w wykonywaniu działań wchodzących w zakres stosowania części trzeciej tytuł V rozdziały 4 lub 5 TFUE, jeśli Irlandia nie jest związana przepisami Unii w dziedzinie współpracy wymiarów sprawiedliwości w sprawach karnych lub współpracy policyjnej, w ramach której należy zapewnić zgodność z przepisami ustanowionymi na podstawie art. 16 TFUE.
(40)
Saskaņā ar 6.a pantu LES un LESD pievienotajā Protokolā Nr. 21 par Apvienotās Karalistes un Īrijas nostāju saistībā ar brīvības, drošības un tiesiskuma telpu Īrijai nav saistoši noteikumi, kas paredzēti šīs regulas 5. panta 1. punkta pirmās daļas g) apakšpunktā, ciktāl to piemēro biometriskās kategorizācijas sistēmu lietošanai saistībā ar darbībām policijas un tiesu iestāžu sadarbībā krimināllietās, 5. panta 1. punkta pirmās daļas d) apakšpunktā, ciktāl tos piemēro MI sistēmu lietošanai, uz ko minētais noteikums attiecas, 5. panta 1. punkta pirmās daļas h) apakšpunktā, 5. panta 2. līdz 6. punktā un 26. panta 10. punktā un kas pieņemti, pamatojoties uz Līguma par Eiropas Savienības darbību 16. pantu, un skar personas datu apstrādi dalībvalstīs, veicot darbības, uz ko attiecas LESD Trešās daļas V sadaļas 4. vai 5. nodaļas darbības joma, ja Īrijai nav saistoši noteikumi, ar ko reglamentē veidus tiesu iestāžu sadarbībai krimināllietās vai policijas sadarbības veidus, sakarā ar kuriem ir jāievēro noteikumi, kas paredzēti, pamatojoties uz LESD 16. pantu.
(41)
Zgodnie z art. 2 i 2a Protokołu nr 22 w sprawie stanowiska Danii, załączonego do TUE i TFUE, Dania nie jest związana przepisami określonymi w art. 5 ust. 1 akapit pierwszy lit. g) – w takim zakresie, w jakim dotyczy on wykorzystania systemów kategoryzacji biometrycznej w odniesieniu do działań w obszarze współpracy policyjnej i współpracy wymiarów sprawiedliwości w sprawach karnych, w art. 5 ust. 1 akapit pierwszy lit. d) – w takim zakresie, w jakim dotyczy on wykorzystania systemów AI objętych tym przepisem, w art. 5 ust. 1 lit. h), art. 5 ust. 2–6 i art. 26 ust. 10 niniejszego rozporządzenia przyjętymi na podstawie art. 16 TFUE, które dotyczą przetwarzania danych osobowych przez państwa członkowskie w wykonywaniu działań wchodzących w zakres zastosowania części trzeciej tytuł V rozdziały 4 lub 5 TFUE, ani przepisy te nie mają do niej zastosowania.
(41)
Saskaņā ar 2. un 2.a pantu LES un LESD pievienotajā Protokolā Nr. 22 par Dānijas nostāju Dānijai nav saistoši un nav jāpiemēro noteikumi, kas paredzēti šīs regulas 5. panta 1. punkta pirmās daļas g) apakšpunktā, ciktāl to piemēro biometriskās kategorizācijas sistēmu lietošanai saistībā ar darbībām policijas un tiesu iestāžu sadarbībā krimināllietās, 5. panta 1. punkta pirmās daļas d) apakšpunktā, ciktāl tos piemēro MI sistēmu lietošanai, uz ko minētais noteikums attiecas, 5. panta 1. punkta pirmās daļas h) apakšpunktā, 2. līdz 6. punktā un 26. panta 10. punktā un kas pieņemti, pamatojoties uz Līguma par Eiropas Savienības darbību 16. pantu, un skar personas datu apstrādi dalībvalstīs, veicot darbības, uz ko attiecas LESD Trešās daļas V sadaļas 4. vai 5. nodaļas darbības joma.
(42)
Zgodnie z domniemaniem niewinności osoby fizyczne w Unii powinny być zawsze oceniane na podstawie ich faktycznego zachowania. Osoby fizyczne nigdy nie powinny być oceniane na podstawie zachowań prognozowanych przez AI wyłącznie na podstawie poddania ich profilowaniu, na podstawie ich cech osobowości lub cech charakterystycznych, takich jak narodowość, miejsce urodzenia, miejsce zamieszkania, liczba dzieci, poziom zadłużenia lub rodzaj samochodu, bez uzasadnionego podejrzenia, że osoba ta uczestniczy w działalności przestępczej w oparciu o obiektywne możliwe do zweryfikowania fakty i bez ich oceny przez człowieka. W związku z tym należy zakazać ocen ryzyka przeprowadzanych w odniesieniu do osób fizycznych w celu oceny prawdopodobieństwa popełnienia przez te osoby przestępstwa lub przewidywania wystąpienia faktycznego lub potencjalnego przestępstwa wyłącznie na podstawie przeprowadzonego wobec nich profilowania lub oceny ich cech osobistych i charakterystycznych. W każdym razie zakaz ten nie odnosi się do ani nie dotyczy analizy ryzyka, która nie opiera się na profilowaniu osób fizycznych ani na cechach osobistych i charakterystycznych osób fizycznych, w takich przypadkach jak wykorzystywanie przez systemy AI analizy ryzyka w celu oceny prawdopodobieństwa nadużyć finansowych przez przedsiębiorstwa na podstawie podejrzanych transakcji lub narzędzi analizy ryzyka w celu przewidywania przez organy celne prawdopodobnej lokalizacji środków odurzających lub nielegalnych towarów, na przykład na podstawie znanych szlaków przemytu.
(42)
Saskaņā ar nevainīguma prezumpciju fiziskas personas Savienībā vienmēr būtu jāvērtē pēc to faktiskās uzvedības. Fiziskas personas nekad nevajadzētu vērtēt pēc MI prognozētas uzvedības, pamatojoties tikai uz to profilēšanu, personiskajām īpašībām vai rakstura iezīmēm, piemēram, valstspiederību, dzimšanas vietu, dzīvesvietu, bērnu skaitu, parāda līmeni vai automobiļa veidu, ja, balstoties uz objektīviem pārbaudāmiem faktiem, nav pamatotu aizdomu par personas iesaistīšanos noziedzīgā darbībā un ja nav cilvēka veikta novērtējuma par to. Tāpēc būtu jāaizliedz riska novērtējumi, ko veic attiecībā uz fiziskām personām, lai novērtētu to nodarījuma izdarīšanas risku vai lai prognozētu faktiska vai iespējama noziedzīga nodarījuma notikšanu, pamatojoties tikai uz personu profilēšanu vai novērtējot to personiskās īpašības un rakstura iezīmes. Jebkurā gadījumā minētais aizliegums neattiecas uz riska analīzi, kas nav balstīta uz personu profilēšanu vai to personiskajām īpašībām un rakstura iezīmēm, piemēram, MI sistēmām, kas izmanto riska analīzi, lai novērtētu uzņēmumu īstenotas finanšu krāpšanas iespējamību, pamatojoties uz aizdomīgiem darījumiem, vai riska analīzes rīkus, lai prognozētu iespējamību, ka muitas dienesti, piemēram, pamatojoties uz zināmiem tirdzniecības maršrutiem, nosaka narkotiku vai nelikumīgu preču atrašanās vietu.
(43)
Należy zakazać wprowadzania do obrotu, oddawania do użytku w tym konkretnym celu lub wykorzystywania systemów AI, które tworzą lub rozbudowują bazy danych służące rozpoznawaniu twarzy poprzez nieukierunkowane pozyskiwanie (ang. untargeted scraping) wizerunków twarzy z internetu lub nagrań z telewizji przemysłowej, ponieważ praktyka ta zwiększa poczucie masowego nadzoru i może prowadzić do poważnych naruszeń praw podstawowych, w tym prawa do prywatności.
(43)
Tādu MI sistēmu laišana tirgū, nodošana ekspluatācijā minētajam konkrētajam mērķim vai lietošana, kuras izveido vai paplašina sejas atpazīšanas datubāzes, nemērķorientēti rasmojot sejas attēlus no interneta vai videonovērošanas sistēmu video, būtu jāaizliedz, jo minētā prakse pastiprina masveida novērošanas sajūtu un var izraisīt rupjus pamattiesību, tostarp tiesību uz privātumu, pārkāpumus.
(44)
Istnieją poważne obawy co do podstaw naukowych systemów AI mających na celu rozpoznawanie emocji lub wyciąganie wniosków na temat emocji, zwłaszcza że wyrażanie emocji znacznie się różni w zależności od kultur i sytuacji, a nawet w przypadku pojedynczej osoby. Wśród głównych wad takich systemów znajdują się ograniczona wiarygodność, nieprecyzyjność i ograniczona możliwość uogólnienia. W związku z tym systemy AI rozpoznające emocje lub zamiary osób fizycznych lub wyciągające wnioski na temat emocji lub zamiarów na podstawie danych biometrycznych tych osób mogą prowadzić do dyskryminacyjnych wyników i mogą naruszać prawa i wolności zainteresowanych osób. Biorąc pod uwagę brak równowagi sił w kontekście pracy lub edukacji, w połączeniu z inwazyjnym charakterem tych systemów, systemy takie mogą prowadzić do krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub całych ich grup. W związku z tym należy zakazać wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemów AI przeznaczonych do wykrywania stanu emocjonalnego osób fizycznych w sytuacjach związanych z miejscem pracy i edukacją. Zakaz ten nie powinien obejmować systemów AI wprowadzanych do obrotu wyłącznie ze względów medycznych lub bezpieczeństwa, takich jak systemy przeznaczone do użytku terapeutycznego.
(44)
Ir nopietnas bažas par tādu MI sistēmu zinātnisko pamatojumu, kuru mērķis ir identificēt vai izsecināt emocijas, jo īpaši tāpēc, ka emociju izpausmes dažādās kultūrās un situācijās un pat vienas personas gadījumā ievērojami atšķiras. Šādu sistēmu galvenie trūkumi ir ierobežotā uzticamība, specifiskuma trūkums un ierobežotā vispārināmība. Tāpēc MI sistēmas, kas identificē vai izsecina fizisku personu emocijas vai nodomus, pamatojoties uz to biometriskajiem datiem, var radīt diskriminējošus rezultātus un var aizskart attiecīgo personu tiesības un brīvības. Ņemot vērā nevienlīdzīgo spēku samēru darba vai izglītības jomā un to, ka šīs sistēmas pēc būtības ir aizskarošas, šādas sistēmas varētu izraisīt kaitējošu vai nelabvēlīgu attieksmi pret konkrētām fiziskām personām vai to grupām. Tāpēc būtu jāaizliedz tādu MI sistēmu laišana tirgū, nodošana ekspluatācijā vai lietošana, kuras paredzēts lietot, lai noteiktu personu emocionālo stāvokli situācijās, kas saistītas ar darba vietu un izglītību. Minētajam aizliegumam nebūtu jāattiecas uz MI sistēmām, kas laistas tirgū tikai un vienīgi medicīnisku vai drošības iemeslu dēļ, piemēram, uz sistēmām, kas paredzētas lietošanai terapeitiskos nolūkos.
(45)
Niniejsze rozporządzenie nie powinno mieć wpływu na praktyki, które są zakazane na mocy prawa Unii, w tym prawa o ochronie danych, prawa o niedyskryminacji, prawa o ochronie konsumentów i prawa konkurencji.
(45)
Šai regulai nevajadzētu ietekmēt praksi, kas ir aizliegta ar Savienības tiesību aktiem, tostarp tiesību aktiem datu aizsardzības, diskriminācijas novēršanas, patērētāju tiesību aizsardzības un konkurences jomā.
(46)
Systemy AI wysokiego ryzyka powinny być wprowadzane do obrotu w Unii, oddawane do użytku lub wykorzystywane wyłącznie wówczas, gdy są zgodne z określonymi obowiązkowymi wymogami. Wymogi te powinny zapewniać, aby systemy AI wysokiego ryzyka dostępne w Unii lub takie, których wyniki są w inny sposób wykorzystywane w Unii, nie stwarzały niedopuszczalnego ryzyka dla istotnych interesów publicznych Unii uznanych w prawie Unii i przez to prawo chronionych. W oparciu o nowe ramy prawne, jak wyjaśniono w zawiadomieniu Komisji „Niebieski przewodnik – wdrażanie unijnych przepisów dotyczących produktów 2022” (20), ogólna zasada stanowi, że do jednego produktu można stosować więcej niż jeden akt prawny unijnego prawodawstwa harmonizacyjnego, taki jak rozporządzenie Parlamentu Europejskiego i Rady (UE) 2017/745 (21), rozporządzenie Parlamentu Europejskiego i Rady (UE) 2017/746 (22) lub dyrektywa 2006/42/WE Parlamentu Europejskiego i Rady (23), ponieważ udostępnianie lub oddawanie do użytku może mieć miejsce tylko wtedy, gdy produkt jest zgodny z całością obowiązującego unijnego prawodawstwa harmonizacyjnego. Aby zapewnić spójność i uniknąć niepotrzebnych obciążeń administracyjnych lub kosztów, dostawcy produktu, który zawiera co najmniej jeden system AI wysokiego ryzyka, do którego stosuje się wymogi niniejszego rozporządzenia oraz unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku do niniejszego rozporządzenia, powinni mieć swobodę w zakresie decyzji operacyjnych dotyczących sposobu zapewnienia w optymalny sposób zgodności produktu zawierającego co najmniej jeden system AI ze wszystkimi mającymi zastosowanie wymogami unijnego prawodawstwa harmonizacyjnego. Jako systemy AI wysokiego ryzyka należy uznawać jedynie te systemy AI, które mają znaczący szkodliwy wpływ na zdrowie, bezpieczeństwo i prawa podstawowe osób w Unii, przy czym takie ograniczenie powinno minimalizować wszelkie potencjalne przeszkody w handlu międzynarodowym.
(46)
Augsta riska MI sistēmas būtu jālaiž Savienības tirgū, jānodod ekspluatācijā vai jālieto tikai tad, ja tās atbilst konkrētām obligātām prasībām. Minētajām prasībām būtu jānodrošina, ka augsta riska MI sistēmas, kuras pieejamas Savienībā vai kuru iznākumus citādā veidā izmanto Savienībā, nerada nepieņemamus riskus svarīgām Savienības sabiedrības interesēm, kas ir atzītas un aizsargātas Savienības tiesību aktos. Pamatojoties uz jauno tiesisko regulējumu, kas precizēts Komisijas paziņojumā ““Zilā rokasgrāmata” par ES produktu noteikumu īstenošanu 2022. gadā” (20), vispārējais noteikums ir tāds, ka vairāk nekā vienu Savienības saskaņošanas tiesību aktu, piemēram, Eiropas Parlamenta un Padomes Regulas (ES) 2017/745 (21) un (ES) 2017/746 (22) vai Eiropas Parlamenta un Padomes Direktīvu 2006/42/EK (23), var piemērot vienam produktam, jo darīt pieejamu vai nodot ekspluatācijā to var tikai tad, ja produkts atbilst visiem piemērojamiem Savienības saskaņošanas tiesību aktiem. Lai nodrošinātu konsekvenci un izvairītos no nevajadzīga administratīvā sloga vai izmaksām, tāda produkta nodrošinātājiem, kas ietver vienu vai vairākas augsta riska MI sistēmas, uz kurām attiecas šīs regulas vai šīs regulas pielikumā uzskaitīto Savienības saskaņošanas tiesību aktu prasības, vajadzētu būt elastīgiem attiecībā uz operatīviem lēmumiem par to, kā optimāli nodrošināt produkta, kas ietver vienu vai vairākas MI sistēmas, atbilstību visām piemērojamām Savienības saskaņošanas tiesību aktu prasībām. Kā augsta riska sistēmas būtu jāidentificē tikai tās MI sistēmas, kurām ir ievērojama kaitējoša ietekme uz personu veselību, drošību un pamattiesībām Savienībā, un šādam ierobežojumam būtu jāsamazina jebkādu iespējamu starptautiskās tirdzniecības ierobežojumu rašanos.
(47)
Systemy AI mogą mieć niepożądany wpływ na zdrowie i bezpieczeństwo osób, w szczególności w przypadku gdy takie systemy funkcjonują jako związane z bezpieczeństwem elementy produktów. Zgodnie z celami unijnego prawodawstwa harmonizacyjnego, polegającymi na ułatwieniu swobodnego przepływu produktów na rynku wewnętrznym oraz zapewnieniu, aby na rynek trafiały wyłącznie produkty bezpieczne i zgodne w pozostałym zakresie, istotne jest odpowiednie zapobieganie ryzyku dla bezpieczeństwa, które mogą być powodowane przez produkt jako całość ze względu na jego elementy cyfrowe, w tym systemy AI, a także ograniczanie tych zagrożeń. Na przykład coraz bardziej autonomiczne roboty, zarówno w kontekście działalności produkcyjnej, jak i świadczenia pomocy oraz opieki osobistej, powinny być w stanie bezpiecznie funkcjonować i wykonywać swoje funkcje w złożonych środowiskach. Podobnie w sektorze opieki zdrowotnej, w którym chodzi o szczególnie wysoką stawkę, jaką jest życie i zdrowie, coraz bardziej zaawansowane systemy diagnostyczne i systemy wspomagające decyzje podejmowane przez człowieka powinny być niezawodne i dokładne.
(47)
MI sistēmas varētu negatīvi ietekmēt personu veselību un drošību, jo īpaši, ja šādas sistēmas darbojas kā produktu drošības sastāvdaļas. Saskaņā ar Savienības saskaņošanas tiesību aktu mērķiem veicināt produktu brīvu apriti iekšējā tirgū un gādāt, ka tirgū nonāk tikai droši un cita veida prasībām atbilstoši produkti, ir svarīgi pienācīgi novērst un mazināt drošības riskus, kurus var radīt produkts kopumā tā digitālo sastāvdaļu, arī MI sistēmu, dēļ. Piemēram, arvien autonomākiem robotiem gan ražošanas, gan personīgās palīdzības un aprūpes kontekstā vajadzētu spēt droši darboties un veikt savas funkcijas sarežģītās vidēs. Tāpat veselības aprūpes nozarē, kur runa ir par veselību un dzīvību, arvien sarežģītākām diagnostikas sistēmām un cilvēka lēmumus atbalstošām sistēmām vajadzētu būt uzticamām un pareizām.
(48)
Przy klasyfikowaniu systemu AI jako systemu wysokiego ryzyka zasadnicze znaczenie ma to, w jakim stopniu system AI wywiera niepożądany wpływ na prawa podstawowe chronione na mocy Karty. Do praw tych należą prawo do godności człowieka, poszanowanie życia prywatnego i rodzinnego, ochrona danych osobowych, wolność wypowiedzi i informacji, wolność zgromadzania się i stowarzyszania się oraz prawo do niedyskryminacji, prawo do edukacji, ochrona konsumentów, prawa pracownicze, prawa osób z niepełnosprawnościami, równość płci, prawa własności intelektualnej, prawo do skutecznego środka prawnego i dostępu do bezstronnego sądu, prawo do obrony i domniemania niewinności, a także prawo do dobrej administracji. Oprócz tych praw należy podkreślić, że dzieciom przysługują szczególne prawa zapisane w art. 24 Karty oraz w Konwencji ONZ o prawach dziecka, szerzej rozwinięte w komentarzu ogólnym nr 25 w sprawie praw dziecka w środowisku cyfrowym zamieszczony w Konwencji ONZ o prawach dziecka, które to prawa wymagają uwzględnienia szczególnej wrażliwości dzieci oraz zapewnienia im takiej ochrony i opieki, jaka jest konieczna dla ich dobra. Podstawowe prawo do wysokiego poziomu ochrony środowiska zapisane w Karcie i wdrażane w strategiach politycznych Unii również należy uwzględnić w ocenie dotkliwości szkody, jaką może wyrządzić system AI, w tym w odniesieniu do zdrowia i bezpieczeństwa osób.
(48)
Tas, cik liela ir MI sistēmas izraisītā kaitējošā ietekme uz Hartā aizsargātajām pamattiesībām, ir īpaši svarīgi, klasificējot MI sistēmu kā augsta riska. Minētās tiesības ietver tiesības uz cilvēka cieņu, privātās un ģimenes dzīves neaizskaramību, personas datu aizsardzību, vārda un informācijas brīvību, pulcēšanās un biedrošanās brīvību, diskriminācijas aizliegumu, tiesības uz izglītību, patērētāju tiesību aizsardzību, darba ņēmēju tiesības, personu ar invaliditāti tiesības, dzimumu līdztiesību, intelektuālā īpašuma tiesības, tiesības uz efektīvu tiesību aizsardzību un taisnīgu tiesu, tiesības uz aizstāvību un nevainīguma prezumpciju, kā arī tiesības uz labu pārvaldību. Papildus minētajām tiesībām ir svarīgi uzsvērt, ka bērniem ir konkrētas tiesības, kas noteiktas Hartas 24. pantā un ANO Konvencijā par bērna tiesībām, kuras pilnveidotas minētās ANO konvencijas Vispārējā komentārā Nr. 25 par digitālo vidi; abos dokumentos ir noteikts, ka ir jāņem vērā bērnu neaizsargātība un jānodrošina viņu labklājībai nepieciešamā aizsardzība un gādība. Novērtējot kaitējuma smagumu, ko MI sistēma var nodarīt, arī attiecībā uz personu veselību un drošību, būtu jāņem vērā arī pamattiesības uz augstu vides aizsardzības līmeni, kuras ir nostiprinātas Hartā un īstenotas Savienības politikā.
(49)
W odniesieniu do systemów AI wysokiego ryzyka, które są związanymi z bezpieczeństwem elementami produktów lub systemów objętych zakresem stosowania rozporządzenia Parlamentu Europejskiego i Rady (WE) nr 300/2008 (24), rozporządzenia Parlamentu Europejskiego i Rady (UE) nr 167/2013 (25), rozporządzenia Parlamentu Europejskiego i Rady (UE) nr 168/2013 (26), dyrektywy Parlamentu Europejskiego i Rady 2014/90/UE (27), dyrektywy Parlamentu Europejskiego i Rady (UE) 2016/797 (28), rozporządzenia Parlamentu Europejskiego i Rady (UE) 2018/858 (29), rozporządzenia Parlamentu Europejskiego i Rady (UE) 2018/1139 (30) oraz rozporządzenia Parlamentu Europejskiego i Rady (UE) 2019/2144 (31) lub które same są takimi produktami lub systemami, wskazane jest dokonanie zmian tych aktów w celu zapewnienia, aby Komisja, przyjmując wszelkie stosowne akty delegowane lub wykonawcze na podstawie wspomnianych aktów, uwzględniła – w oparciu o techniczną i regulacyjną charakterystykę każdego sektora oraz bez ingerowania w istniejące mechanizmy zarządzania, oceny zgodności i egzekwowania oraz w powołane na mocy tych aktów organy – obowiązkowe wymogi dotyczące systemów AI wysokiego ryzyka ustanowione w niniejszym rozporządzeniu.
(49)
Attiecībā uz augsta riska MI sistēmām, kuras ir produktu vai sistēmu drošības sastāvdaļas vai pašas ir produkti vai sistēmas, uz ko attiecas Eiropas Parlamenta un Padomes Regula (EK) Nr. 300/2008 (24), Eiropas Parlamenta un Padomes Regula (ES) Nr. 167/2013 (25), Eiropas Parlamenta un Padomes Regula (ES) Nr. 168/2013 (26), Eiropas Parlamenta un Padomes Direktīva 2014/90/ES (27), Eiropas Parlamenta un Padomes Direktīva (ES) 2016/797 (28), Eiropas Parlamenta un Padomes Regula (ES) 2018/858 (29), Eiropas Parlamenta un Padomes Regula (ES) 2018/1139 (30) un Eiropas Parlamenta un Padomes Regula (ES) 2019/2144 (31), ir lietderīgi grozīt minētos aktus, lai nodrošinātu, ka Komisija, pamatojoties uz katras nozares tehniskajām un regulatīvajām īpatnībām un neiejaucoties nozarēs pastāvošajos pārvaldes, atbilstības novērtēšanas un izpildes mehānismos un tajās izveidotajās iestādēs, ņem vērā šajā regulā noteiktās obligātās prasības augsta riska MI sistēmām, kad tā pieņem attiecīgus deleģētos vai īstenošanas aktus, pamatojoties uz minētajiem tiesību aktiem.
(50)
W przypadku systemów AI, które są związanymi z bezpieczeństwem elementami produktów objętych zakresem stosowania niektórych przepisów unijnego prawodawstwa harmonizacyjnego wymienionych w załączniku do niemniejszego rozporządzenia lub które same są takimi produktami, systemy te należy klasyfikować jako systemy wysokiego ryzyka zgodnie z niniejszym rozporządzeniem, jeżeli dany produkt jest poddawany procedurze oceny zgodności przez jednostkę oceniającą zgodność będącą stroną trzecią na podstawie tych stosownych przepisów unijnego prawodawstwa harmonizacyjnego. W szczególności produktami takimi są maszyny, zabawki, dźwigi, urządzenia i systemy ochronne przeznaczone do użytku w atmosferze potencjalnie wybuchowej, urządzenia radiowe, urządzenia ciśnieniowe, wyposażenie rekreacyjnych jednostek pływających, urządzenia kolei linowych, urządzenia spalające paliwa gazowe, wyroby medyczne, wyroby medyczne do diagnostyki in vitro, motoryzacja i lotnictwo.
(50)
Attiecībā uz augsta riska MI sistēmām, kuras ir produktu drošības sastāvdaļas vai pašas ir produkti, uz ko attiecas daži Savienības saskaņošanas tiesību akti, kas uzskaitīti šīs regulas pielikumā, ir lietderīgi tās klasificēt kā augsta riska sistēmas, kā paredzēts šajā regulā, ja attiecīgajam produktam piemēro atbilstības novērtēšanas struktūras, kas ir trešā persona, veiktu atbilstības novērtēšanas procedūru, ievērojot attiecīgos Savienības saskaņošanas tiesību aktus. Proti, tādi produkti ir mašīnas, rotaļlietas, lifti, iekārtas un aizsardzības sistēmas, kas paredzētas lietošanai sprādzienbīstamā vidē, radioiekārtas, spiediena iekārtas, atpūtas kuģu aprīkojums, trošu ceļu iekārtas, gāzveida kurināmā iekārtas, medicīniskās ierīces, in vitro diagnostikas medicīniskās ierīces, pašgājēji un aviācija.
(51)
Klasyfikacja systemu AI jako systemu wysokiego ryzyka na podstawie niniejszego rozporządzenia nie powinna koniecznie oznaczać, że produkt, którego związanym z bezpieczeństwem elementem jest system AI, lub sam system AI jako produkt uznaje się za produkt „wysokiego ryzyka” zgodnie z kryteriami ustanowionymi w stosownym unijnym prawodawstwie harmonizacyjnym, które stosuje się do tego produktu. Dotyczy to w szczególności rozporządzeń (UE) 2017/745 i (UE) 2017/746, w przypadku gdy ocenę zgodności przeprowadza strona trzecia w odniesieniu do produktów średniego i wysokiego ryzyka.
(51)
Tam, ka MI sistēmu klasificē kā augsta riska sistēmu, ievērojot šo regulu, nebūtu obligāti jānozīmē, ka produktu, kura drošības sastāvdaļa ir attiecīgā MI sistēma, vai pašu MI sistēmu kā produktu uzskata par augsta riska saskaņā ar kritērijiem, kas noteikti attiecīgajos Savienības saskaņošanas tiesību aktos, kurus piemēro minētajam produktam. Tas jo īpaši attiecas uz Regulām (ES) 2017/745 un (ES) 2017/746, kurās paredzēta trešās personas veikta atbilstības novērtēšana vidēja riska un augsta riska produktiem.
(52)
W odniesieniu do samodzielnych systemów AI, a mianowicie systemów AI wysokiego ryzyka inne niż te, które są związanymi z bezpieczeństwem elementami produktów lub które same są produktami, należy je klasyfikować jako systemy wysokiego ryzyka, jeżeli w związku z ich przeznaczeniem stwarzają one wysokie ryzyko szkody dla zdrowia i bezpieczeństwa lub praw podstawowych osób, biorąc pod uwagę zarówno dotkliwość potencjalnych szkód, jak i prawdopodobieństwo ich wystąpienia, oraz jeżeli są one wykorzystywane w szeregu ściśle określonych z góry obszarów wskazanych w niniejszym rozporządzeniu. Identyfikacja tych systemów opiera się na tej samej metodyce i kryteriach przewidzianych również w odniesieniu do wszelkich przyszłych zmian w wykazie systemów AI wysokiego ryzyka, do przyjmowania których – w drodze aktów delegowanych – powinna być uprawniona Komisja, aby uwzględniać szybkie tempo rozwoju technologicznego, a także potencjalne zmiany w wykorzystaniu systemów AI.
(52)
Savrupas MI sistēmas, proti, augsta riska MI sistēmas, kuras nav produktu drošības sastāvdaļas vai kuras pašas ir produkti, ir lietderīgi klasificēt kā augsta riska sistēmas, ja, pamatojoties uz to paredzēto nolūku, tās rada augstu kaitējuma risku personu veselībai, drošībai vai pamattiesībām, ņemot vērā gan iespējamā kaitējuma smagumu, gan tā iespējamību, un ja tās lieto vairākās iepriekš konkrēti noteiktās jomās, kā precizēts šajā regulā. Minēto sistēmu identifikācija pamatojas uz tādu pašu metodiku un kritērijiem, kādi paredzēti arī jebkādiem turpmākiem augsta riska MI sistēmu saraksta grozījumiem, kurus Komisija būtu jāpilnvaro pieņemt ar deleģētajiem aktiem, lai ņemtu vērā tehnoloģiju attīstības straujo tempu, kā arī iespējamās izmaiņas MI sistēmu lietošanā.
(53)
Ważne jest również wyjaśnienie, że mogą istnieć szczególne przypadki, w których systemy AI odnoszące się do z góry określonych obszarów wskazanych w niniejszym rozporządzeniu nie prowadzą do znaczącego ryzyka szkody dla interesów prawnych chronionych w tych obszarach, ponieważ nie mają istotnego wpływu na proces decyzyjny lub nie szkodzą tym interesom w istotny sposób. Do celów niniejszego rozporządzenia system AI, który nie ma istotnego wpływu na wynik procesu decyzyjnego, należy rozumieć jako system AI, który nie ma wpływu na istotę, a tym samym na wynik procesu decyzyjnego, zarówno przeprowadzanego przez człowieka, jak i w sposób zautomatyzowany. System AI, który nie ma istotnego wpływu na wynik procesu decyzyjnego, może obejmować sytuacje, w których spełniony jest co najmniej jeden z poniższych warunków. Pierwszym takim warunkiem powinno być to, aby system AI miał na celu wykonywanie wąsko określonych zadań proceduralnych – jak np. system AI, który przekształca nieustrukturyzowane dane w dane ustrukturyzowane, system AI kategoryzujący przychodzące dokumenty lub system AI wykorzystywany do wykrywania duplikatów w dużej liczbie zastosowań. Zadania te mają tak wąski i ograniczony charakter, że stwarzają jedynie ograniczone ryzyko, które nie wzrasta w wyniku wykorzystania systemu AI w kontekście wymienionym w wykazie przypadków wykorzystania wysokiego ryzyka zamieszczonym w załączniku do niniejszego rozporządzenia. Drugim warunkiem powinno być to, aby zadanie wykonywane przez system AI miało na celu poprawę wyników już zakończonego działania przeprowadzonego przez człowieka, które może być istotne w kontekście celów przypadków wykorzystania wysokiego ryzyka, wymienionych w załączniku do niniejszego rozporządzenia. Biorąc pod uwagę te cechy, system AI uzupełnia jedynie działanie człowieka, co w konsekwencji wiąże się z niższym ryzykiem. Warunek ten miałby zastosowanie na przykład do systemów AI, które mają na celu językową korektę przygotowanych wcześniej dokumentów, na przykład by wprowadzić profesjonalny ton, styl akademicki lub by dostosować tekst do określonego przekazu marki. Trzecim warunkiem powinno być to, aby system AI miał na celu wykrywanie wzorców podejmowania decyzji lub odstępstw od wzorców podjętych uprzednio decyzji. W tym przypadku ryzyko byłoby mniejsze, ponieważ system AI wykorzystuje się po przeprowadzeniu oceny przez człowieka i nie służy on temu, by ją zastąpić lub na nią wpłynąć bez przeprowadzenia właściwej weryfikacji przez człowieka. Takie systemy AI obejmują na przykład te, które – uwzględniając określony wzorzec oceniania stosowany przez nauczyciela – mogą być wykorzystywane ex post, by sprawdzić, czy nauczyciel nie odszedł od stosowanego wzorca, i w ten sposób wskazać potencjalne niespójności lub nieprawidłowości. Czwartym warunkiem powinno być to, by system AI był przeznaczony jedynie do wykonywania zadań przygotowawczych w kontekście oceny istotnej z punktu widzenia systemów AI wymienionych w załączniku do niniejszego rozporządzenia, co sprawi, że podczas mającej nastąpić oceny prawdopodobieństwo stwierdzenia ryzyka w kontekście wyników systemu będzie bardzo niskie. Mowa tu między innymi o inteligentnych rozwiązaniach w zakresie zarządzania plikami, które obejmują różne funkcje, takie jak indeksowanie, przeszukiwanie, przetwarzanie tekstów i mowy lub łączenie danych z innymi źródłami danych, lub o systemach AI wykorzystywanych do tłumaczenia dokumentów wstępnych. W każdym przypadku systemy AI wykorzystywane w przypadkach wykorzystania wysokiego ryzyka, wymienionych w załączniku do niniejszego rozporządzenia, należy uznać za stwarzające znaczące ryzyko szkody dla zdrowia, bezpieczeństwa lub praw podstawowych, jeżeli dany system AI wiąże się z profilowaniem w rozumieniu art. 4 pkt 4 rozporządzenia (UE) 2016/679 lub art. 3 pkt 4 dyrektywy (UE) 2016/680 lub art. 3 pkt 5 rozporządzenia (UE) 2018/1725. Aby zapewnić identyfikowalność i przejrzystość, dostawca, który na podstawie warunków, o których mowa powyżej, uważa, że system AI nie jest systemem wysokiego ryzyka, powinien sporządzić dokumentację oceny przed wprowadzeniem tego systemu do obrotu lub oddaniem go do użytku i przekazać tę dokumentację na wniosek właściwym organom krajowym. Taki dostawca powinien być zobowiązany do zarejestrowania systemu AI w bazie danych UE ustanowionej na mocy niniejszego rozporządzenia. By zapewnić dalsze wskazówki dotyczące praktycznego wdrażania warunków, na jakich systemy AI wymienione w załączniku do niniejszego rozporządzenia są, w drodze wyjątku, uznawane za niebędące systemami wysokiego ryzyka, Komisja powinna, po konsultacji z Radą ds. AI, przedstawić wytyczne w sprawie tego praktycznego wdrażania, uzupełnione wyczerpującym wykazem praktycznych przypadków wykorzystania systemów AI, które stanowią przypadki wykorzystania wysokiego ryzyka oraz które nie stanowią przypadków takiego wykorzystania.
(53)
Ir arī svarīgi precizēt, ka var būt konkrēti gadījumi, kad MI sistēmas, kas attiecas uz iepriekš noteiktām jomām, kuras norādītas šajā regulā, nerada būtisku kaitējuma risku minētajās jomās aizsargātajām juridiskajām interesēm, jo būtiski neietekmē lēmumu pieņemšanu vai būtiski nekaitē minētajām interesēm. Šīs regulas nolūkos ar MI sistēmu, kas būtiski neietekmē lēmumu pieņemšanas iznākumu, būtu jāsaprot MI sistēma, kas neietekmē cilvēka vai automatizētas lēmumu pieņemšanas būtību un līdz ar to arī tās iznākumu. MI sistēma, kas būtiski neietekmē lēmumu pieņemšanas iznākumu, varētu ietvert situācijas, kurās ir izpildīts viens vai vairāki turpmāk minētie nosacījumi. Pirmajam šādam nosacījumam vajadzētu būt, ka MI sistēma ir paredzēta šaura procedūras uzdevuma veikšanai, piemēram, MI sistēma, kas nestrukturētus datus pārveido strukturētos datos, MI sistēma, kas ienākošos dokumentus klasificē kategorijās, vai MI sistēma, ko lieto, lai plašajā pieteikumu klāstā atklātu dublikātus. Minētie uzdevumi ir tik šauri un ierobežoti, ka tie rada tikai ierobežotus riskus, kurus nepaaugstina MI sistēmu lietošana kādā no kontekstiem, kas šīs regulas pielikumā ir uzskaitīti kā augsta riska lietošanas gadījumi. Otrajam nosacījumam vajadzētu būt tādam, ka MI sistēmas uzdevums ir uzlabot iepriekš pabeigtas cilvēka darbības rezultātu, kam var būt nozīme šīs regulas pielikumā uzskaitīto augsta riska lietošanas gadījumu uzskaitījuma nolūkos. Ņemot vērā minētās iezīmes, MI sistēma nodrošina tikai papildu slāni cilvēka darbībai ar attiecīgi zemāku risku. Minētais nosacījums attiektos, piemēram, uz MI sistēmām, kuru mērķis ir uzlabot valodu, kas lietota iepriekš sagatavotos dokumentos, piemēram, piešķirt profesionālu toni, izmantot akadēmisku valodas stilu vai tekstu pielāgot vēstījumiem, kas saistīti ar kādu noteiktu zīmolu. Trešajam nosacījumam vajadzētu būt tādam, ka MI sistēma ir paredzēta tam, lai atklātu lēmumu pieņemšanas modeļus vai novirzes no iepriekšējiem lēmumu pieņemšanas modeļiem. Risks būtu mazāks, jo MI sistēmas lietošana notiek pēc iepriekš pabeigta novērtējuma, ko veicis cilvēks, un tā nav paredzēta, lai šo novērtējumu aizstātu vai ietekmētu, bez pienācīgas cilvēka veiktas pārskatīšanas. Šādas MI sistēmas ietver, piemēram, sistēmas, ko, ņemot vērā konkrētu skolotāja klasifikācijas modeli, var izmantot, lai ex post pārbaudītu, vai skolotājs varētu būt novirzījies no attiecīgā klasifikācijas modeļa, un lai tādējādi norādītu uz iespējamām neatbilstībām vai anomālijām. Ceturtajam nosacījumam vajadzētu būt tādam, ka MI sistēma ir paredzēta tikai sagatavošanās uzdevuma veikšanai saistībā ar novērtējumu, kam ir nozīme šīs regulas pielikumā uzskaitīto MI sistēmu nolūkos, tādējādi panākot, ka sistēmas iznākuma iespējamā ietekme rada ļoti mazu risku novērtējumam, kas pēc tam tiek veikts. Minētais nosacījums cita starpā attiecas uz viediem lietu apstrādes risinājumiem, kas ietver dažādas funkcijas, sākot ar indeksēšanu, meklēšanu, teksta un runas apstrādi vai datu sasaisti ar citiem datu avotiem, vai MI sistēmas, ko lieto sākotnējo dokumentu tulkošanai. Jebkurā gadījumā būtu jāuzskata, ka MI sistēmas, kas tiek lietotas augsta riska gadījumos, kas uzskaitīti šīs regulas pielikumā, rada būtiskus kaitējuma riskus veselībai, drošībai vai pamattiesībām, ja MI sistēma ietver profilēšanu Regulas (ES) 2016/679 4. panta 4. punkta vai Direktīvas (ES) 2016/680 3. panta 4. punkta, vai Regulas (ES) 2018/1725 3. panta 5. punkta nozīmē. Lai nodrošinātu izsekojamību un pārredzamību, nodrošinātājam, kurš uzskata, ka MI sistēma, pamatojoties uz iepriekš minētajiem nosacījumiem, nav augsta riska sistēma, būtu jāsagatavo novērtējuma dokumentācija pirms minētās sistēmas laišanas tirgū vai nodošanas ekspluatācijā un pēc pieprasījuma šī dokumentācija būtu jāiesniedz valsts kompetentajām iestādēm. Šādam nodrošinātājam vajadzētu būt pienākumam reģistrēt MI sistēmu ES datubāzē, kas izveidota saskaņā ar šo regulu. Lai sniegtu turpmākus norādījumus par to nosacījumu praktisko īstenošanu, saskaņā ar kuriem MI sistēmas, kas uzskaitītas šīs regulas pielikumā, izņēmuma kārtā nav augsta riska sistēmas, Komisijai pēc apspriešanās ar padomi būtu jāsniedz pamatnostādnes, kurās precizē minēto praktisko īstenošanu, pievienojot visaptverošu sarakstu ar praktiskiem piemēriem, kas parāda augsta riska MI sistēmu lietošanas gadījumus un tādus gadījumus, kas nav.
(54)
Ponieważ dane biometryczne stanowią szczególną kategorię danych osobowych, kilka krytycznych przypadków wykorzystania systemów biometrycznych należy zaklasyfikować jako obarczone wysokim ryzykiem, o ile ich wykorzystywanie jest dozwolone na mocy odpowiednich przepisów prawa Unii i prawa krajowego. Techniczne niedokładności systemów AI przeznaczonych do zdalnej identyfikacji biometrycznej osób fizycznych mogą prowadzić do nieobiektywnych wyników i wywoływać skutki w postaci dyskryminacji. Ryzyko wystąpienia takich nieobiektywnych wyników i skutków w postaci dyskryminacji jest szczególnie istotne w odniesieniu do wieku, pochodzenia etnicznego, rasy, płci lub niepełnosprawności. Systemy zdalnej identyfikacji biometrycznej należy zatem zaklasyfikować jako systemy wysokiego ryzyka ze względu na ryzyko, jakie stwarzają. Do tej kategorii nie należą systemy AI przeznaczone do weryfikacji biometrycznej, w tym uwierzytelniania, prowadzonej jedynie w celu potwierdzenia, że dana osoba fizyczna jest tą osobą, za którą się podaje, oraz potwierdzenia tożsamości osoby fizycznej wyłącznie w celu uzyskania dostępu do usługi, uruchomienia urządzenia lub uzyskania bezpiecznego dostępu do pomieszczeń. Ponadto jako systemy wysokiego ryzyka należy zaklasyfikować systemy AI przeznaczone do kategoryzacji biometrycznej na podstawie danych biometrycznych według wrażliwych atrybutów lub cech chronionych na podstawie art. 9 ust. 1 rozporządzenia (UE) 2016/679, o ile nie są one zakazane na mocy niniejszego rozporządzenia, oraz systemy rozpoznawania emocji, które nie są zakazane na mocy niniejszego rozporządzenia. Za systemy AI wysokiego ryzyka nie należy uznawać systemów biometrycznych, które są przeznaczone wyłącznie do tego, by umożliwić stosowanie środków na rzecz cyberbezpieczeństwa i ochrony danych osobowych.
(54)
Tā kā biometriskie dati ir īpaša personas datu kategorija, ir lietderīgi vairākus biometrisko sistēmu kritiskās lietošanas gadījumus klasificēt kā augsta riska gadījumus, ciktāl šo sistēmu lietošana ir atļauta saskaņā ar attiecīgajiem Savienības un valsts tiesību aktiem. Fizisku personu biometriskajai tālidentifikācijai paredzētu MI sistēmu tehniskās neprecizitātes var novest pie neobjektīviem rezultātiem un radīt diskriminējošas sekas. Šādu neobjektīvu rezultātu risks un diskriminējošas sekas ir īpaši saistītas ar vecumu, etnisko piederību, rasi, dzimumu vai invaliditāti. Tāpēc, ņemot vērā biometriskās tālidentifikācijas sistēmu radītos riskus, tās būtu jāklasificē kā augsta riska sistēmas. Šāda klasifikācija izslēdz MI sistēmas, kuras paredzēts lietot biometriskajai verifikācijai, tostarp autentifikācijai, kuras vienīgais nolūks ir apstiprināt, ka konkrēta fiziska persona ir persona, par ko tā uzdodas, un apstiprināt fiziskas personas identitāti vienīgi nolūkā piekļūt pakalpojumam, atbloķēt ierīci vai iegūt drošības piekļuvi telpām. Turklāt MI sistēmas, ko paredzēts lietot biometriskajai kategorizācijai pēc sensitīviem atribūtiem vai raksturlielumiem, ko aizsargā atbilstīgi Regulas (ES) 2016/679 9. panta 1. punktam, pamatojoties uz biometriskajiem datiem, ciktāl tās nav aizliegtas šajā regulā, un emociju atpazīšanas sistēmas, kas nav aizliegtas šajā regulā, būtu jāklasificē kā augsta riska sistēmas. Biometriskās sistēmas, ko paredzēts lietot tikai kiberdrošības un personas datu aizsardzības pasākumu nodrošināšanai, nebūtu jāuzskata par augsta riska MI sistēmām.
(55)
W odniesieniu do zarządzania infrastrukturą krytyczną i jej działania jako systemy wysokiego ryzyka należy klasyfikować systemy AI, które są przeznaczone do wykorzystania jako związane z bezpieczeństwem elementy procesów zarządzania i działania w przypadku krytycznej infrastruktury cyfrowej wymienionej w pkt 8 załącznika do dyrektywy (UE) 2022/2557, ruchu drogowego i zaopatrzenia w wodę, gaz, ciepło i energię elektryczną, ponieważ ich awaria lub nieprawidłowe działanie mogą stworzyć ryzyko dla życia i zdrowia osób na dużą skalę i prowadzić do znacznych zakłóceń w zwykłym prowadzeniu działalności społecznej i gospodarczej. Związane z bezpieczeństwem elementy infrastruktury krytycznej, w tym krytycznej infrastruktury cyfrowej, to systemy, które są wykorzystywane do bezpośredniej ochrony fizycznej integralności infrastruktury krytycznej lub zdrowia i bezpieczeństwa osób i mienia, ale które nie są konieczne do funkcjonowania systemu. Awaria lub nieprawidłowe działanie takich elementów mogą bezpośrednio prowadzić do ryzyka dla fizycznej integralności infrastruktury krytycznej, a co za tym idzie, do ryzyka dla zdrowia i bezpieczeństwa osób i mienia. Elementów przeznaczonych wyłącznie do celów cyberbezpieczeństwa nie należy kwalifikować jako związanych z bezpieczeństwem elementów. Przykładami związanych z bezpieczeństwem elementów takiej infrastruktury krytycznej są systemy monitorowania ciśnienia wody lub systemy sterowania alarmem przeciwpożarowym w centrach przetwarzania danych w chmurze (ang. cloud computing centres).
(55)
Attiecībā uz kritiskās infrastruktūras pārvaldību un darbību ir lietderīgi kā augsta riska sistēmas klasificēt tās MI sistēmas, kuras paredzēts lietot kā drošības sastāvdaļas Direktīvas (ES) 2022/2557 pielikuma 8. punktā uzskaitītās kritiskās digitālās infrastruktūras pārvaldībā un darbībā, ceļu satiksmē, kā arī ūdens, gāzes un elektroenerģijas piegādē un apkures nodrošināšanā, jo sistēmu darbības atteice vai traucējumi var plašā mērogā apdraudēt cilvēku veselību un dzīvību un izraisīt ievērojamus traucējumus sociālo un saimniecisko darbību parastajā norisē. Kritiskās infrastruktūras, tostarp kritiskās digitālās infrastruktūras, drošības sastāvdaļas ir sistēmas, ko lieto, lai tieši aizsargātu kritiskās infrastruktūras fizisko integritāti vai cilvēku veselību un drošību un mantas drošību, bet kas nav nepieciešamas sistēmas darbībai. Šādu sastāvdaļu atteice vai darbības traucējumi var tieši radīt riskus kritiskās infrastruktūras fiziskajai integritātei un tādējādi riskus cilvēku veselībai un drošībai un mantas drošībai. Sastāvdaļas, ko paredzēts lietot tikai kiberdrošības nolūkos, nebūtu uzskatāmas par drošības sastāvdaļām. Šādas kritiskās infrastruktūras drošības sastāvdaļu piemēri var būt sistēmas ūdens spiediena uzraudzībai vai ugunsgrēka signalizācijas sistēmas mākoņdatošanas Centros.
(56)
Wdrażanie systemów AI w edukacji jest ważne, by promować wysokiej jakości kształcenie i szkolenie cyfrowe oraz by umożliwić wszystkim osobom uczącym się i nauczycielom zdobywanie niezbędnych umiejętności i kompetencji cyfrowych, w tym umiejętności korzystania z mediów, i krytycznego myślenia oraz dzielenie się tymi umiejętnościami i kompetencjami, z myślą o aktywnym udziale w gospodarce, społeczeństwie i procesach demokratycznych. Jako systemy AI wysokiego ryzyka należy natomiast zaklasyfikować systemy AI wykorzystywane w obszarze edukacji lub szkolenia zawodowego – w szczególności przeznaczone do celów podejmowania decyzji o dostępie lub przyjęciu do instytucji edukacyjnych i instytucji szkolenia zawodowego lub programów edukacyjnych lub szkolenia zawodowego na wszystkich poziomach lub do przydzielania osób do tych instytucji lub programów, do oceniania wyników nauki osób, do oceniania odpowiedniego poziomu wykształcenia i istotnego oddziaływania na poziom wykształcenia i szkolenia, jaki dana osoba fizyczna otrzyma lub do jakiego będzie mogła mieć dostęp, lub do monitorowania i wykrywania zabronionego zachowania uczniów podczas testów – ponieważ systemy te mogą decydować o przebiegu kształcenia i kariery zawodowej danej osoby, a tym samym mogą wpływać na jej zdolność do zapewnienia sobie źródła utrzymania. Takie systemy, jeżeli są niewłaściwie zaprojektowane i wykorzystywane, mogą być szczególnie inwazyjne i naruszać prawo do kształcenia i szkolenia, a także prawo do niedyskryminacji oraz mogą utrwalać historyczne wzorce dyskryminacji, na przykład wobec kobiet, niektórych grup wiekowych, osób z niepełnosprawnościami lub osób o określonym pochodzeniu rasowym lub etnicznym bądź określonej orientacji seksualnej.
(56)
MI sistēmu ieviešana izglītībā ir svarīga, lai veicinātu kvalitatīvu digitālo izglītību un apmācību un lai visi izglītojamie un skolotāji varētu apgūt un kopīgot nepieciešamās digitālās prasmes un kompetences, tostarp medijpratību un kritisko domāšanu, lai aktīvi piedalītos ekonomikas, sabiedrības un demokrātiskajos procesos. Tomēr MI sistēmas, ko lieto izglītībā un arodmācībās, jo īpaši, lai noteiktu personu piekļuvi izglītības un arodmācību iestādēm vai programmām visos līmeņos vai lai izlemtu par personu iestāšanos tajās, lai personas tajās uzņemtu, lai izvērtētu personu mācīšanās rezultātus, lai novērtētu attiecīgo personas izglītības līmeni un būtiski ietekmētu tās izglītības un apmācības līmeni, ko personas saņems vai kam tās spēj piekļūt, vai lai pārbaudījumu laikā uzraudzītu un konstatētu audzēkņu neatļautu uzvedību, būtu jāklasificē kā augsta riska MI sistēmas, jo tās var noteikt izglītības vai profesionālo ievirzi personas dzīvē un tādējādi varētu ietekmēt minētās personas spēju nodrošināt sev iztiku. Ja šādas sistēmas ir nepareizi projektētas un tiek neatbilstīgi lietotas, tās var būt īpaši aizskarošas un var pārkāpt tiesības uz izglītību un apmācību, kā arī tiesības uz nediskriminēšanu un nostiprināt vēsturiskos diskriminācijas modeļus, piemēram, pret sievietēm, noteiktām vecuma grupām, personām ar invaliditāti vai personām ar noteiktu rases vai etnisko izcelsmi vai dzimumorientāciju.
(57)
Systemy AI wykorzystywane w obszarze zatrudnienia, zarządzania pracownikami i dostępu do samozatrudnienia, w szczególności do rekrutacji i wyboru kandydatów, do podejmowania decyzji mających wpływ na warunki stosunków pracy, decyzji o awansie i rozwiązaniu umownego stosunku pracy, do spersonalizowanego przydzielania zadań w oparciu o indywidualne zachowania, cechy osobowości lub charakter i do monitorowania lub oceny osób pozostających w umownych stosunkach pracy, należy również zaklasyfikować jako systemy wysokiego ryzyka, ponieważ systemy te mogą w znacznym stopniu wpływać na przyszłe perspektywy zawodowe, źródła utrzymania tych osób i prawa pracownicze. Odpowiednie umowne stosunki pracy powinny w znaczący sposób obejmować pracowników i osoby pracujące za pośrednictwem platform internetowych, o czym mowa w programie prac Komisji na 2021 r. W całym procesie rekrutacji oraz w ramach oceniania, awansowania lub utrzymywania na stanowisku osób pozostających w umownych stosunkach pracy systemy takie mogą utrwalać historyczne wzorce dyskryminacji, na przykład wobec kobiet, niektórych grup wiekowych, osób z niepełnosprawnościami lub osób o określonym pochodzeniu rasowym lub etnicznym lub o określonej orientacji seksualnej. Systemy AI wykorzystywane do monitorowania wydajności i zachowania takich osób mogą również podważać ich prawa podstawowe w zakresie ochrony danych i prywatności.
(57)
MI sistēmas, kuras lieto nodarbinātībā, darba ņēmēju pārvaldībā un piekļuvē pašnodarbinātībai, jo īpaši personu darbā līgšanā un atlasē, lēmumu pieņemšanā, kas skar darba attiecību, paaugstināšanas amatā un darba līgumattiecību izbeigšanas kārtību, uzdevumu sadalē, pamatojoties uz individuālo uzvedību vai personības iezīmēm vai īpašībām, un darba līgumattiecībās esošu personu pārraudzībā vai izvērtēšanā, arī būtu jāklasificē kā augsta riska sistēmas, jo minētās sistēmas var ievērojami ietekmēt karjeras iespējas nākotnē, minēto personu labklājību un darba ņēmēju tiesības. Attiecīgajām darba līgumattiecībām būtu jēgpilni jāietver darba ņēmēji un personas, kuras sniedz pakalpojumus, izmantojot platformas, kā norādīts Komisijas darba programmā 2021. gadam. Darbā līgšanas procesā un izvērtēšanas, paaugstināšanas amatā vai darba līgumattiecību uzturēšanas ietvaros minētās sistēmas var nostiprināt vēsturiskos diskriminācijas modeļus, piemēram, attiecībā uz sievietēm, dažām vecuma grupām, personām ar invaliditāti vai personām ar noteiktu etnisko vai rasisko piederību vai seksuālo orientāciju. MI sistēmas, ko lieto šādu personu snieguma un uzvedības pārraudzībai, var arī apdraudēt viņu pamattiesības uz datu aizsardzību un privātumu.
(58)
Innym obszarem, w którym wykorzystanie systemów AI wymaga szczególnej uwagi, jest dostęp do niektórych podstawowych usług i świadczeń prywatnych i publicznych niezbędnych ludziom do pełnego uczestnictwa w życiu społecznym lub do poprawy poziomu życia oraz korzystanie z tych usług i świadczeń. W szczególności osoby fizyczne ubiegające się o podstawowe świadczenia i usługi w ramach pomocy publicznej lub korzystające z takich świadczeń i usług zapewnianych przez organy publiczne, a mianowicie usług opieki zdrowotnej, świadczeń z zabezpieczenia społecznego, usług społecznych zapewniających ochronę w przypadkach takich jak macierzyństwo, choroba, wypadki przy pracy, zależność lub podeszły wiek oraz utrata zatrudnienia, a także z pomocy społecznej i mieszkaniowej, są zazwyczaj zależne od tych świadczeń i usług oraz znajdują się w słabszym położeniu względem odpowiedzialnych organów. Jeżeli systemy AI są wykorzystywane do ustalenia, czy organy powinny przyznać takie świadczenia i usługi, odmówić ich, ograniczyć je, cofnąć lub odzyskać, w tym do stwierdzenia, czy świadczeniobiorcy są w świetle prawa uprawnieni do takich świadczeń lub usług, systemy te mogą mieć znaczący wpływ na źródła utrzymania osób i mogą naruszać ich prawa podstawowe, takie jak prawo do ochrony socjalnej, niedyskryminacji, godności człowieka lub skutecznego środka prawnego i w związku z tym systemy te należy zaklasyfikować jako systemy wysokiego ryzyka. Niniejsze rozporządzenie nie powinno jednak utrudniać rozwoju i stosowania innowacyjnych rozwiązań w administracji publicznej, która może odnieść korzyści z powszechniejszego wykorzystywania zgodnych i bezpiecznych systemów AI, pod warunkiem że systemy te nie stwarzają wysokiego ryzyka dla osób prawnych i fizycznych. Ponadto jako systemy wysokiego ryzyka należy zaklasyfikować systemy AI wykorzystywane do przeprowadzania scoringu kredytowego lub oceny zdolności kredytowej osób fizycznych, ponieważ systemy te decydują o dostępie tych osób do zasobów finansowych lub podstawowych usług, takich jak mieszkalnictwo, energia elektryczna i usługi telekomunikacyjne. Systemy AI wykorzystywane do tych celów mogą prowadzić do dyskryminacji osób lub grup i mogą utrwalać historyczne wzorce dyskryminacji, takie jak dyskryminacja ze względu na pochodzenie rasowe lub etniczne, płeć, niepełnosprawność, wiek, orientację seksualną, lub mogą powodować powstawanie nowych rodzajów dyskryminacji. Za systemy wysokiego ryzyka na mocy niniejszego rozporządzenia nie należy jednak uznawać systemów AI przewidzianych w prawie Unii do celów wykrywania oszustw w ramach oferowania usług finansowych oraz do celów ostrożnościowych do obliczania wymogów kapitałowych instytucji kredytowych i zakładów ubezpieczeń. Ponadto systemy AI przeznaczone do przeprowadzania oceny ryzyka w przypadku ubezpieczenia zdrowotnego i na życie dla osób fizycznych i ustalania cen tych ubezpieczeń mogą mieć również znaczący wpływ na źródła utrzymania osób, a jeżeli nie są odpowiednio zaprojektowane, rozwinięte i wykorzystywane, mogą naruszać ich prawa podstawowe i prowadzić do poważnych konsekwencji dla życia i zdrowia ludzi, w tym wykluczenia finansowego i dyskryminacji. Wreszcie systemy AI przeznaczone do przeprowadzania oceny i klasyfikowania zgłoszeń alarmowych dokonywanych przez osoby fizyczne lub do wysyłania lub ustalania priorytetów w wysyłaniu służb pierwszej pomocy, w tym policji, straży pożarnej i pomocy medycznej, a także w ramach systemów oceny stanu zdrowia pacjentów w nagłych wypadkach, należy zaklasyfikować jako systemy wysokiego ryzyka, ponieważ służą one do podejmowania decyzji o krytycznym znaczeniu dla życia i zdrowia osób oraz ich mienia.
(58)
Cita joma, kurā MI sistēmu lietošanai ir jāpievērš īpaša uzmanība, ir piekļuve dažiem privātiem un sabiedriskiem pamatpakalpojumiem un pabalstiem, kas cilvēkiem nepieciešami, lai viņi varētu pilnvērtīgi piedalīties sabiedrības norisēs vai uzlabot savu dzīves līmeni, un šādu pakalpojumu un pabalstu izmantošana. Jo īpaši fiziskas personas, kuras piesakās pamata sociālās palīdzības pabalstiem un pakalpojumiem vai saņem tos no publiskām iestādēm, proti, veselības aprūpes pakalpojumus, sociālās nodrošināšanas pabalstus, sociālos pakalpojumus, kas nodrošina aizsardzību tādos gadījumos kā maternitāte, slimība, nelaimes gadījumi darbā, atrašanās apgādībā vai vecums un darba zaudēšana, kā arī sociālā palīdzība un palīdzība mājokļa jomā, parasti ir atkarīgas no minētajiem pabalstiem un pakalpojumiem un atrodas neaizsargātā pozīcijā attiecībā pret atbildīgajām iestādēm. Ja MI sistēmas lieto, lai noteiktu, vai iestādēm šādi pabalsti un pakalpojumi būtu jāpiešķir, jāatsaka, jāsamazina, jāatsauc vai jāatgūst, tostarp, lai noteiktu, vai labuma guvējiem ir likumīgas tiesības uz šādiem pabalstiem vai pakalpojumiem, minētajām sistēmām var būt ievērojama ietekme uz personu iztiku, un tās var pārkāpt tādas personu pamattiesības kā tiesības uz sociālo aizsardzību, nediskriminēšanu, cilvēka cieņu vai efektīvu tiesību aizsardzību, un tāpēc tās būtu jāklasificē kā augsta riska sistēmas. Tomēr šai regulai nevajadzētu kavēt inovatīvu pieeju izstrādi un izmantošanu valsts pārvaldē, kas gūtu labumu no prasībām atbilstošu un drošu MI sistēmu plašākas lietošanas ar noteikumu, ka minētās sistēmas nerada augstu risku fiziskām un juridiskām personām. Turklāt MI sistēmas, ko lieto fizisku personu kredītnovērtējuma vai kredītspējas izvērtēšanai, būtu jāklasificē kā augsta riska MI sistēmas, jo tās nosaka minēto personu piekļuvi finanšu resursiem vai tādiem būtiskiem pakalpojumiem kā mājoklis, elektroenerģija un telesakaru pakalpojumi. Minētajiem nolūkiem lietotās MI sistēmas var izraisīt diskrimināciju starp personām vai grupām un var nostiprināt vēsturiskos diskriminācijas modeļus, piemēram, pamatojoties uz rasisko vai etnisko izcelsmi, dzimumu, invaliditāti, vecumu vai seksuālo orientāciju, vai var radīt jaunus diskriminējošas ietekmes veidus. Tomēr MI sistēmas, kas Savienības tiesību aktos paredzētas, lai atklātu krāpšanu finanšu pakalpojumu piedāvāšanā un prudenciālos nolūkos aprēķinātu kredītiestāžu un apdrošināšanas sabiedrību kapitāla prasības, nebūtu jāuzskata par augsta riska sistēmām saskaņā ar šo regulu. Turklāt MI sistēmas, ko paredzēts lietot riska novērtēšanai un cenu noteikšanai saistībā ar fiziskām personām veselības un dzīvības apdrošināšanas gadījumā, var būt ievērojama ietekme uz personu iztiku un, ja tās netiek pienācīgi projektētas, izstrādātas un lietotas, var pārkāpt viņu pamattiesības un radīt nopietnas sekas cilvēku dzīvībai un veselībai, tostarp finansiālu atstumtību un diskrimināciju. Visbeidzot, MI sistēmas, ko lieto fizisku personu ārkārtas palīdzības izsaukumu novērtēšanai un klasificēšanai vai ārkārtas pirmās reaģēšanas dienestu, tostarp policijas, ugunsdzēsēju un medicīniskās palīdzības sniedzēju, nosūtīšanai vai nosūtīšanas prioritāšu noteikšanai, kā arī neatliekamās medicīniskās aprūpes pacientu triāžas sistēmām, arī būtu jāklasificē kā augsta riska sistēmas, jo tās pieņem lēmumus personu veselībai un dzīvībai un to īpašumam izšķirīgi svarīgās situācijās.
(59)
Ze względu na rolę i odpowiedzialność organów ścigania ich działania związane z niektórymi rodzajami wykorzystania systemów AI charakteryzują się znacznym brakiem równowagi sił i mogą prowadzić do objęcia osoby fizycznej nadzorem, do jej aresztowania lub pozbawienia wolności, jak również do zaistnienia innego niepożądanego wpływu na prawa podstawowe zagwarantowane w Karcie. W szczególności jeżeli system AI nie jest trenowany z wykorzystaniem danych wysokiej jakości, nie spełnia odpowiednich wymogów pod względem skuteczności jego działania, dokładności lub solidności lub nie został odpowiednio zaprojektowany i przetestowany przed wprowadzeniem do obrotu lub oddaniem do użytku w inny sposób, może on wskazywać osoby w sposób dyskryminacyjny lub w inny nieprawidłowy lub niesprawiedliwy sposób. Ponadto korzystanie z istotnych procesowych praw podstawowych, takich jak prawo do skutecznego środka prawnego i dostępu do bezstronnego sądu, jak również prawo do obrony i domniemania niewinności, może być utrudnione, w szczególności w przypadku gdy takie systemy AI nie są w wystarczającym stopniu przejrzyste, wyjaśnialne i udokumentowane. W związku z tym szereg systemów AI przeznaczonych do wykorzystania w kontekście ścigania przestępstw, w którym dokładność, wiarygodność i przejrzystość są szczególnie ważne dla uniknięcia niepożądanego wpływu, zachowania zaufania publicznego oraz zapewnienia odpowiedzialności i skutecznego dochodzenia roszczeń, należy klasyfikować jako systemy wysokiego ryzyka, o ile ich wykorzystanie jest dozwolone zgodnie z właściwymi przepisami prawa Unii i prawa krajowego. Ze względu na charakter działań i związane z nimi ryzyko do takich systemów AI wysokiego ryzyka należy zaliczyć w szczególności systemy AI przeznaczone do wykorzystywania przez organy ścigania lub w ich imieniu lub przez instytucje, organy i jednostki organizacyjne Unii w ramach wsparcia udzielanego organom ścigania w zakresie oceny ryzyka, że osoba fizyczna stanie się ofiarą przestępstwa, takie jak wariografy i podobne narzędzia, do oceny wiarygodności dowodów podczas prowadzenia postępowań przygotowawczych w sprawie przestępstw lub ich ścigania oraz, o ile nie jest to zakazane na mocy niniejszego rozporządzenia, do oceny ryzyka popełnienia przestępstwa lub ponownego popełnienia przestępstwa przez osobę fizyczną niewyłącznie na podstawie profilowania osób fizycznych lub oceny cech osobowości i charakteru lub wcześniejszego zachowania przestępnego osób fizycznych lub grup, do profilowania w trakcie wykrywania przestępstw, prowadzenia postępowań przygotowawczych w ich sprawie lub ich ścigania. Systemów AI przeznaczonych specjalnie do wykorzystania w postępowaniach administracyjnych prowadzonych przez organy podatkowe i celne, jak również przez jednostki analityki finansowej wykonujące zadania administracyjne dotyczące analizy informacji na podstawie przepisów prawa Unii dotyczących przeciwdziałania praniu pieniędzy, nie należy zaklasyfikować jako systemów AI wysokiego ryzyka wykorzystywanych przez organy ścigania do celów zapobiegania przestępstwom, ich wykrywania, prowadzenia postępowań przygotowawczych w ich sprawie i ich ścigania. Wykorzystanie narzędzi sztucznej inteligencji przez organy ścigania i inne odpowiednie organy nie powinno stać się czynnikiem powodującym nierówności lub wykluczenie. Nie należy ignorować wpływu wykorzystania narzędzi AI na prawo podejrzanych do obrony, w szczególności na trudności w uzyskaniu istotnych informacji na temat funkcjonowania tych systemów oraz wynikające z tego trudności w kwestionowaniu dostarczanych przez nie wyników przed sądem, w szczególności przez osoby fizyczne objęte postępowaniem przygotowawczym.
(59)
Ņemot vērā tiesībaizsardzības iestāžu lomu un atbildību, to darbībām, kuras ietver dažus MI sistēmu lietošanas veidus, ir raksturīga ievērojama varas nesamērība, un to rezultāts var būt fiziskas personas novērošana, aizturēšana vai tās brīvības atņemšana, kā arī cita veida nelabvēlīga ietekme uz Hartā garantētajām pamattiesībām. Proti, ja MI sistēma nav apmācīta ar augstas kvalitātes datiem, neatbilst attiecīgām veiktspējas, precizitātes vai robustuma prasībām vai nav pienācīgi projektēta un testēta pirms laišanas tirgū vai citādas nodošanas ekspluatācijā, tā var norādīt uz cilvēkiem diskriminējošā vai kā citādi nekorektā vai netaisnīgā veidā. Turklāt var tikt traucēta būtisku procesuālo pamattiesību, piemēram, tiesību uz efektīvu tiesību aizsardzību un taisnīgu tiesu, kā arī tiesību uz aizstāvību un nevainīguma prezumpcijas, īstenošana, it īpaši, ja šādas MI sistēmas nav pietiekami pārredzamas, izskaidrojamas un dokumentētas. Tāpēc ir lietderīgi klasificēt kā augsta riska sistēmas, ciktāl to lietošanu atļauj attiecīgie Savienības vai valsts tiesību akti, vairākas MI sistēmas, kas paredzētas izmantošanai tiesībaizsardzības kontekstā, kurā precizitāte, uzticamība un pārredzamība ir īpaši svarīga, lai novērstu kaitējošu ietekmi, saglabātu sabiedrības uzticēšanos un nodrošinātu pārskatatbildību un efektīvu tiesisko aizsardzību. Ņemot vērā attiecīgo darbību raksturu un ar tām saistītos riskus, pie minētajām augsta riska MI sistēmām jo īpaši būtu jāpieskaita MI sistēmas, ko tiesībaizsardzības iestādēs vai to vārdā, vai Savienības iestādēs, struktūrās, birojos vai aģentūrās, kas atbalsta tiesībaizsardzības iestādes, lai novērtētu risku, ka fiziska persona varētu kļūt par cietušo personu noziedzīgos nodarījumos, paredzēts lietot kā melu detektorus vai līdzīgus rīkus, pierādījumu uzticamības izvērtēšanai noziedzīgu nodarījumu izmeklēšanas vai kriminālvajāšanas gaitā un, ciktāl to neaizliedz šī regula, lai novērtētu risku, ka fiziska persona varētu izdarīt vai atkārtoti izdarīt nodarījumu, pamatojoties ne tikai uz fizisku personu profilēšanu vai novērtējot personiskās īpašības un rakstura iezīmes vai iepriekšēju noziedzīgu rīcību, profilēšanai noziedzīgu nodarījumu atklāšanas, izmeklēšanas vai kriminālvajāšanas gaitā. MI sistēmas, kuras konkrēti paredzētas lietošanai administratīvajā procesā nodokļu un muitas iestādēs, kā arī finanšu ziņu vākšanas vienībās, kas veic administratīvus uzdevumus informācijas analizēšanai, ievērojot Savienības tiesību aktus nelikumīgi iegūtu līdzekļu legalizēšanas novēršanas jomā, nebūtu jāklasificē kā augsta riska MI sistēma, ko tiesībaizsardzības iestādes lieto noziedzīgu nodarījumu novēršanai, atklāšanai, izmeklēšanai un kriminālvajāšanai par tiem. MI rīku lietošanai tiesībaizsardzības un citās attiecīgās iestādēs nevajadzētu kļūt par nevienlīdzības vai atstumtības faktoru. MI rīku lietošanas ietekme uz aizdomās turēto personu tiesībām uz aizstāvību nebūtu jāignorē, jo īpaši grūtības iegūt jēgpilnu informāciju par minēto sistēmu darbību un no tā izrietošās grūtības apstrīdēt to rezultātus tiesā, jo īpaši fiziskām personām, par kurām tika veikta izmeklēšana.
(60)
Systemy AI wykorzystywane w zarządzaniu migracją, azylem i kontrolą graniczną mają wpływ na osoby, które często znajdują się w szczególnie trudnej sytuacji i które są zależne od rezultatów działań właściwych organów publicznych. Dokładność, niedyskryminujący charakter i przejrzystość systemów AI wykorzystywanych w tych kontekstach są zatem szczególnie istotne w celu zapewnienia poszanowania praw podstawowych osób, na które AI ma wpływ, w szczególności ich prawa do swobodnego przemieszczania się, niedyskryminacji, ochrony życia prywatnego i danych osobowych, ochrony międzynarodowej i dobrej administracji. O ile wykorzystanie systemów AI jest dozwolone zgodnie z właściwymi przepisami prawa Unii i prawa krajowego, za systemy wysokiego ryzyka należy zatem uznać systemy AI przeznaczone do wykorzystywania przez właściwe organy publiczne lub w ich imieniu lub przez instytucje, organy i jednostki organizacyjne Unii odpowiedzialne za wykonywanie zadań w dziedzinach zarządzania migracją, azylem i kontrolą graniczną, takie jak wariografy i podobne narzędzia, gdy systemy te stosuje się do oceny niektórych rodzajów ryzyka stwarzanych przez osoby fizyczne wjeżdżające na terytorium państwa członkowskiego lub ubiegające się o wizę lub azyl, do wspierania właściwych organów publicznych przy rozpatrywaniu wniosków o udzielenie azylu, o wydanie wizy i dokumentów pobytowych oraz związanych z nimi skarg w odniesieniu do celu, jakim jest ustalenie kwalifikowalności osób fizycznych ubiegających się o przyznanie określonego statusu, w tym przy powiązanej ocenie wiarygodności dowodów, do celów wykrywania, rozpoznawania lub identyfikacji osób fizycznych w kontekście zarządzania migracją, azylem i kontrolą graniczną, z wyjątkiem weryfikacji dokumentów podróży. Systemy AI w obszarze zarządzania migracją, azylem i kontrolą graniczną objęte niniejszym rozporządzeniem powinny być zgodne z odpowiednimi wymogami proceduralnymi określonymi w rozporządzeniu Parlamentu Europejskiego i Rady (WE) nr 810/2009 (32), dyrektywie Parlamentu Europejskiego i Rady 2013/32/UE (33) i w innych właściwych przepisach prawa Unii. Wykorzystanie systemów AI w zarządzaniu migracją, azylem i kontrolą graniczną nie powinno w żadnym wypadku być wykorzystywane przez państwa członkowskie lub instytucje, organy i jednostki organizacyjne Unii jako sposób na obejście ich międzynarodowych zobowiązań wynikających z Konwencji ONZ dotyczącej statusu uchodźców sporządzonej w Genewie dnia 28 lipca 1951 r., zmienionej protokołem z dnia 31 stycznia 1967 r. Nie powinny być one również wykorzystywane w żaden sposób do naruszania zasady non-refoulement ani do odmawiania bezpiecznych i skutecznych legalnych sposobów wjazdu na terytorium Unii, w tym prawa do ochrony międzynarodowej.
(60)
Migrācijas un patvēruma jomā un robežkontroles pārvaldībā lietotās MI sistēmas ietekmē personas, kuri bieži ir īpaši neaizsargātā pozīcijā un ir atkarīgi no kompetento publisko iestāžu darbības rezultāta. Tāpēc minētajos kontekstos lietoto MI sistēmu precizitāte, nediskriminējošais raksturs un pārredzamība ir īpaši svarīga skarto personu pamattiesību ievērošanas garantēšanai, jo īpaši viņu tiesību brīvi pārvietoties, tiesību uz nediskriminēšanu, privātuma un personas datu aizsardzību, starptautisko aizsardzību un labu pārvaldību īstenošanai. Tāpēc ir lietderīgi klasificēt kā augsta riska sistēmas, ciktāl to lietošanu atļauj attiecīgie Savienības vai valsts tiesību akti, MI sistēmas, ko kompetentajās publiskajās iestādēs vai to vārdā, vai Savienības iestādēs, struktūrās, birojos vai aģentūrās, kurām uzticēti pienākumi migrācijas, patvēruma un robežkontroles pārvaldības jomā, paredzēts lietot kā melu detektorus un līdzīgus rīkus, lai novērtētu dažus riskus, kurus rada fiziskas personas, kas ieceļo dalībvalsts teritorijā vai piesakās vīzai vai patvērumam, sniegtu palīdzību kompetentām publiskām iestādēm, tostarp, veicot saistītu pierādījumu patiesuma novērtēšanu, patvēruma, vīzu un uzturēšanās atļauju pieteikumu un saistīto sūdzību izskatīšanā ar mērķi noteikt fizisku personu, kuras piesakās uz kādu statusu, atbilstību kritērijiem, nolūkā atklāt, atpazīt vai identificēt fiziskas personas saistībā ar migrācijas, patvēruma vai robežkontroles pārvaldību, izņemot ceļošanas dokumentu verifikāciju. MI sistēmām migrācijas, patvēruma un robežkontroles pārvaldības jomā, uz kurām attiecas šī regula, būtu jāatbilst attiecīgajām procesuālajām prasībām, kas noteiktas Eiropas Parlamenta un Padomes Regulā (EK) Nr. 810/2009 (32), Eiropas Parlamenta un Padomes Direktīvā 2013/32/ES (33) un citos attiecīgajos Savienības tiesību aktos. Dalībvalstīm vai Savienības iestādēm, struktūrām, birojiem vai aģentūrām nekādā gadījumā nebūtu jālieto MI sistēmas migrācijas, patvēruma un robežkontroles pārvaldībā kā līdzekli, lai apietu savas starptautiskās saistības saskaņā ar 1951. gada 28. jūlijā Ženēvā parakstīto ANO Konvenciju par bēgļa statusu, kas grozīta ar 1967. gada 31. janvāra protokolu. Tās arī nebūtu jālieto, lai jebkādā veidā pārkāptu neizraidīšanas principu vai liegtu drošas un efektīvas likumīgas iespējas iekļūt Savienības teritorijā, tostarp tiesības uz starptautisko aizsardzību.
(61)
Niektóre systemy AI przeznaczone na potrzeby sprawowania wymiaru sprawiedliwości i procesów demokratycznych należy zaklasyfikować jako systemy wysokiego ryzyka, biorąc pod uwagę ich potencjalnie istotny wpływ na demokrację, praworządność, wolności osobiste, a także prawo do skutecznego środka prawnego i dostępu do bezstronnego sądu. W szczególności, aby wyeliminować potencjalne ryzyko stronniczości, błędów i efektu czarnej skrzynki, jako systemy wysokiego ryzyka należy zakwalifikować systemy AI przeznaczone do wykorzystania przez organy wymiaru sprawiedliwości lub w ich imieniu, aby pomóc tym organom w poszukiwaniu i interpretacji faktów i prawa oraz w stosowaniu przepisów prawa do konkretnego stanu faktycznego. Systemy AI przeznaczone do wykorzystania w tych celach przez organy alternatywnego rozstrzygania sporów również należy uznać za systemy wysokiego ryzyka, jeżeli wyniki postępowania w sprawie alternatywnego rozstrzygania sporów wywołują skutki prawne dla stron. Wykorzystanie narzędzi AI może wspierać uprawnienia decyzyjne sędziów lub niezależność sądownictwa, ale nie powinno ich zastępować; podejmowanie ostatecznej decyzji musi pozostać działaniem kierowanym przez człowieka. Kwalifikacja systemów AI jako systemów AI wysokiego ryzyka nie powinna jednak rozciągać się na systemy AI przeznaczone do czysto pomocniczych czynności administracyjnych, które nie mają wpływu na faktyczne sprawowanie wymiaru sprawiedliwości w poszczególnych przypadkach, takich jak anonimizacja lub pseudonimizacja orzeczeń sądowych, dokumentów lub danych, komunikacja między członkami personelu, zadania administracyjne.
(61)
Dažas MI sistēmas, kas paredzētas izmantošanai tiesvedībā un demokrātiskajos procesos, būtu jāklasificē kā augsta riska sistēmas, ņemot vērā to potenciāli ievērojamo ietekmi uz demokrātiju, tiesiskumu, individuālajām brīvībām, kā arī tiesībām uz efektīvu tiesību aizsardzību un taisnīgu tiesu. Jo īpaši, lai mazinātu potenciālu neobjektivitātes, kļūdu un nepārredzamības risku, ir lietderīgi kvalificēt par augsta riska sistēmām tās MI sistēmas, kuras paredzēts lietot tiesu iestādē vai tās vārdā, lai palīdzētu tiesu iestādēm faktu un tiesību normu interpretēšanā un tiesību normu piemērošanā konkrētam faktu kopumam. MI sistēmas, ko minētajos nolūkos paredzēts lietot strīdu izšķiršanas ārpustiesas kārtībā struktūrās, arī būtu jāuzskata par augsta riska sistēmām, ja strīdu izšķiršanas ārpustiesas kārtībā izskatīšanas iznākums pusēm rada tiesiskas sekas. MI rīku lietošana var atbalstīt tiesnešu lēmumu pieņemšanas pilnvaras vai tiesu neatkarību, bet tai nevajadzētu to aizstāt: galīgajai lēmumu pieņemšanai arī turpmāk jābūt cilvēka virzītai darbībai. Tomēr MI sistēmu klasificēšana par augsta riska sistēmām nebūtu jāattiecina uz MI sistēmām, kuras paredzētas tikai tādu administratīvu papilddarbību veikšanai, kam nav ietekmes uz faktisko tiesvedību atsevišķās lietās, piemēram, tiesas nolēmumu, dokumentu vai datu anonimizācijai vai pseidonimizācijai, saziņai starp darbiniekiem un administratīvu uzdevumu veikšanai.
(62)
Bez uszczerbku dla przepisów ustanowionych w rozporządzeniu Parlamentu Europejskiego i Rady (UE) 2024/900 (34) oraz aby zapobiec ryzyku nadmiernej zewnętrznej ingerencji w prawo do głosowania zapisane w art. 39 Karty oraz niepożądanemu wpływowi na demokrację i praworządność, systemy AI przeznaczone do wykorzystania, by wpływać na wynik wyborów lub referendum lub na zachowania wyborcze osób fizycznych podczas głosowania w wyborach lub referendach, należy zaklasyfikować jako systemy AI wysokiego ryzyka, z wyjątkiem systemów AI, na których wyniki osoby fizyczne nie są bezpośrednio narażone, takich jak narzędzia wykorzystywane do organizowania, optymalizacji i strukturyzowania kampanii politycznych z administracyjnego i logistycznego punktu widzenia.
(62)
Neskarot Eiropas Parlamenta un Padomes Regulā (ES) 2024/900 (34) paredzētos noteikumus un lai novērstu riskus, kas saistīti ar nepamatotu ārēju iejaukšanos Hartas 39. pantā nostiprinātajās tiesībās balsot un nelabvēlīgu ietekmi uz demokrātiju un tiesiskumu, MI sistēmas, ko paredzēts lietot, lai ietekmētu vēlēšanu vai referenduma rezultātus vai fizisku personu balsošanas uzvedību, kad tās piedalās vēlēšanās vai referendumos, būtu jāklasificē kā augsta riska MI sistēmas, izņemot MI sistēmas, kuru iznākuma fiziskas personas nav tieši pakļautas to ietekmei, piemēram, rīki, ko lieto, lai organizētu, optimizētu un strukturētu politiskās kampaņas no administratīvā un loģistikas viedokļa.
(63)
Faktu, że dany system AI został zaklasyfikowany jako system AI wysokiego ryzyka zgodnie z niniejszym rozporządzeniem, nie należy interpretować jako wskazującego na to, że korzystanie z tego systemu jest zgodne z prawem na podstawie innych aktów prawa Unii lub prawa krajowego zgodnego z prawem Unii, na przykład w zakresie ochrony danych osobowych, stosowania wariografów i podobnych narzędzi lub innych systemów służących wykrywaniu stanu emocjonalnego osób fizycznych. Każde takie wykorzystanie można kontynuować wyłącznie w sposób zgodny z mającymi zastosowanie wymogami wynikającymi z Karty oraz z mającymi zastosowanie aktami prawa wtórnego Unii i prawa krajowego. Niniejszego rozporządzenia nie należy rozumieć jako ustanawiającego podstawę prawną przetwarzania danych osobowych, w tym w stosownych przypadkach szczególnych kategorii danych osobowych, o ile niniejsze rozporządzenie nie stanowi wyraźnie inaczej.
(63)
Fakts, ka MI sistēma saskaņā ar šo regulu ir klasificēta kā augsta riska MI sistēma, nebūtu jāinterpretē kā norāde, ka sistēmas lietošana ir likumīga citu Savienības tiesību aktu vai ar tiem saderīgu valsts tiesību aktu ietvaros, piemēram, attiecībā uz personas datu aizsardzību, melu detektoru un tamlīdzīgu rīku vai citu sistēmu lietošanu fizisku personu emocionālā stāvokļa noteikšanai. Šāda lietošana būtu jāturpina tikai saskaņā ar piemērojamajām prasībām, kas izriet no Hartas un no attiecīgajiem Savienības sekundārajiem tiesību aktiem un dalībvalstu tiesību aktiem. Nebūtu jāuzskata, ka šī regula nodrošina juridisko pamatu personas datu, tostarp – attiecīgā gadījumā – īpašu kategoriju personas datu, apstrādei, ja vien šajā regulā nav konkrēti noteikts citādi.
(64)
Aby ograniczyć ryzyko stwarzane przez systemy AI wysokiego ryzyka wprowadzone do obrotu lub oddawane do użytku oraz aby zapewnić wysoki poziom wiarygodności, należy stosować pewne obowiązkowe wymogi do systemów AI wysokiego ryzyka, z uwzględnieniem przeznaczenia systemu AI i kontekstu jego wykorzystania oraz zgodnie z systemem zarządzania ryzykiem, który ma zostać ustanowiony przez dostawcę. Środki przyjęte przez dostawców w celu zapewnienia zgodności z obowiązkowymi wymogami niniejszego rozporządzenia powinny uwzględniać powszechnie uznany stan wiedzy technicznej w zakresie AI, być proporcjonalne i skuteczne do osiągnięcia celów niniejszego rozporządzenia. W oparciu o nowe ramy prawne, jak wyjaśniono w zawiadomieniu Komisji „Niebieski przewodnik – wdrażanie unijnych przepisów dotyczących produktów 2022”, ogólna zasada stanowi, że do jednego produktu można stosować więcej niż jedne akt prawny unijnego prawodawstwa harmonizacyjnego, ponieważ udostępnianie lub oddawanie do użytku może mieć miejsce tylko wtedy, gdy produkt jest zgodny z całością obowiązującego unijnego prawodawstwa harmonizacyjnego. Zagrożenia związane z systemami AI objętymi wymogami niniejszego rozporządzenia dotyczą innych aspektów niż obowiązujące unijne prawodawstwo harmonizacyjne, w związku z czym wymogi niniejszego rozporządzenia uzupełnią obowiązujące unijne prawodawstwo harmonizacyjne. Na przykład maszyny lub wyroby medyczne zawierające system AI mogą stwarzać ryzyko, które nie zostało uwzględnione w zasadniczych wymogach w zakresie zdrowia i bezpieczeństwa ustanowionych w odpowiednim unijnym prawodawstwie harmonizacyjnym, ponieważ to prawo sektorowe nie reguluje ryzyka specyficznego dla systemów AI. Wymaga to jednoczesnego i komplementarnego stosowania różnych aktów ustawodawczych. Aby zapewnić spójność i uniknąć niepotrzebnych obciążeń administracyjnych i niepotrzebnych kosztów, dostawcy produktu, który zawiera co najmniej jeden system AI wysokiego ryzyka, do którego stosuje się wymogi niniejszego rozporządzenia i unijnego prawodawstwa harmonizacyjnego opartego na nowych ramach prawnych, wymienionego w załączniku do niniejszego rozporządzenia, powinni mieć swobodę w zakresie decyzji operacyjnych dotyczących sposobu zapewnienia w optymalny sposób zgodności produktu zawierającego co najmniej jeden system AI ze wszystkimi mającymi zastosowanie wymogami unijnego prawodawstwa harmonizacyjnego. Swoboda ta może oznaczać na przykład decyzję dostawcy o włączeniu części niezbędnych procesów testowania i sprawozdawczości, informacji i dokumentacji wymaganych na mocy niniejszego rozporządzenia do już istniejącej dokumentacji i procedur wymaganych na mocy obowiązującego unijnego prawodawstwa harmonizacyjnego opartego na nowych ramach prawnych i wymienionego w załączniku do niniejszego rozporządzenia. Nie powinno to w żaden sposób podważać spoczywającego na dostawcy obowiązku zapewnienia zgodności z wszystkimi mającymi zastosowanie wymogami.
(64)
Lai mazinātu tirgū laisto vai ekspluatācijā nodoto augsta riska MI sistēmu radītos riskus un nodrošinātu augstu uzticamības līmeni, augsta riska MI sistēmām būtu jāpiemēro dažas obligātas prasības, ņemot vērā paredzēto MI sistēmas lietošanas nolūku un saskaņā ar riska pārvaldības sistēmu, kura nodrošinātājam jāizveido. Pasākumos, ko nodrošinātāji pieņēmuši, lai izpildītu šīs regulas obligātās prasības, būtu jāņem vērā vispāratzītie jaunākie sasniegumi MI jomā, tiem vajadzētu būt samērīgiem un efektīviem, lai sasniegtu šīs regulas mērķus. Pamatojoties uz Jauno tiesisko regulējumu, kā precizēts Komisijas paziņojumā ““Zilā rokasgrāmata” par ES produktu noteikumu īstenošanu 2022. gadā”, vispārējs noteikums ir tāds, ka vairāk nekā vienu Savienības saskaņošanas tiesību aktu var piemērot vienam produktam, jo to darīt pieejamu vai nodot ekspluatācijā var tikai tad, ja produkts atbilst visiem piemērojamiem Savienības saskaņošanas tiesību aktiem. MI sistēmu apdraudējumi, uz kuriem attiecas šīs regulas prasības, attiecas uz citiem aspektiem, nevis spēkā esošajiem Savienības saskaņošanas tiesību aktiem, un tāpēc šīs regulas prasības papildinātu esošo Savienības saskaņošanas aktu struktūru. Piemēram, mašīnas vai medicīniskās ierīces, kas ietver MI sistēmu, varētu radīt riskus, uz kuriem neattiecas būtiskās veselības un drošības prasības, kas noteiktas attiecīgajos Savienības saskaņošanas tiesību aktos, jo minētie nozaru tiesību akti neattiecas uz MI sistēmām raksturīgiem riskiem. Tāpēc vienlaikus un papildinoši ir jāpiemēro dažādi tiesību akti. Lai nodrošinātu konsekvenci un izvairītos no nevajadzīga administratīvā sloga un nevajadzīgām izmaksām, tāda produkta nodrošinātājiem, kas ietver vienu vai vairākas augsta riska MI sistēmas, uz kurām attiecas šīs regulas un šīs regulas pielikumā uzskaitīto Savienības saskaņošanas tiesību aktu, kuru pamatā ir Jaunais tiesiskais regulējums, prasības, vajadzētu būt elastīgiem attiecībā uz operatīviem lēmumiem par to, kā optimāli nodrošināt produkta, kas ietver vienu vai vairākas MI sistēmas, atbilstību visām piemērojamām minēto Savienības saskaņoto tiesību aktu prasībām. Minētā elastība varētu nozīmēt, piemēram, nodrošinātāja lēmumu daļu no nepieciešamajiem testēšanas un ziņošanas procesiem, šajā regulā prasīto informāciju un dokumentāciju integrēt jau esošā dokumentācijā un procedūrās, kas prasītas saskaņā ar šīs regulas pielikumā uzskaitītajiem esošajiem Savienības saskaņošanas tiesību aktiem, kuru pamatā ir Jaunais tiesiskais regulējums. Tam nekādā veidā nevajadzētu ietekmēt nodrošinātāja pienākumu ievērot visas piemērojamās prasības.
(65)
System zarządzania ryzykiem powinien obejmować ciągły, iteracyjny proces, który jest planowany i realizowany przez cały cykl życia systemu AI wysokiego ryzyka. Proces ten powinien mieć na celu identyfikację i ograniczenie istotnego ryzyka, jakie systemy AI stwarzają dla zdrowia, bezpieczeństwa i praw podstawowych. System zarządzania ryzykiem powinien podlegać regularnym przeglądom i aktualizacji, aby zapewnić jego stałą skuteczność oraz uzasadnienie i dokumentację wszelkich istotnych decyzji i działań podjętych zgodnie z niniejszym rozporządzeniem. Proces ten powinien zapewniać, aby dostawca identyfikował ryzyko lub niepożądany wpływ oraz wdrażał środki ograniczające znane i racjonalnie przewidywalne ryzyko dla zdrowia, bezpieczeństwa i praw podstawowych związane z systemami AI w świetle ich przeznaczenia i dającego się racjonalnie przewidzieć niewłaściwego wykorzystania, w tym możliwego ryzyka wynikającego z interakcji między systemem AI a środowiskiem, w którym ten system działa. W systemie zarządzania ryzykiem należy przyjąć najbardziej odpowiednie – w świetle aktualnego stanu wiedzy technicznej w dziedzinie AI – środki zarządzania ryzykiem. Przy określaniu najbardziej odpowiednich środków zarządzania ryzykiem dostawca powinien udokumentować i wyjaśnić dokonane wybory oraz, w stosownych przypadkach, zaangażować ekspertów i zewnętrzne zainteresowane strony. Identyfikując dające się racjonalnie przewidzieć niewłaściwe wykorzystanie systemów AI wysokiego ryzyka, dostawca powinien uwzględnić przypadki wykorzystania systemów AI, w odniesieniu do których można zasadnie oczekiwać, że będą one wynikać z łatwo przewidywalnego zachowania ludzkiego w kontekście szczególnych cech i wykorzystania danego systemu AI, chociaż takich przypadków wykorzystania nie przewidziano w przeznaczeniu danego systemu ani w jego instrukcji obsługi. Wszelkie znane lub dające się przewidzieć okoliczności związane z wykorzystaniem systemu AI wysokiego ryzyka zgodnie z jego przeznaczeniem lub w warunkach dającego się racjonalnie przewidzieć niewłaściwego wykorzystania, mogące powodować ryzyko dla zdrowia i bezpieczeństwa lub praw podstawowych, powinny zostać uwzględnione w instrukcji obsługi dostarczonej przez dostawcę. Ma to na celu zapewnienie, aby podmiot stosujący był ich świadomy i uwzględniał je przy korzystaniu z systemu AI wysokiego ryzyka. Określenie i wdrożenie – na podstawie niniejszego rozporządzenia – środków ograniczających ryzyko w odniesieniu dodającego się przewidzieć niewłaściwego wykorzystania nie powinno wymagać od dostawcy wprowadzenia szczególnego dodatkowego szkolenia, by zaradzić temu dającemu się przewidzieć niewłaściwemu wykorzystaniu. Zachęca się jednak dostawców do rozważenia takich dodatkowych środków szkoleniowych w celu ograniczenia dającego się racjonalnie przewidzieć niewłaściwego wykorzystania, o ile będzie to konieczne i stosowne.
(65)
Riska pārvaldības sistēmu būtu jāveido nepārtrauktam iteratīvam procesam, ko plāno un kas norit visā augsta riska MI sistēmas darbmūžā. Minētā procesa mērķim vajadzētu būt identificēt un mazināt MI sistēmu attiecīgos riskus veselībai, drošībai un pamattiesībām. Riska pārvaldības sistēma būtu regulāri jāpārskata un jāatjaunina, lai nodrošinātu tās pastāvīgu efektivitāti, kā arī visu nozīmīgo lēmumu un darbību, kas veiktas, ievērojot šo regulu, pamatotību un dokumentāciju. Šim procesam būtu jānodrošina, ka nodrošinātājs identificē riskus vai nelabvēlīgu ietekmi un īsteno riska mazināšanas pasākumus attiecībā uz MI sistēmu zināmajiem un saprātīgi paredzamajiem riskiem veselībai, drošībai un pamattiesībām, ņemot vērā to paredzēto nolūku un saprātīgi paredzamu nepareizu lietošanu, tostarp iespējamos riskus, ko rada mijiedarbība starp MI sistēmu un vidi, kurā tā darbojas. Riska pārvaldības sistēmai būtu jāpieņem vispiemērotākie riska pārvaldības pasākumi, ņemot vērā jaunākos sasniegumus MI jomā. Identificējot vispiemērotākos riska pārvaldības pasākumus, nodrošinātājam būtu jādokumentē un jāizskaidro izdarītās izvēles un attiecīgā gadījumā jāiesaista eksperti un ārējās ieinteresētās personas. Identificējot augsta riska MI sistēmu saprātīgi paredzamu nepareizu lietošanu, nodrošinātājam būtu jāaptver tādi MI sistēmu lietojumi, kuri nav tieši saistīti ar paredzēto nolūku un kuri ir paredzēti lietošanas instrukcijā, tomēr var saprātīgi sagaidīt, ka tie izrietēs no viegli paredzamas cilvēka uzvedības konkrētas MI sistēmas konkrēto īpašību un lietojuma kontekstā. Visi zināmie vai paredzamie apstākļi, kas saistīti ar augsta riska MI sistēmas lietošanu atbilstoši tai paredzētajam nolūkam vai saprātīgi paredzamas nepareizas lietošanas apstākļos un kas var radīt risku veselībai un drošībai vai pamattiesībām, būtu jāiekļauj nodrošinātāja sniegtajās lietošanas instrukcijās. Tas ir vajadzīgs, lai nodrošinātu, ka uzturētājs ir informēts un ņem tās vērā, izmantojot augsta riska MI sistēmu. Lai identificētu un īstenotu riska mazināšanas pasākumus paredzamai nepareizai lietošanai saskaņā ar šo regulu, nodrošinātājam, lai novērstu paredzamu nepareizu lietošanu, nebūtu vajadzīgi īpaša papildu apmācība augsta riska MI sistēmai. Tomēr nodrošinātāji tiek mudināti apsvērt šādus papildu apmācības pasākumus, lai mazinātu saprātīgi paredzamu nepareizu lietošanu, ja tie ir nepieciešami un piemēroti.
(66)
Do systemów AI wysokiego ryzyka należy stosować wymogi dotyczące zarządzania ryzykiem, jakości i istotności wykorzystywanych zbiorów danych, dokumentacji technicznej i rejestrowania zdarzeń, przejrzystości i przekazywania informacji podmiotom stosującym, nadzoru ze strony człowieka oraz solidności, dokładności i cyberbezpieczeństwa. Wymogi te są konieczne, aby skutecznie ograniczyć ryzyko dla zdrowia, bezpieczeństwa i praw podstawowych. Z uwagi na brak innych racjonalnie dostępnych środków, które powodowałyby mniejsze ograniczenia w handlu, wymogi te nie stanowią nieuzasadnionych ograniczeń w handlu.
(66)
Prasībām būtu jāattiecas uz augsta riska MI sistēmām saistībā ar riska pārvaldību, izmantoto datu kopu kvalitāti un nozīmīgumu, tehnisko dokumentāciju un uzskaiti, pārredzamību un informācijas sniegšanu uzturētājiem, cilvēka virsvadību un robustumu, precizitāti un kiberdrošību. Minētās prasības ir nepieciešamas, lai efektīvi mazinātu riskus veselībai, drošībai un pamattiesībām. Ņemot vērā to, ka citi tirdzniecību mazāk ierobežojoši pasākumi nav saprātīgi pieejami, minētās prasības nav nepamatoti tirdzniecības ierobežojumi.
(67)
Wysokiej jakości dane i dostęp do wysokiej jakości danych odgrywają kluczową rolę w ustanawianiu struktury i zapewnianiu skuteczności działania wielu systemów AI, w szczególności w przypadku stosowania technik obejmujących trenowanie modeli, w celu zapewnienia, aby system AI wysokiego ryzyka działał zgodnie z przeznaczeniem i bezpiecznie oraz aby nie stał się źródłem zakazanej przez prawo Unii dyskryminacji. Wysokiej jakości zbiory danych treningowych, walidacyjnych i testowych wymagają wdrożenia odpowiednich praktyk w zakresie administrowania i zarządzania danymi. Zbiory danych treningowych, walidacyjnych i testowych, w tym etykiety, powinny być adekwatne, wystarczająco reprezentatywne oraz w jak największym stopniu wolne od błędów i kompletne z punktu widzenia przeznaczenia systemu. Aby ułatwić zapewnienie zgodności z prawem Unii o ochronie danych, takim jak rozporządzenie (UE) 2016/679, praktyki w zakresie administrowania i zarządzania danymi powinny przewidywać, w przypadku danych osobowych, zapewnianie przejrzystości pierwotnego celu zbierania danych. Te zbiory danych powinny również charakteryzować się odpowiednimi właściwościami statystycznymi, w tym w odniesieniu do osób lub grup osób, wobec których system AI wysokiego ryzyka ma być wykorzystywany, ze szczególnym uwzględnieniem ograniczania ewentualnej stronniczości w zbiorach danych, która może mieć wpływ na zdrowie i bezpieczeństwo osób, negatywnie oddziaływać na prawa podstawowe lub prowadzić do dyskryminacji zakazanej na mocy prawa Unii, zwłaszcza w przypadku gdy dane wyjściowe wpływają na dane wejściowe wykorzystywane na potrzeby przyszłych operacji (sprzężenie zwrotne, ang. feedback loops). Stronniczość może być na przykład nieodłączną cechą źródłowych zbiorów danych, szczególnie jeżeli używa się danych historycznych lub wygenerowanych na etapie wdrażania systemów w warunkach rzeczywistych. Na wyniki generowane przez systemy AI może wpływać taka nieodłączna stronniczość, która z zasady stopniowo zwiększa się, a tym samym utrwala i pogłębia istniejącą dyskryminację, zwłaszcza w odniesieniu do osób należących do grup szczególnie wrażliwych, w tym grup rasowych lub etnicznych. Wymóg, aby zbiory danych były w jak największym stopniu kompletne i wolne od błędów, nie powinien wpływać na stosowanie technik ochrony prywatności w kontekście wdrażania i testowania systemów AI. W szczególności zbiory danych powinny uwzględniać – w zakresie wymaganym z uwagi na ich przeznaczenie – cechy, właściwości lub elementy, które są specyficzne dla określonego otoczenia geograficznego, kontekstualnego, behawioralnego lub funkcjonalnego, w którym dany system AI ma być wykorzystywany. Zgodność z wymogami związanymi z zarządzaniem danymi można zapewnić, korzystając z usług stron trzecich, które oferują certyfikowane usługi w zakresie zgodności, w tym weryfikację zarządzania danymi i integralności zbioru danych oraz praktyki w zakresie trenowania, walidacji i testowania danych, o ile zapewniona jest zgodność z wymogami dotyczącymi danych określonymi w niniejszym rozporządzeniu.
(67)
Augstas kvalitātes datiem un piekļuvei augstas kvalitātes datiem ir būtiska loma daudzu MI sistēmu struktūras nodrošināšanā un veiktspējas nodrošināšanā, jo īpaši, ja tiek izmantotas metodes, kas ietver modeļu apmācīšanu, ar mērķi nodrošināt, ka augsta riska MI sistēma darbojas, kā paredzēts, un droši un ka tā nekļūst par Savienības tiesību aktos aizliegtas diskriminācijas avotu. Lai nodrošinātu augstas kvalitātes datu kopas apmācībai, validēšanai un testēšanai, ir jāīsteno atbilstoša datu pārvaldība un pārvaldības prakse. Apmācības, validēšanas un testēšanas datu kopām, tostarp marķējumiem, vajadzētu būt atbilstošām, pietiekami reprezentatīvām un, cik vien iespējams, bez kļūdām un pilnīgām, ņemot vērā sistēmas paredzēto nolūku. Lai veicinātu atbilstību Savienības datu aizsardzības tiesību aktiem, piemēram, Regulai (ES) 2016/679, datu pārvaldībā un pārvaldības praksē – personas datu gadījumā – būtu jāietver pārredzamība attiecībā uz datu vākšanas sākotnējo nolūku. Datu kopām vajadzētu būt arī atbilstošiem statistiskajiem raksturlielumiem, tostarp attiecībā uz personām vai personu grupām, attiecībā uz kurām ir paredzēts lietot augsta riska MI sistēmu, īpašu uzmanību pievēršot tādas iespējamās neobjektivitātes mazināšanai datu kopās, kura varētu ietekmēt personu veselību un drošību, kurai varētu būt negatīva ietekme uz pamattiesībām vai kura varētu izraisīt diskrimināciju, kas ir aizliegta Savienības tiesību aktos, jo īpaši, ja izvaddati ietekmē ievaddatus turpmākām darbībām (atgriezeniskās saites cilpas). Neobjektivitāte, piemēram, var būt raksturīga pamatā esošajām datu kopām, jo īpaši tad, ja tiek izmantoti vēsturiski dati, vai radīta tad, kad sistēmas tiek izmantotas reālās pasaules apstākļos. MI sistēmu sniegtos rezultātus varētu ietekmēt šāda raksturīga neobjektivitāte, kas tiecas pakāpeniski palielināties un tādējādi turpināt un pastiprināt esošo diskrimināciju, jo īpaši attiecībā uz personām, kas pieder pie dažām neaizsargātām grupām, tostarp rasiskām vai etniskām grupām. Prasībai par to, ka datu kopām jābūt pēc iespējas pilnīgām un bez kļūdām, nebūtu jāietekmē privātumu aizsargājošu metožu izmantošana MI sistēmu izstrādes un testēšanas kontekstā. Jo īpaši datu kopās, ciktāl to nosaka to paredzētais nolūks, būtu jāņem vērā iezīmes, raksturlielumi vai elementi, kas raksturīgi konkrētajai ģeogrāfiskajai, kontekstuālajai, uzvedības vai funkcionālajai videi, kurā MI sistēmu paredzēts lietot. Ar datu pārvaldību saistītās prasības var izpildīt, izmantojot trešās personas, kas piedāvā sertificētus atbilstības pakalpojumus, tostarp datu pārvaldības, datu kopu integritātes un datu apmācības, validēšanas un testēšanas prakses verifikāciju, ciktāl tiek nodrošināta atbilstība šīs regulas datu prasībām.
(68)
Przy wdrażaniu i ocenie systemów AI wysokiego ryzyka niektóre podmioty, takie jak dostawcy, jednostki notyfikowane i inne odpowiednie podmioty, takie jak europejskie centra innowacji cyfrowych, ośrodki testowo-doświadczalne i naukowcy, powinny mieć możliwość uzyskania dostępu do wysokiej jakości zbiorów danych i korzystania z nich w zakresie obszarów działalności tych podmiotów związanych z niniejszym rozporządzeniem. Wspólne europejskie przestrzenie danych ustanowione przez Komisję oraz ułatwienie wymiany danych między przedsiębiorstwami i udostępniania danych administracji publicznej w interesie publicznym będą miały zasadnicze znaczenie dla zapewnienia zaufanego, odpowiedzialnego i niedyskryminacyjnego dostępu do danych wysokiej jakości na potrzeby trenowania, walidacji i testowania systemów AI. Na przykład w dziedzinie zdrowia europejska przestrzeń danych dotyczących zdrowia ułatwi niedyskryminacyjny dostęp do danych dotyczących zdrowia oraz trenowanie algorytmów AI na tych zbiorach danych w sposób bezpieczny, terminowy, przejrzysty, wiarygodny i zapewniający ochronę prywatności oraz z odpowiednim zarządzaniem instytucjonalnym. Odpowiednie właściwe organy, w tym organy sektorowe, zapewniające dostęp do danych lub wspierające taki dostęp, mogą również wspierać dostarczanie wysokiej jakości danych na potrzeby trenowania, walidacji i testowania systemów AI.
(68)
Augsta riska MI sistēmu izstrādes un novērtēšanas nolūkā dažiem dalībniekiem, piemēram, nodrošinātājiem, paziņotajām struktūrām un citām attiecīgajām struktūrām, piemēram, Eiropas digitālās inovācijas centriem, testēšanas un eksperimentēšanas struktūrām un pētniekiem, būtu jāvar piekļūt augstas kvalitātes datu kopām un izmantot tās minēto dalībnieku darbības jomās, kas ir saistītas ar šo regulu. Komisijas izveidotās Eiropas vienotās datu telpas un datu kopīgošanas atvieglošana uzņēmumu starpā un ar valdības iestādēm sabiedrības interešu labā būs ļoti būtiska, lai nodrošinātu uzticēšanos raisošu, pārskatāmu un nediskriminējošu piekļuvi augstas kvalitātes datiem MI sistēmu apmācībai, validēšanai un testēšanai. Piemēram, veselības jomā Eiropas veselības datu telpa veicinās nediskriminējošu piekļuvi veselības jomas datiem un MI algoritmu apmācībai minētajās datu kopās privātumu saglabājošā, drošā, savlaicīgā, pārredzamā un uzticamā veidā ar pienācīgu institucionālo pārvaldi. Arī attiecīgās kompetentās iestādes, tostarp nozaru iestādes, nodrošinot vai atbalstot piekļuvi datiem, var atbalstīt augstas kvalitātes datu piegādāšanu MI sistēmu apmācībai, validēšanai un testēšanai.
(69)
Prawo do prywatności i ochrony danych osobowych musi być zagwarantowane przez cały cykl życia systemu AI. W tym względzie, gdy przetwarzane są dane osobowe, zastosowanie mają zasady minimalizacji danych oraz uwzględnienia ochrony danych już w fazie projektowania i domyślnej ochrony danych, które określono w prawie Unii o ochronie danych. Środki podejmowane przez dostawców w celu zapewnienia zgodności z tymi zasadami mogą obejmować nie tylko anonimizację i szyfrowanie, ale również wykorzystanie technologii, która umożliwia wprowadzanie algorytmów do danych i umożliwia trenowanie systemów AI bez przekazywania między stronami lub kopiowania samych surowych lub ustrukturyzowanych danych, bez uszczerbku dla wymogów dotyczących zarządzania danymi przewidzianych w niniejszym rozporządzeniu.
(69)
Tiesības uz privātumu un personas datu aizsardzību ir jāgarantē visā MI sistēmas darbmūžā. Šajā sakarā personas datu apstrādes gadījumā ir piemērojami datu minimizēšanas, integrētas datu aizsardzības un datu aizsardzības pēc noklusējuma principi, kā noteikts Savienības datu aizsardzības tiesību aktos. Neskarot šajā regulā paredzētās datu pārvaldības prasības, nodrošinātāju veiktie pasākumi, lai nodrošinātu atbilstību minētajiem principiem, var ietvert ne tikai anonimizāciju un šifrēšanu, bet arī tādas tehnoloģijas lietošanu, kas ļauj algoritmus ievadīt datos un ļauj apmācīt MI sistēmas, nepārsūtot starp pusēm vai nekopējot pašus neapstrādātos vai strukturētos datus.
(70)
W celu ochrony praw innych osób przed dyskryminacją, która może wynikać ze stronniczości systemów AI, dostawcy powinni wyjątkowo, w zakresie, w jakim jest to bezwzględnie konieczne do celów zapewnienia wykrywania i korygowania stronniczości w odniesieniu do systemów AI wysokiego ryzyka – z zastrzeżeniem odpowiednich zabezpieczeń w zakresie podstawowych praw i wolności osób fizycznych oraz po spełnieniu wszystkich mających zastosowanie warunków ustanowionych w niniejszym rozporządzeniu, w uzupełnieniu warunków ustanowionych w rozporządzeniach (UE) 2016/679 i (UE) 2018/1725 oraz w dyrektywie (UE) 2016/680 – mieć możliwość przetwarzania również szczególnych kategorii danych osobowych w związku z istotnym interesem publicznym w rozumieniu art. 9 ust. 2 lit. g) rozporządzenia (UE) 2016/679 i art. 10 ust. 2 lit. g) rozporządzenia (UE) 2018/1725.
(70)
Lai citu tiesības aizsargātu pret diskrimināciju, kas varētu izrietēt no MI sistēmu neobjektivitātes, nodrošinātājiem izņēmuma kārtā, ciktāl tas ir absolūti nepieciešams, lai nodrošinātu neobjektivitātes atklāšanu un labošanu saistībā ar augsta riska MI sistēmām, ievērojot atbilstošus fizisku personu pamattiesību un pamatbrīvību aizsardzības pasākumus un pēc visu šajā regulā paredzēto piemērojamo nosacījumu piemērošanas papildus Regulās (ES) 2016/679 un (ES) 2018/1725 un Direktīvā (ES) 2016/680 paredzētajiem nosacījumiem, būtu jāvar apstrādāt arī īpašu kategoriju personas datus svarīgās sabiedrības interesēs Regulas (ES) (ES) 2016/679 9. panta 2. punkta g) apakšpunkta un Regulas (ES) 2018/1725 10. panta 2. punkta g) apakšpunkta nozīmē.
(71)
Dysponowanie zrozumiałymi informacjami na temat tego, w jaki sposób rozwinięto systemy AI wysokiego ryzyka i jak działają one w całym cyklu życia, ma zasadnicze znaczenie dla umożliwienia identyfikowalności tych systemów, weryfikacji zgodności z wymogami określonymi w niniejszym rozporządzeniu, a także dla monitorowania ich działania i monitorowania po wprowadzeniu do obrotu. W tym celu konieczne jest prowadzenie rejestrów zdarzeń oraz zapewnienie dostępności dokumentacji technicznej zawierającej informacje niezbędne do oceny zgodności systemu AI z odpowiednimi wymogami i do ułatwienia monitorowania po wprowadzeniu do obrotu. Informacje takie powinny być podane w jasnej i kompleksowej formie i obejmować ogólne cechy, zdolności i ograniczenia systemu, algorytmy, dane, procesy związane z trenowaniem, testowaniem i walidacją, a także dokumentację dotyczącą odpowiedniego systemu zarządzania ryzykiem. Dokumentacja techniczna powinna podlegać odpowiedniej aktualizacji w całym cyklu życia systemu AI. Ponadto w systemach AI wysokiego ryzyka powinno być technicznie możliwe automatyczne rejestrowanie zdarzeń – za pomocą rejestrów zdarzeń – w całym cyklu życia systemu.
(71)
Saprotama informācija par to, kā izstrādātas augsta riska MI sistēmas un kā tās darbojas visā savā darbmūžā, ir ļoti būtiska, lai nodrošinātu minēto sistēmu izsekojamību, pārbaudītu atbilstību šajā regulā noteiktajām prasībām, kā arī veiktu darbības pārraudzību un pēctirgus pārraudzību. Tam nepieciešama uzskaite un tādas tehniskās dokumentācijas pieejamība, kura ietver informāciju, kas nepieciešama, lai novērtētu MI sistēmas atbilstību attiecīgajām prasībām un atvieglotu pēctirgus pārraudzību. Šādai informācijai būtu jāietver ziņas par sistēmas vispārīgajiem raksturlielumiem, spējām un ierobežojumiem, algoritmiem, datiem, apmācību, izmantotajiem testēšanas un validēšanas procesiem, kā arī attiecīgās riska pārvaldības sistēmas dokumentācija, un tai vajadzētu būt sagatavotai skaidrā un visaptverošā veidā. Tehniskā dokumentācija būtu pienācīgi jāaktualizē visā MI sistēmas darbmūžā. Turklāt augsta riska MI sistēmām būtu tehniski jāļauj automātiski reģistrēt notikumus, izmantojot “žurnāldatnes”, visā sistēmas darbmūža laikā.
(72)
Aby zająć się kwestiami związanymi z efektem czarnej skrzynki i złożonością niektórych systemów AI i pomóc podmiotom stosującym w spełnianiu ich obowiązków ustanowionych w niniejszym rozporządzeniu, od systemów AI wysokiego ryzyka należy wymagać określonego stopnia przejrzystości przed wprowadzeniem ich do obrotu lub oddaniem ich do użytku. Systemy AI wysokiego ryzyka należy projektować w taki sposób, aby umożliwić podmiotom stosującym zrozumienie funkcjonowania systemu AI, ocenę jego funkcjonalności oraz zrozumienie jego mocnych stron i ograniczeń. Systemom AI wysokiego ryzyka powinny towarzyszyć odpowiednie informacje w formie instrukcji obsługi. Takie informacje powinny obejmować cechy, zdolności i ograniczenia skuteczności działania systemu AI. Obejmowałyby one informacje na temat ewentualnych znanych i dających się przewidzieć okoliczności związanych z wykorzystaniem systemu AI wysokiego ryzyka, w tym działań podmiotu stosującego, które mogą wpływać na zachowanie i skuteczność działania systemu, i w których to okolicznościach system AI może powodować ryzyko dla zdrowia, bezpieczeństwa i praw podstawowych; a także informacje na temat zmian, które zostały z góry zaplanowane i ocenione pod kątem zgodności przez dostawcę, oraz na temat odpowiednich środków nadzoru ze strony człowieka, w tym środków ułatwiających podmiotom stosującym AI interpretację wyników systemu AI. Przejrzystość, w tym towarzyszące instrukcje obsługi, powinny pomóc podmiotom stosującym w korzystaniu z systemu i wspierać podejmowanie przez te podmioty świadomych decyzji. Podmioty stosujące powinny, między innymi, być lepiej przygotowane, aby dokonać właściwego wyboru systemu, z którego zamierzają korzystać w świetle mających do nich zastosowanie obowiązków, mieć wiedzę na temat zamierzonych i wykluczonych sposobów wykorzystania oraz prawidłowo i odpowiednio korzystać z systemu AI. Aby zwiększyć czytelność i dostępność informacji zawartych w instrukcji obsługi, w stosownych przypadkach należy uwzględnić konkretne przykłady, takie jak przykłady ograniczeń czy zamierzonych i wykluczonych sposobów wykorzystania systemu AI. Dostawcy powinni zapewnić, aby wszelka dokumentacja, w tym instrukcje obsługi, zawierała istotne, wyczerpujące, dostępne i zrozumiałe informacje, z uwzględnieniem potrzeb docelowych podmiotów stosujących i prawdopodobnie posiadanej przez te podmioty wiedzy. Instrukcje obsługi powinny być udostępniane w języku łatwo zrozumiałym dla docelowych podmiotów stosujących, określonym przez zainteresowane państwo członkowskie.
(72)
Lai kliedētu bažas, kas saistītas ar dažu MI sistēmu nepārredzamību un sarežģītību, un palīdzētu uzturētājiem izpildīt savus pienākumus saskaņā ar šo regulu, pirms augsta riska MI sistēmu laišanas tirgū vai nodošanas ekspluatācijā būtu jānodrošina to pārredzamība. Augsta riska MI sistēmas būtu jāprojektē tā, lai uzturētāji varētu saprast, kā MI sistēma darbojas, izvērtēt tās funkcionalitāti un izprast tās stiprās puses un ierobežojumus. Augsta riska MI sistēmām būtu jāpievieno atbilstoša informācija lietošanas instrukcijas veidā. Šādai informācijai būtu jāietver MI sistēmas raksturlielumi, spējas un veiktspējas ierobežojumi. Minētie elementi ietvertu informāciju par iespējamiem zināmiem un paredzamiem apstākļiem, kuri saistīti ar augsta riska MI sistēmas lietošanu, tostarp uzturētāja darbību, kas var ietekmēt sistēmas uzvedību un veiktspēju, un kuros MI sistēma var radīt riskus veselībai, drošībai un pamattiesībām, par izmaiņām, kuras nodrošinātājs ir iepriekš noteicis un novērtējis attiecībā uz atbilstību, un par attiecīgajiem cilvēka virsvadības pasākumiem, tostarp pasākumiem, ar kuriem uzturētājiem palīdz interpretēt MI sistēmas iznākumus. Pārredzamībai, tostarp pievienotajai lietošanas instrukcijai, būtu jāpalīdz uzturētājiem sistēmas lietošanā un būtu jāatbalsta, ka tie pieņem informētus lēmumus. Uzturētājiem cita starpā vajadzētu būt labākām iespējām pareizi izvēlēties sistēmu, ko tie plāno lietot, ņemot vērā pienākumus, kas uz tiem attiecas, tiem vajadzētu būt izglītotiem par paredzētajiem un aizliegtajiem lietojumiem, un tiem būtu MI sistēma jālieto pareizi un atbilstoši. Lai uzlabotu lietošanas instrukcijā iekļautās informācijas skaidrību un piekļūstamību, attiecīgā gadījumā būtu jāiekļauj ilustratīvi piemēri, piemēram, par ierobežojumiem un par paredzētajiem un aizliegtajiem MI sistēmas lietojumiem. Nodrošinātājiem būtu jānodrošina, ka visa dokumentācija, tostarp lietošanas instrukcija, ietver jēgpilnu, visaptverošu, pieejamu un saprotamu informāciju, ņemot vērā mērķēto uzturētāju vajadzības un paredzamās zināšanas. Lietošanas instrukcijām vajadzētu būt pieejamām mērķētajiem uzturētājiem viegli saprotamā valodā, kā noteikusi attiecīgā dalībvalsts.
(73)
Systemy AI wysokiego ryzyka należy projektować i rozwijać w taki sposób, aby osoby fizyczne mogły nadzorować ich funkcjonowanie, zapewniać, by ich wykorzystanie było zgodne z przeznaczeniem oraz zapewniać, aby skutki ich wykorzystania były uwzględniane w całym cyklu życia systemu. W tym celu przed wprowadzeniem systemu do obrotu lub oddaniem go do użytku dostawca systemu powinien określić odpowiednie środki związane z nadzorem ze strony człowieka. W szczególności, w stosownych przypadkach, takie środki powinny gwarantować, że system podlega wbudowanym ograniczeniom operacyjnym, których sam nie jest w stanie obejść, i reaguje na działania człowieka – operatora systemu, oraz że osoby fizyczne, którym powierzono sprawowanie nadzoru ze strony człowieka, posiadają niezbędne kompetencje, przeszkolenie i uprawnienia do pełnienia tej funkcji. W stosownych przypadkach istotne jest także zapewnienie, aby systemy AI wysokiego ryzyka obejmowały mechanizmy udzielania wskazówek i informacji osobom fizycznym, którym powierzono nadzór ze strony człowieka, aby mogły one podejmować świadome decyzje, czy, kiedy i w jaki sposób należy interweniować w celu uniknięcia negatywnych konsekwencji lub ryzyka lub zatrzymać system, jeżeli nie działa on zgodnie z przeznaczeniem. Zważywszy na istotne konsekwencje dla osób w przypadku nieprawidłowego dopasowania przez niektóre systemy identyfikacji biometrycznej, należy wprowadzić wymóg sprawowania w odniesieniu do tych systemów wzmocnionego nadzoru ze strony człowieka, tak aby podmiot stosujący nie mógł podejmować żadnych działań ani decyzji na podstawie identyfikacji wynikającej z systemu, dopóki nie została ona odrębnie zweryfikowana i potwierdzona przez co najmniej dwie osoby fizyczne. Osoby te mogą pochodzić z różnych podmiotów i mogą to być osoby obsługujące system lub z niego korzystające. Wymóg ten nie powinien powodować niepotrzebnych obciążeń ani opóźnień i powinno wystarczyć, że odrębne weryfikacje dokonywane przez różne osoby będą automatycznie rejestrowane w wygenerowanych przez system rejestrach zdarzeń. Biorąc pod uwagę specyfikę obszarów ścigania przestępstw, migracji, kontroli granicznej i azylu, wymóg ten nie powinien mieć zastosowania, jeżeli na mocy prawa Unii lub prawa krajowego stosowanie tego wymogu uznaje się za nieproporcjonalne.
(73)
Augsta riska MI sistēmas būtu jāprojektē un jāizstrādā tā, lai fiziskas personas varētu virsvadīt to funkcionēšanu, nodrošināt, ka tās tiek lietotas, kā paredzēts, un ka to ietekmei pievēršas visā sistēmas darbmūžā. Šajā nolūkā sistēmas nodrošinātājam pirms sistēmas laišanas tirgū vai nodošanas ekspluatācijā būtu jānosaka piemēroti cilvēka virsvadības pasākumi. Jo īpaši, attiecīgā gadījumā šādiem pasākumiem būtu jāgarantē, ka sistēmai ir iebūvēti operacionāli ierobežojumi, kurus pati sistēma nevar neievērot, un ka tā reaģē uz cilvēka-operatora virsvadību un ka fiziskām personām, kurām uzticēta šī virsvadība, ir uzdevuma veikšanai nepieciešamā kompetence, apmācība un pilnvaras. Attiecīgā gadījumā ir arī būtiski nodrošināt, ka augsta riska MI sistēmas ietver mehānismus, kas ievirza un informē fizisku personu, kurai ir uzticēta cilvēka virsvadība, lai tā pieņemtu informētus lēmumus par to, vai, kad un kā iejaukties, lai izvairītos no negatīvām sekām vai riskiem, vai apturētu sistēmu, ja tā nedarbojas, kā paredzēts. Ņemot vērā būtiskās sekas personām, ja dažas biometriskās identifikācijas sistēmas uzrādītu nepareizu atbilstību, ir lietderīgi attiecībā uz minētajām sistēmām paredzēt pastiprinātas cilvēka virsvadības prasību, lai uzturētājs, pamatojoties uz identifikāciju, kas izriet no sistēmas, nevarētu veikt nekādas darbības vai pieņemt lēmumu, ja vien to nav atsevišķi pārbaudījušas un apstiprinājušas vismaz divas fiziskas personas. Minētās personas varētu būt no vienas vai vairākām vienībām, tostarp persona, kas darbina vai izmanto sistēmu. Šai prasībai nevajadzētu radīt nevajadzīgu slogu vai kavēšanos, un varētu pietikt ar to, ka sistēmas ģenerētajās žurnāldatnēs tiek automātiski reģistrētas dažādu personu veiktās atsevišķās verifikācijas. Ņemot vērā tiesībaizsardzības, migrācijas, robežkontroles un patvēruma jomu specifiku, šī prasība nebūtu jāpiemēro, ja Savienības vai valsts tiesību aktos minētās prasības piemērošana tiek uzskatīta par nesamērīgu.
(74)
Systemy AI wysokiego ryzyka powinny działać w sposób spójny w całym cyklu życia i charakteryzować się odpowiednim poziomem dokładności, solidności i cyberbezpieczeństwa – w świetle ich przeznaczenia i zgodnie z powszechnie uznawanym stanem wiedzy technicznej. Komisję oraz odpowiednie organizacje i zainteresowane strony zachęca się, by należycie uwzględniały ograniczanie ryzyka i negatywnych skutków związanych z systemem AI. Oczekiwany poziom wskaźników skuteczności działania należy zadeklarować w załączonej instrukcji obsługi. Dostawców wzywa się, by przekazywali te informacje podmiotom stosującym w jasny i łatwo zrozumiały sposób, wolny od dwuznaczności i stwierdzeń wprowadzających w błąd. Prawo Unii dotyczące metrologii prawnej, w tym dyrektywy Parlamentu Europejskiego i Rady 2014/31/UE (35) i 2014/32/UE (36), ma na celu zapewnienie dokładności pomiarów oraz wspieranie przejrzystości i uczciwości transakcji handlowych. W tym kontekście, we współpracy z odpowiednimi zainteresowanymi stronami i organizacjami, takimi jak organy ds. metrologii i organy ds. analizy porównawczej, Komisja powinna w stosownych przypadkach zachęcać do opracowywania poziomów odniesienia i metod pomiaru dotyczących systemów AI. Komisja powinna przy tym współpracować z partnerami międzynarodowymi pracującymi nad metrologią i odpowiednimi wskaźnikami pomiarowymi związanymi z AI oraz uwzględniać ich działania.
(74)
Augsta riska MI sistēmām jādarbojas konsekventi visā to darbmūžā un jānodrošina atbilstošs precizitātes, robustuma un kiberdrošības līmenis, ņemot vērā to paredzēto nolūku un saskaņā ar vispāratzīto tehnoloģiju attīstības līmeni. Komisija un attiecīgās organizācijas un ieinteresētās personas tiek mudinātas pienācīgi ņemt vērā MI sistēmas risku un negatīvās ietekmes mazināšanu. Paredzamais veiktspējas rādītāju līmenis būtu jānorāda pievienotajā lietošanas instrukcijā. Nodrošinātāji tiek mudināti minēto informāciju paziņot uzturētājiem skaidrā un viegli saprotamā veidā, bez pārpratumiem vai maldinošiem paziņojumiem. Savienības tiesību aktu par reglamentēto metroloģiju, tostarp Eiropas Parlamenta un Padomes Direktīvu 2014/31/ES (35) un 2014/32/ES (36), mērķis ir nodrošināt mērījumu precizitāti un veicināt komercdarījumu pārredzamību un taisnīgumu. Minētajā sakarā sadarbībā ar attiecīgajām ieinteresētajām personām un organizācijām, piemēram, metroloģijas un salīdzinošās vērtēšanas iestādēm, Komisijai attiecīgā gadījumā būtu jāveicina MI sistēmu etalonrādītāju un mērījumu metodiku izstrāde. To darot, Komisijai būtu jāņem vērā starptautiskie partneri, kas strādā metroloģijas un attiecīgo ar MI saistīto mērījumu rādītāju jomā, un jāsadarbojas ar tiem.
(75)
Kluczowym wymogiem dotyczącym systemów AI wysokiego ryzyka jest solidność techniczna. Powinny one być odporne na szkodliwe lub w inny sposób niepożądane zachowania, które mogą wynikać z ograniczeń w systemach lub ze środowiska, w którym te systemy działają (np. błędy, usterki, niespójności, nieoczekiwane sytuacje). W związku z tym należy wprowadzić środki techniczne i organizacyjne, by zapewnić solidność systemów AI wysokiego ryzyka, na przykład poprzez projektowanie i rozwijanie odpowiednich rozwiązań technicznych w celu zapobiegania szkodliwym lub innym niepożądanym zachowaniom lub ich ograniczania. Takie rozwiązania techniczne mogą obejmować na przykład mechanizmy umożliwiające bezpieczne przerwanie działania systemu (przejście systemu w stan bezpieczny – tzw. „fail-safe”), jeśli zaistnieją pewne nieprawidłowości lub gdy działanie wykracza poza określone z góry granice. Brak ochrony przed tym ryzykiem może mieć konsekwencje dla bezpieczeństwa lub negatywnie wpłynąć na prawa podstawowe, na przykład z powodu błędnych decyzji lub nieprawidłowych lub stronniczych wyników generowanych przez system AI.
(75)
Tehniskais robustums ir viena no galvenajām prasībām augsta riska MI sistēmām. Tām vajadzētu būt noturīgām pret kaitīgu vai citādi nevēlamu uzvedību, ko var izraisīt ierobežojumi sistēmās vai vidē, kurā sistēmas darbojas (piemēram, kļūdas, defekti, neatbilstības, negaidītas situācijas). Tāpēc būtu jāveic tehniski un organizatoriski pasākumi, lai nodrošinātu augsta riska MI sistēmu robustumu, piemēram, projektējot un izstrādājot piemērotus tehniskus risinājumus, lai novērstu vai līdz minimumam samazinātu kaitīgu vai citādi nevēlamu uzvedību. Minētie tehniskie risinājumi var ietvert, piemēram, mehānismus, kas ļauj sistēmai droši pārtraukt savu darbību (drošatteices plāni) dažu noviržu gadījumā vai tad, ja darbība notiek ārpus konkrētām iepriekš noteiktām robežām. Nespēja aizsargāt pret šiem riskiem varētu ietekmēt drošību vai negatīvi ietekmēt pamattiesības, piemēram, MI sistēmas ģenerētu kļūdainu lēmumu vai nepareizu vai neobjektīvu iznākumu dēļ.
(76)
Cyberbezpieczeństwo odgrywa kluczową rolę w zapewnianiu odporności systemów AI na próby modyfikacji ich wykorzystania, zachowania, skuteczności działania lub obejścia ich zabezpieczeń przez działające w złej wierze osoby trzecie wykorzystujące słabe punkty systemu. Cyberataki na systemy AI mogą polegać na wykorzystaniu konkretnych zasobów AI, takich jak zbiory danych treningowych (np. zatruwanie danych) lub trenowane modele (np. ataki kontradyktoryjne lub ataki wnioskowania o członkostwie), lub wykorzystaniu słabych punktów w zasobach cyfrowych systemu AI lub w bazowej infrastrukturze ICT. Aby zapewnić poziom cyberbezpieczeństwa odpowiedni do ryzyka, dostawcy systemów AI wysokiego ryzyka powinni zatem wdrożyć odpowiednie środki, takie jak mechanizmy kontroli bezpieczeństwa, uwzględniając również w stosownych przypadkach infrastrukturę ICT, na której opiera się dany system.
(76)
Kiberdrošībai ir būtiska loma, nodrošinot, ka MI sistēmas ir noturīgas pret mēģinājumiem mainīt to lietojumu, uzvedību, veiktspēju vai apdraudēt to drošības iezīmes, ļaunprātīgām trešām personām izmantojot sistēmas vājās vietas. Kiberuzbrukumi MI sistēmām var izmantot MI konkrētos aktīvus, piemēram, apmācībā izmantotās datu kopas (piemēram, datu saindēšana) vai apmācītos modeļus (piemēram, pretinieciskie uzbrukumi vai dalības inference), vai ekspluatēt MI sistēmas digitālo aktīvu vai pamatā esošās IKT infrastruktūras vājās vietas. Lai nodrošinātu riskiem atbilstošu kiberdrošības līmeni, augsta riska MI sistēmu nodrošinātājiem būtu jāveic piemēroti pasākumi, piemēram, drošības kontroles, attiecīgi ņemot vērā arī pamatā esošo IKT infrastruktūru.
(77)
Bez uszczerbku dla wymogów związanych z solidnością i dokładnością określonych w niniejszym rozporządzeniu systemy AI wysokiego ryzyka, które wchodzą w zakres stosowania rozporządzenia Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi, zgodnie z tym rozporządzeniem mogą wykazać zgodność z wymogami w zakresie cyberbezpieczeństwa określonymi w niniejszym rozporządzeniu w drodze spełnienia zasadniczych wymogów w zakresie cyberbezpieczeństwa ustanowionych w tym rozporządzeniu. W przypadku gdy systemy AI wysokiego ryzyka spełniają zasadnicze wymogi rozporządzenia Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi, należy uznać, że wykazują zgodność z wymogami w zakresie cyberbezpieczeństwa ustanowionymi w niniejszym rozporządzeniu w zakresie, w jakim spełnienie tych wymogów wykazano w deklaracji zgodności UE lub w jej częściach wydanych zgodnie z tym rozporządzeniem. W tym celu ocena ryzyka dotyczącego cyberbezpieczeństwa związanego z produktem z elementami cyfrowymi, które zaklasyfikowano jako system AI wysokiego ryzyka zgodnie z niniejszym rozporządzeniem, przeprowadzana na podstawie rozporządzenia Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi, powinna uwzględniać ryzyko dla cyberodporności systemu AI w odniesieniu do podejmowanych przez nieupoważnione osoby trzecie prób zmiany jego wykorzystania, zachowania lub skuteczności działania, w tym uwzględniać charakterystyczne dla AI słabe punkty, takie jak ryzyko zatruwania danych lub ataki kontradyktoryjne, a także, w stosownych przypadkach, uwzględniać ryzyko dla praw podstawowych zgodnie z wymogami niniejszego rozporządzenia.
(77)
Neskarot šajā regulā noteiktās prasības attiecībā uz robustumu un precizitāti, augsta riska MI sistēmas, kas ietilpst Eiropas Parlamenta un Padomes Regulas par horizontālajām kiberdrošības prasībām attiecībā uz produktiem ar digitāliem elementiem darbības jomā, saskaņā ar minēto regulu var apliecināt atbilstību šīs regulas kiberdrošības prasībām, izpildot minētajā regulā noteiktās kiberdrošības pamatprasības. Ja augsta riska MI sistēmas atbilst Regulas par horizontālajām kiberdrošības prasībām attiecībā uz produktiem ar digitāliem elementiem pamatprasībām, tās būtu jāuzskata par atbilstošām šajā regulā noteiktajām kiberdrošības prasībām, ciktāl minēto prasību izpilde ir apliecināta saskaņā ar minēto regulu izdotā ES atbilstības deklarācijā vai tās daļās. Šajā nolūkā saskaņā ar Regulu par horizontālajām kiberdrošības prasībām attiecībā uz produktiem ar digitāliem elementiem veiktā tādu kiberdrošības risku novērtējumā, kuri saistīti ar produktu ar digitāliem elementiem, kas saskaņā ar šo regulu klasificēts kā augsta riska MI sistēma, būtu jāņem vērā MI sistēmas kibernoturības riski attiecībā uz nepilnvarotu trešo personu mēģinājumiem mainīt tās lietojumu, uzvedību vai veiktspēju, tostarp MI konkrētā ietekmējamība, piemēram, datu saindēšana vai pretinieciskie uzbrukumi, kā arī attiecīgā gadījumā riski pamattiesībām, kā noteikts šajā regulā.
(78)
Procedura oceny zgodności przewidziana w niniejszym rozporządzeniu powinna mieć zastosowanie do zasadniczych wymogów w zakresie cyberbezpieczeństwa produktu z elementami cyfrowymi objętego rozporządzeniem Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi i zaklasyfikowanego jako system AI wysokiego ryzyka na podstawie niniejszego rozporządzenia. Zasada ta nie powinna jednak powodować zmniejszenia niezbędnego poziomu ufności w odniesieniu do produktów krytycznych z elementami cyfrowymi objętych rozporządzeniem Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi. W związku z tym, na zasadzie odstępstwa od tej zasady, systemy AI wysokiego ryzyka, które wchodzą w zakres niniejszego rozporządzenia i są również kwalifikowane jako ważne i krytyczne produkty z elementami cyfrowymi zgodnie z rozporządzeniem Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi i do których ma zastosowanie procedura oceny zgodności oparta na kontroli wewnętrznej określona w załączniku do niniejszego rozporządzenia, podlegają przepisom dotyczącym oceny zgodności zawartym w rozporządzeniu Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi w zakresie, w jakim dotyczy to zasadniczych wymogów w zakresie cyberbezpieczeństwa określonych w tym rozporządzeniu. W tym przypadku do wszystkich pozostałych aspektów objętych niniejszym rozporządzeniem należy stosować odpowiednie przepisy dotyczące oceny zgodności opierającej się na kontroli wewnętrznej określone w załączniku do niniejszego rozporządzenia. By wykorzystać wiedzę teoretyczną i fachową ENISA w zakresie polityki cyberbezpieczeństwa i w oparciu o zadania powierzone ENISA na podstawie rozporządzenia Parlamentu Europejskiego i Rady (UE) 2019/881 (37), Komisja powinna współpracować z ENISA w kwestiach związanych z cyberbezpieczeństwem systemów AI.
(78)
Šajā regulā paredzētā atbilstības novērtēšanas procedūra būtu jāpiemēro attiecībā uz kiberdrošības pamatprasībām produktam ar digitāliem elementiem, uz ko attiecas Regula par horizontālajām kiberdrošības prasībām attiecībā uz produktiem ar digitāliem elementiem un kas saskaņā ar šo regulu klasificēts kā augsta riska MI sistēma. Tomēr šā noteikuma piemērošanai nevajadzētu samazināt nepieciešamo uzticamības līmeni kritiski svarīgajiem produktiem ar digitāliem elementiem, uz kuriem attiecas Regula par horizontālajām kiberdrošības prasībām attiecībā uz produktiem ar digitāliem elementiem. Tāpēc, atkāpjoties no šā noteikuma, augsta riska MI sistēmām, kuras ir šīs regulas darbības jomā un ir arī kvalificētas kā svarīgi un kritiski svarīgi produkti ar digitāliem elementiem, ievērojot Regulu par horizontālajām kiberdrošības prasībām attiecībā uz produktiem ar digitāliem elementiem, un uz kurām attiecas šīs regulas pielikumā izklāstītā atbilstības novērtēšanas procedūra, kā pamatā ir iekšējā kontrole, piemēro Regulas par horizontālajām kiberdrošības prasībām attiecībā uz produktiem ar digitāliem elementiem atbilstības novērtēšanas noteikumus, ciktāl tie attiecas uz minētās regulas kiberdrošības pamatprasībām. Šajā gadījumā visiem pārējiem aspektiem, uz kuriem attiecas šī regula, būtu jāpiemēro attiecīgie noteikumi par atbilstības novērtēšanu, pamatojoties uz iekšējo kontroli, kas izklāstīti šīs regulas pielikumā. Pamatojoties uz ENISA zināšanām un lietpratību par kiberdrošības politiku un uzdevumiem, kas ENISA uzticēti saskaņā ar Eiropas Parlamenta un Padomes Regulu (ES) 2019/881 (37), Komisijai būtu jāsadarbojas ar ENISA jautājumos, kas saistīti ar MI sistēmu kiberdrošību.
(79)
Należy zapewnić, aby odpowiedzialność za wprowadzenie do obrotu lub oddanie do użytku systemu AI wysokiego ryzyka ponosiła konkretna osoba fizyczna lub prawna określona jako dostawca, niezależnie od tego, czy ta osoba fizyczna lub prawna jest osobą, która zaprojektowała lub rozwinęła system.
(79)
Ir lietderīgi, ka konkrēta fiziska vai juridiska persona, kas definēta kā nodrošinātājs, uzņemas atbildību par augsta riska MI sistēmas laišanu tirgū vai nodošanu ekspluatācijā, neatkarīgi no tā, vai minētā fiziskā vai juridiskā persona ir tā persona, kas sistēmu projektējusi vai izstrādājusi.
(80)
Jako sygnatariusze Konwencji ONZ o prawach osób niepełnosprawnych Unia i państwa członkowskie są prawnie zobowiązane do ochrony osób z niepełnosprawnościami przed dyskryminacją i do propagowania ich równości, do zapewnienia im dostępu na równych zasadach z innymi osobami do technologii i systemów informacyjno-komunikacyjnych oraz do zapewnienia poszanowania ich prywatności. Z uwagi na rosnące znaczenie i wykorzystanie systemów sztucznej inteligencji stosowanie zasad projektowania uniwersalnego do wszystkich nowych technologii i usług powinno zapewniać pełny i równy dostęp dla wszystkich osób, których potencjalnie dotyczą technologie AI lub które je stosują, w tym osób z niepełnosprawnościami, w sposób uwzględniający w pełni ich przyrodzoną godność i różnorodność. Istotne jest zatem, aby dostawcy zapewniali pełną zgodność z wymogami dostępności, w tym z dyrektywą Parlamentu Europejskiego i Rady (UE) 2016/2102 (38) i dyrektywą (UE) 2019/882. Dostawcy powinni zapewnić zgodność z tymi wymogami już na etapie projektowania. W związku z tym w projektowaniu systemu AI wysokiego ryzyka należy w jak największym stopniu uwzględnić niezbędne środki.
(80)
Savienībai un dalībvalstīm kā Apvienoto Nāciju Organizācijas Konvencijas par personu ar invaliditāti tiesībām parakstītājām ir juridisks pienākums aizsargāt personas ar invaliditāti pret diskrimināciju un veicināt viņu līdztiesību, nodrošināt, ka personām ar invaliditāti ir tāda pati piekļuve informācijas un komunikācijas tehnoloģijām un sistēmām kā citiem, un nodrošināt personu ar invaliditāti privātuma ievērošanu. Ņemot vērā MI sistēmu pieaugošo nozīmi un lietošanu, universālā dizaina principu piemērošanai visām jaunajām tehnoloģijām un pakalpojumiem būtu jānodrošina pilnīga un vienlīdzīga piekļuve visiem, kurus potenciāli skar MI tehnoloģijas vai kuri tās izmanto, tostarp personām ar invaliditāti, tādā veidā, ka tiek pilnībā ievērota minēto personu cieņa un daudzveidība. Tāpēc ir būtiski, ka nodrošinātāji nodrošina pilnīgu atbilstību piekļūstamības prasībām, tostarp Eiropas Parlamenta un Padomes Direktīvai (ES) 2016/2102 (38) un Direktīvai (ES) 2019/882. Nodrošinātājiem būtu jānodrošina integrēta atbilstība šīm prasībām. Tāpēc nepieciešamie pasākumi būtu pēc iespējas jāintegrē augsta riska MI sistēmas projektēšanā.
(81)
Dostawca powinien ustanowić solidny system zarządzania jakością, zapewnić przeprowadzenie wymaganej procedury oceny zgodności, sporządzić odpowiednią dokumentację i ustanowić solidny system monitorowania po wprowadzeniu do obrotu. Dostawcy systemów AI wysokiego ryzyka, którzy podlegają obowiązkom dotyczącym systemów zarządzania jakością na mocy odpowiednich sektorowych przepisów prawa Unii, powinni mieć możliwość włączenia elementów systemu zarządzania jakością przewidzianego w niniejszym rozporządzeniu do istniejącego systemu zarządzania jakością przewidzianego w innych sektorowych przepisach prawa Unii. Komplementarność między niniejszym rozporządzeniem a obowiązującymi sektorowymi przepisami prawa Unii powinna być również brana pod uwagę w przyszłych działaniach normalizacyjnych lub wytycznych przyjmowanych przez Komisję. Organy publiczne, które oddają do użytku systemy AI wysokiego ryzyka do celów własnych, mogą – w ramach przyjętego, odpowiednio, na poziomie krajowym lub regionalnym systemu zarządzania jakością – przyjąć i wdrożyć zasady dotyczące systemu zarządzania jakością, z uwzględnieniem specyfiki sektora oraz kompetencji i organizacji danego organu publicznego.
(81)
Nodrošinātājam būtu jāizveido stabila kvalitātes vadības sistēma, jānodrošina nepieciešamās atbilstības novērtēšanas procedūras pabeigšana, jāizstrādā attiecīgā dokumentācija un jāizveido spēcīga pēctirgus pārraudzības sistēma. Augsta riska MI sistēmu nodrošinātājiem, uz kuriem attiecas pienākumi attiecībā uz kvalitātes pārvaldības sistēmām saskaņā ar attiecīgajiem Savienības nozaru tiesību aktiem, vajadzētu būt iespējai šajā regulā paredzētās kvalitātes pārvaldības sistēmas elementus iekļaut esošajā kvalitātes pārvaldības sistēmā, kas paredzēta minētajos citos Savienības nozaru tiesību aktos. Turpmākajās standartizācijas darbībās vai Komisijas pieņemtajos norādījumos būtu jāņem vērā arī papildināmība starp šo regulu un spēkā esošajiem Savienības nozaru tiesību aktiem. Publiskas iestādes, kuras nodod ekspluatācijā augsta riska MI sistēmu pašu lietošanai, var pieņemt un īstenot kvalitātes vadības sistēmas noteikumus valsts vai reģionālā līmenī pieņemtas kvalitātes vadības sistēmas ietvaros, attiecīgi ņemot vērā nozares īpatnības un attiecīgās publiskās iestādes kompetences un struktūru.
(82)
W celu umożliwienia egzekwowania przepisów niniejszego rozporządzenia i stworzenia równych warunków działania dla operatorów, a także uwzględniając różne formy udostępniania produktów cyfrowych, należy zapewnić, aby w każdych okolicznościach osoba, która ma miejsce zamieszkania lub siedzibę w Unii, była w stanie przekazać organom wszystkie niezbędne informacje dotyczące zgodności danego systemu AI. W związku z tym dostawcy mający miejsce zamieszkania lub siedzibę w państwach trzecich przed udostępnieniem swoich systemów AI w Unii powinni ustanowić – na podstawie pisemnego pełnomocnictwa – upoważnionego przedstawiciela mającego miejsce zamieszkania lub siedzibę w Unii. Ten upoważniony przedstawiciel odgrywa kluczową rolę w zapewnianiu zgodności systemów AI wysokiego ryzyka wprowadzanych do obrotu lub oddawanych do użytku w Unii przez dostawców, którzy nie mają miejsca zamieszkania lub siedziby w Unii, oraz w pełnieniu funkcji ich osoby kontaktowej mającej miejsce zamieszkania lub siedzibę w Unii.
(82)
Lai nodrošinātu šīs regulas izpildi un radītu vienlīdzīgus konkurences apstākļus operatoriem un ņemot vērā dažādos veidus, kā digitālos produktus var darīt pieejamus, ir svarīgi nodrošināt, ka Savienībā iedibināta persona jebkuros apstākļos var iestādēm sniegt visu nepieciešamo informāciju par MI sistēmas atbilstību. Tāpēc nodrošinātājiem, kas iedibināti trešās valstīs, pirms savas MI sistēmas dara pieejamas Savienībā, ar rakstisku pilnvaru būtu jāieceļ Savienībā iedibinātu pilnvarotu pārstāvi. Šim pilnvarotajam pārstāvim ir būtiska loma tādu augsta riska MI sistēmu atbilstības nodrošināšanā, kuras Savienībā laiž tirgū vai nodod ekspluatācijā nodrošinātāji, kas nav iedibināti Savienībā, un tas darbojas kā šo nodrošinātāju kontaktpersona, kas iedibināta Savienībā.
(83)
W świetle charakteru i złożoności łańcucha wartości systemów AI oraz zgodnie z nowymi ramami prawnymi konieczne jest zapewnienie pewności prawa i ułatwienie zgodności z niniejszym rozporządzeniem. W związku z tym konieczne jest wyjaśnienie roli i konkretnych obowiązków odpowiednich operatorów w całym łańcuchu wartości, takich jak importerzy i dystrybutorzy, którzy mogą przyczyniać się do rozwoju systemów AI. W niektórych sytuacjach operatorzy ci mogą odgrywać więcej niż jedną rolę jednocześnie i w związku z tym powinni łącznie spełniać wszystkie odpowiednie obowiązki związane z tymi rolami. Na przykład operator może występować jednocześnie jako dystrybutor i importer.
(83)
Ņemot vērā MI sistēmu vērtības ķēdes raksturu un sarežģītību un saskaņā ar Jauno tiesisko regulējumu, ir būtiski nodrošināt juridisko noteiktību un veicināt atbilstību šai regulai. Tāpēc ir jāprecizē to attiecīgo operatoru, piemēram, importētāju un izplatītāju, loma un konkrētie pienākumi visā vērtības ķēdē, kuri var veicināt MI sistēmu izstrādi. Dažās situācijās minētie operatori varētu vienlaikus pildīt vairāk nekā vienu funkciju, un tāpēc tiem būtu kumulatīvi jāizpilda visi attiecīgie pienākumi, kas saistīti ar minētajām funkcijām. Piemēram, operators varētu darboties vienlaikus kā izplatītājs un importētājs.
(84)
Aby zapewnić pewność prawa, należy wyjaśnić, że w pewnych określonych warunkach każdego dystrybutora, importera, podmiot stosujący lub inną stronę trzecią należy uznać za dostawcę systemu AI wysokiego ryzyka i w związku z tym powinni oni przyjąć na siebie wszystkie związane z tym obowiązki. Miałoby to miejsce w przypadku, gdy strona ta umieszcza swoją nazwę lub znak towarowy w systemie AI wysokiego ryzyka, który został już wprowadzony do obrotu lub oddany do użytku, bez uszczerbku dla ustaleń umownych przewidujących odmienny podział obowiązków. Miałoby to miejsce również w przypadku, gdy strona ta dokonuje istotnej zmiany w systemie AI wysokiego ryzyka, który został już wprowadzony do obrotu lub oddany do użytku, w taki sposób, że pozostaje on systemem AI wysokiego ryzyka zgodnie z niniejszym rozporządzeniem, lub jeżeli zmieni przeznaczenie systemu AI, w tym systemu AI ogólnego przeznaczenia, który nie został zaklasyfikowany jako system wysokiego ryzyka i został już wprowadzony do obrotu lub oddany do użytku, w taki sposób, że ten system AI staje się systemem wysokiego ryzyka zgodnie z niniejszym rozporządzeniem. Przepisy te należy stosować bez uszczerbku dla bardziej szczegółowych przepisów ustanowionych w unijnym prawodawstwie harmonizacyjnym opartym o nowe ramy prawne, wraz z którymi należy stosować niniejsze rozporządzenie. Na przykład do systemów AI wysokiego ryzyka będących wyrobami medycznymi w rozumieniu rozporządzenia (UE) 2017/745, należy nadal stosować art. 16 ust. 2 tego rozporządzenia stanowiący, że niektórych zmian nie należy uznawać za modyfikację wyrobu mogącą wpłynąć na jego zgodność z obowiązującymi wymogami.
(84)
Lai nodrošinātu juridisko noteiktību, ir jāprecizē, ka saskaņā ar dažiem konkrētiem nosacījumiem jebkurš uzturētājs, importētājs, ieviesējs vai cita trešā persona būtu jāuzskata par augsta riska MI sistēmas nodrošinātāju un tādēļ tam būtu jāuzņemas visi attiecīgie pienākumi. Tā tas būtu gadījumā, ja minētā persona uzliek savu nosaukumu/vārdu vai preču zīmi augsta riska MI sistēmai, kas jau ir laista tirgū vai nodota ekspluatācijā, neskarot līgumiskas vienošanās, kas paredz, ka pienākumi tiek sadalīti citādi. Tā tas būtu arī gadījumā, ja minētā persona veic būtisku modifikāciju augsta riska MI sistēmā, kura jau ir laista tirgū vai jau ir nodota ekspluatācijā, tādā veidā, ka tā joprojām paliek augsta riska MI sistēma, ievērojot šo regulu, vai ja tā veic modifikāciju MI sistēmai paredzētajā nolūkā, tostarp vispārīga lietojuma MI sistēmai, kas nav klasificēta kā augsta riska sistēma un kas jau ir laista tirgū vai nodota ekspluatācijā, tādā veidā, ka attiecīgā MI sistēma kļūst par augsta riska MI sistēmu saskaņā ar šo regulu. Minētie noteikumi būtu jāpiemēro, neskarot konkrētākus noteikumus, kas paredzēti dažos Savienības saskaņošanas tiesību aktos, kuru pamatā ir Jaunais tiesiskais regulējums, kopā ar kuru būtu jāpiemēro šī regula. Piemēram, Regulas (ES) 2017/745 16. panta 2. punktu, kurā noteikts, ka dažas izmaiņas nebūtu jāuzskata par tādām ierīces modifikācijām, kas varētu ietekmēt tās atbilstību piemērojamajām prasībām, būtu jāturpina piemērot augsta riska MI sistēmām, kuras ir medicīniskas ierīces minētās regulas nozīmē.
(85)
Systemy AI ogólnego przeznaczenia mogą być wykorzystywane jako samodzielne systemy AI wysokiego ryzyka lub stanowić element innych systemów AI wysokiego ryzyka. W związku z tym z uwagi na ich szczególny charakter i aby zapewnić sprawiedliwy podział odpowiedzialności w całym łańcuchu wartości AI, dostawcy takich systemów, niezależnie od tego, czy ich mogą być one wykorzystywane jako systemy AI wysokiego ryzyka przez innych dostawców czy jako elementy systemów AI wysokiego ryzyka, powinni ściśle współpracować – o ile niniejsze rozporządzenie nie stanowi inaczej – z dostawcami odpowiednich systemów AI wysokiego ryzyka, aby umożliwić im spełnianie odpowiednich obowiązków ustanowionych w niniejszym rozporządzeniu, oraz z właściwymi organami ustanowionymi na podstawie niniejszego rozporządzenia.
(85)
Vispārīga lietojuma MI sistēmas var lietot kā augsta riska MI sistēmas pašas par sevi vai kā citu augsta riska MI sistēmu sastāvdaļas. Tāpēc, ņemot vērā šādu sistēmu īpašo raksturu un lai nodrošinātu taisnīgu atbildības sadali visā MI vērtības ķēdē, šādu sistēmu nodrošinātājiem – neatkarīgi no tā, vai citi nodrošinātāji tās var lietot kā augsta riska MI sistēmas pašas par sevi vai kā augsta riska MI sistēmu sastāvdaļas, un ja šajā regulā nav noteikts citādi, – būtu cieši jāsadarbojas ar attiecīgo augsta riska MI sistēmu nodrošinātājiem, lai nodrošinātu atbilstību attiecīgajiem šajā regulā noteiktajiem pienākumiem, un ar kompetentajām iestādēm, kas izveidotas šajā regulā.
(86)
W przypadku gdy zgodnie z warunkami ustanowionymi w niniejszym rozporządzeniu dostawcy, który pierwotnie wprowadził system AI do obrotu lub oddał go do użytku, nie należy już uznawać za dostawcę do celów niniejszego rozporządzenia, a dostawca ten nie wykluczył wyraźnie, że system AI może zostać zmieniony w system AI wysokiego ryzyka, ten pierwszy dostawca powinien nadal ściśle współpracować i udostępniać niezbędne informacje oraz zapewniać dostęp techniczny i inną pomoc, których można zasadnie oczekiwać i które są wymagane do spełnienia obowiązków ustanowionych w niniejszym rozporządzeniu, w szczególności w zakresie wymogów dotyczących oceny zgodności systemów AI wysokiego ryzyka.
(86)
Ja saskaņā ar šajā regulā paredzētajiem nosacījumiem nodrošinātājs, kas sākotnēji laidis tirgū vai nodevis ekspluatācijā MI sistēmu, vairs nebūtu uzskatāms par nodrošinātāju šīs regulas nozīmē un ja minētais nodrošinātājs nav skaidri izslēdzis MI sistēmas pārveidošanu par augsta riska MI sistēmu, iepriekšējam nodrošinātājam tomēr būtu cieši jāsadarbojas un jādara pieejama nepieciešamā informācija, un jāsniedz saprātīgi sagaidāma tehniskā piekļuve un cita palīdzība, kas vajadzīga šajā regulā noteikto pienākumu izpildei, jo īpaši attiecībā uz atbilstību augsta riska MI sistēmu atbilstības novērtējumam.
(87)
Ponadto w przypadku gdy system AI wysokiego ryzyka będący związanym z bezpieczeństwem elementem produktu, który wchodzi w zakres stosowania unijnego prawodawstwa harmonizacyjnego opartego na nowych ramach prawnych, nie jest wprowadzany do obrotu ani oddawany do użytku niezależnie od tego produktu, producent produktu – w rozumieniu tego prawodawstwa – powinien spełniać obowiązki dostawcy ustanowione w niniejszym rozporządzeniu, a w szczególności zapewnić zgodność systemu AI wbudowanego w produkt końcowy z wymogami niniejszego rozporządzenia.
(87)
Turklāt, ja augsta riska MI sistēma, kas ir drošības sastāvdaļa kādā produktā, uz kuru attiecas Jaunajā tiesiskajā regulējumā balstīto Savienības saskaņošanas tiesību aktu piemērošanas joma, nav laista tirgū vai nodota ekspluatācijā neatkarīgi no produkta, produkta ražotājam, kas definēts minētajos tiesību aktos, būtu jāizpilda šajā regulā noteiktie nodrošinātāja pienākumi un jo īpaši būtu jānodrošina, ka gatavajā produktā iegultā MI sistēma atbilst šīs regulas prasībām.
(88)
W całym łańcuchu wartości AI wiele podmiotów często dostarcza systemy AI, narzędzia i usługi, ale również elementy lub procesy, które są włączane przez dostawcę do systemu AI w różnych celach, w tym trenowania modelu, retrenowania modelu, testowania i oceny modelu, integracji z oprogramowaniem lub innych aspektów rozwoju modelu. Podmioty te mają do odegrania ważną rolę w łańcuchu wartości w stosunku do dostawcy systemu AI wysokiego ryzyka, z którym to systemem zintegrowane są ich systemy AI, narzędzia, usługi, elementy lub procesy; podmioty te powinny zapewnić temu dostawcy na podstawie pisemnej umowy niezbędne informacje, zdolności, dostęp techniczny i inną pomoc w oparciu o powszechnie uznany stan wiedzy technicznej, aby umożliwić dostawcy pełne spełnienie obowiązków ustanowionych w niniejszym rozporządzeniu, bez uszczerbku dla ich własnych praw własności intelektualnej lub tajemnic przedsiębiorstwa.
(88)
MI vērtības ķēdē daudzas puses bieži piegādā MI sistēmas, rīkus un pakalpojumus, bet arī sastāvdaļas vai procesus, ko nodrošinātājs integrē MI sistēmā ar dažādiem mērķiem, tostarp saistībā ar modeļu apmācību, modeļu pārmācību, modeļu testēšanu un izvērtēšanu, integrēšanu programmatūrā vai citiem modeļu izstrādes aspektiem. Minētajām pusēm ir svarīga loma vērtības ķēdē attiecībā uz tādas augsta riska MI sistēmas nodrošinātāju, kurā ir integrētas to MI sistēmas, rīki, pakalpojumi, sastāvdaļas vai procesi, un tām ar rakstisku piekrišanu būtu jāsniedz šim nodrošinātājam nepieciešamā informācija, spējas, tehniskā piekļuve un cita palīdzība, pamatojoties uz vispāratzītiem jaunākajiem sasniegumiem, lai nodrošinātājs varētu pilnībā izpildīt šajā regulā noteiktos pienākumus, neskarot savas intelektuālā īpašuma tiesības vai komercnoslēpumus.
(89)
Strony trzecie udostępniające publicznie narzędzia, usługi, procesy lub elementy AI, inne niż modele AI ogólnego przeznaczenia, nie powinny być zobowiązane do zapewnienia zgodności z wymogami dotyczącymi odpowiedzialności w całym łańcuchu wartości AI, w szczególności wobec dostawcy, który je wykorzystał lub zintegrował, jeżeli te narzędzia, usługi, procesy lub elementy AI są udostępniane na podstawie bezpłatnej licencji otwartego oprogramowania. Należy zachęcać twórców narzędzi, usług, procesów lub elementów AI, innych niż modele AI ogólnego przeznaczenia, które są udostępniane na bezpłatnej licencji otwartego oprogramowania, do wdrażania powszechnie przyjętych praktyk w zakresie dokumentacji, takich jak karta modelu i karta charakterystyki, jako sposobu na przyspieszenie wymiany informacji w całym łańcuchu wartości AI, co umożliwi promowanie godnych zaufania systemów AI w Unii.
(89)
Trešām personām, kas dara piekļūstamus publiskus rīkus, pakalpojumus, procesus vai MI sastāvdaļas, kas nav vispārīga lietojuma MI modeļi, nevajadzētu būt pienākumam izpildīt prasības, kas vērstas uz pienākumiem MI vērtības ķēdē, jo īpaši pret nodrošinātāju, kurš tos ir izmantojis vai integrējis, ja minētie rīki, pakalpojumi, procesi vai MI sastāvdaļas tiek darīti piekļūstami saskaņā ar bezmaksas un atvērtas piekļuves licenci. Brīvā un atvērtā pirmkoda rīku, pakalpojumu, procesu vai MI sastāvdaļu, kas nav vispārīga lietojuma MI modeļi, izstrādātāji būtu jāmudina īstenot plaši pieņemtu dokumentēšanas praksi, piemēram, modeļu kartes un datu lapas, lai paātrinātu informācijas apmaiņu visā MI vērtības ķēdē, ļaujot veicināt uzticamas MI sistēmas Savienībā.
(90)
Komisja mogłaby opracować dobrowolne wzorcowe postanowienia umowne między dostawcami systemów AI wysokiego ryzyka a stronami trzecimi dostarczającymi narzędzia, usługi, elementy lub procesy, które są wykorzystywane w systemach AI wysokiego ryzyka lub z nimi zintegrowane, i zalecać stosowanie tych modelowych postanowień, aby ułatwić współpracę w całym łańcuchu wartości. Przy opracowywaniu dobrowolnych wzorcowych postanowień umownych, Komisja powinna też brać pod uwagę wymogi umowne, które mogą mieć zastosowanie w szczególnych sektorach lub przypadkach biznesowych.
(90)
Komisija varētu izstrādāt un ieteikt brīvprātīgus līguma paraugnoteikumus starp augsta riska MI sistēmu nodrošinātājiem un trešām personām, kuras piegādā rīkus, pakalpojumus, sastāvdaļas vai procesus, ko izmanto vai integrē augsta riska MI sistēmās, lai veicinātu sadarbību vērtības ķēdē. Izstrādājot brīvprātīgus līguma paraugnoteikumus, Komisijai būtu arī jāņem vērā iespējamās līgumiskās prasības, kas piemērojamas konkrētās nozarēs vai uzņēmējdarbības gadījumos.
(91)
Ze względu na charakter systemów AI oraz ryzyko dla bezpieczeństwa i praw podstawowych, jakie może wiązać się z ich wykorzystywaniem, uwzględniając przy tym potrzebę zapewnienia właściwego monitorowania skuteczności działania systemu AI w warunkach rzeczywistych, należy określić szczególne obowiązki podmiotów stosujących. Podmioty stosujące powinny w szczególności wprowadzić odpowiednie środki techniczne i organizacyjne w celu zapewnienia, aby systemy AI wysokiego ryzyka były wykorzystywane przez nich zgodnie z instrukcjami obsługi, a w stosownych przypadkach należy przewidzieć określone inne obowiązki w odniesieniu do monitorowania funkcjonowania systemów AI oraz rejestrowania zdarzeń. Ponadto podmioty stosujące powinny zapewnić, aby osoby wyznaczone do stosowania instrukcji obsługi i sprawowania nadzoru ze strony człowieka, zgodnie z niniejszym rozporządzeniem, posiadały niezbędne kompetencje, w szczególności odpowiedni poziom kompetencji w zakresie AI oraz odpowiedni poziom przeszkolenia i uprawnień, aby właściwie wykonywać te zadania. Obowiązki te powinny pozostawać bez uszczerbku dla innych wynikających z prawa Unii lub prawa krajowego obowiązków podmiotów stosujących w odniesieniu do systemów AI wysokiego ryzyka.
(91)
Ņemot vērā MI sistēmu raksturu un iespējamos riskus drošībai un pamattiesībām, kas saistīti ar to lietošanu, tostarp attiecībā uz nepieciešamību nodrošināt MI sistēmas veiktspējas reālos apstākļos pienācīgu pārraudzību, ir lietderīgi noteikt konkrētus pienākumus uzturētājiem. Uzturētājiem būtu jo īpaši jāveic pienācīgi tehniski un organizatoriski pasākumi, lai nodrošinātu, ka augsta riska MI sistēmas tie lieto saskaņā ar lietošanas instrukcijām, un būtu jānosaka daži citi pienākumi attiecībā uz MI sistēmu funkcionēšanas pārraudzību un uzskaiti vajadzības gadījumā. Turklāt uzturētājiem būtu jānodrošina, ka personām, kurām uzdots īstenot šajā regulā noteiktās lietošanas instrukcijas un cilvēka virsvadību, ir vajadzīgā kompetence, jo īpaši pienācīga līmeņa MI pratība, apmācība un pilnvaras minēto uzdevumu pienācīgai izpildei. Minētajiem pienākumiem nebūtu jāskar citi uzturētāja pienākumi attiecībā uz augsta riska MI sistēmām saskaņā ar Savienības vai valsts tiesību aktiem.
(92)
Niniejsze rozporządzenie pozostaje bez uszczerbku dla obowiązków pracodawców w zakresie informowania pracowników lub ich przedstawicieli i konsultowania się z nimi na podstawie prawa Unii o prawa krajowego oraz unijnej lub krajowej praktyki, w tym dyrektywy 2002/14/WE Parlamentu Europejskiego i Rady (39), na temat decyzji o oddaniu do użytku lub korzystaniu z systemów AI. Nadal konieczne jest zapewnienie pracownikom i ich przedstawicielom informacji na temat planowanego wdrożenia systemów AI wysokiego ryzyka w miejscu pracy, w przypadku gdy warunki dotyczące tych obowiązków w zakresie informowania lub informowania i przeprowadzania konsultacji określone w innych instrumentach prawnych nie są spełnione. Ponadto takie prawo do informacji ma charakter pomocniczy i konieczny w stosunku do leżącego u podstaw niniejszego rozporządzenia celu, jakim jest ochrona praw podstawowych. W związku z tym w niniejszym rozporządzeniu należy ustanowić wymóg informowania w tym zakresie, nie naruszając żadnych istniejących praw pracowników.
(92)
Šī regula neskar darba devēju pienākumus informēt darba ņēmējus vai informēt un uzklausīt darba ņēmējus vai viņu pārstāvjus saskaņā ar Savienības vai valsts tiesību aktiem un praksi, tostarp Eiropas Parlamenta un Padomes Direktīvu 2002/14/EK (39), par lēmumiem nodot ekspluatācijā vai izmantot MI sistēmas. Joprojām ir nepieciešams nodrošināt darba ņēmēju un viņu pārstāvju informēšanu par augsta riska MI sistēmu plānoto ieviešanu darbavietā, ja nav izpildīti citos juridiskajos instrumentos paredzētie nosacījumi attiecībā uz minēto informāciju vai informēšanas un uzklausīšanas pienākumiem. Turklāt šādas tiesības uz informāciju ir papildinošas un nepieciešamas, lai sasniegtu mērķi aizsargāt pamattiesības, kas ir šīs regulas pamatā. Tāpēc šajā regulā būtu jānosaka informēšanas prasība, neskarot darba ņēmēju spēkā esošās tiesības.
(93)
Ryzyko związane z systemami AI może wynikać ze sposobu zaprojektowania takich systemów, jak również ze sposobu ich wykorzystania. Podmioty stosujące systemy AI wysokiego ryzyka odgrywają zatem kluczową rolę w zapewnianiu ochrony praw podstawowych w uzupełnieniu obowiązków dostawcy podczas rozwoju systemu AI. Podmioty stosujące najlepiej rozumieją, jak konkretnie wykorzystywany będzie system AI wysokiego ryzyka, i mogą w związku z tym zidentyfikować potencjalne znaczące ryzyko, które nie zostało przewidziane na etapie rozwoju, dzięki bardziej precyzyjnej wiedzy na temat kontekstu wykorzystania, osób lub grup osób, na które system może wywierać wpływ, w tym grup szczególnie wrażliwych. Podmioty stosujące systemy AI wysokiego ryzyka wymienione w załączniku do niniejszego rozporządzenia również odgrywają kluczową rolę w informowaniu osób fizycznych i powinny – gdy podejmują decyzje lub pomagają w podejmowaniu decyzji dotyczących osób fizycznych, w stosownych przypadkach, informować osoby fizyczne, że jest w stosunku do nich wykorzystywany system AI wysokiego ryzyka. Taka informacja powinna obejmować przeznaczenie systemu i typ podejmowanych przez niego decyzji. Podmiot stosujący informuje również osoby fizyczne o przysługujących im prawie do uzyskania wyjaśnienia, które przewiduje niniejsze rozporządzenie. W odniesieniu do systemów AI wysokiego ryzyka wykorzystywanych do celów ścigania przestępstw obowiązek ten należy wykonywać zgodnie z art. 13 dyrektywy (UE) 2016/680.
(93)
Lai gan riski, kas saistīti ar MI sistēmām, var rasties no šādu sistēmu uzbūves, riskus var radīt arī veids, kā šādas MI sistēmas tiek lietotas. Tāpēc augsta riska MI sistēmas uzturētājiem ir būtiska nozīme pamattiesību aizsardzības nodrošināšanā, papildinot nodrošinātāja pienākumus MI sistēmu izstrādē. Uzturētājiem ir vislabākās iespējas izprast, kā tieši tiks lietota augsta riska MI sistēma, un tādēļ, pateicoties precīzākām zināšanām par lietošanas kontekstu, personām vai personu grupām, kuras varētu tikt skartas, tostarp neaizsargātām grupām, tie var identificēt iespējamos būtiskos riskus, kas nebija paredzēti izstrādes posmā. Šīs regulas pielikumā uzskaitīto augsta riska MI sistēmu uzturētājiem ir arī būtiska loma fizisku personu informēšanā, un, pieņemot lēmumus vai palīdzot pieņemt lēmumus saistībā ar fiziskām personām, tiem attiecīgā gadījumā būtu jāinformē fiziskās personas par to, ka uz tām attiecas augsta riska MI sistēmas lietošana. Šai informācijai būtu jāietver paredzētais nolūks un pieņemto lēmumu veids. Uzturētājam būtu arī jāinformē fiziskās personas par to šajā regulā paredzētajām tiesībām saņemt paskaidrojumu. Attiecībā uz augsta riska MI sistēmām, ko lieto tiesībaizsardzības nolūkos, minētais pienākums būtu jāīsteno saskaņā ar Direktīvas (ES) 2016/680 13. pantu.
(94)
Wszelkie przetwarzanie danych biometrycznych związane z wykorzystywaniem systemów AI do identyfikacji biometrycznej do celów ścigania przestępstw musi być zgodne z art. 10 dyrektywy (UE) 2016/680, który zezwala na takie przetwarzanie wyłącznie wtedy, jeżeli jest to bezwzględnie konieczne, z zastrzeżeniem odpowiednich zabezpieczeń w zakresie praw i wolności osoby, której dane dotyczą, oraz jeżeli jest to dopuszczone prawem Unii lub prawem państwa członkowskiego. Takie wykorzystanie, jeżeli jest dozwolone, musi być również zgodne z zasadami określonymi w art. 4 ust. 1 dyrektywy (UE) 2016/680, w tym zasadami zgodności z prawem, rzetelności i przejrzystości, celowości, dokładności i ograniczenia przechowywania.
(94)
Jebkādai biometrisko datu apstrādei, kas saistīta ar MI sistēmu lietošanu biometriskajai identifikācijai tiesībaizsardzības nolūkos, ir jāatbilst Direktīvas (ES) 2016/680 10. pantam, kas atļauj šādu apstrādi tikai tad, ja tas ir absolūti nepieciešams, uz to attiecas atbilstošas garantijas attiecībā uz datu subjekta tiesībām un brīvībām un ja tas ir atļauts Savienības vai dalībvalsts tiesībās. Šādā lietošanā, ja tā ir atļauta, ir jāievēro arī Direktīvas (ES) 2016/680 4. panta 1. punktā noteiktie principi, tostarp likumība, godprātība un pārredzamība, mērķa ierobežojums, precizitāte un glabāšanas ierobežojums.
(95)
Bez uszczerbku dla mającego zastosowanie prawa Unii, w szczególności rozporządzenia (UE) 2016/679 i dyrektywy (UE) 2016/680, biorąc pod uwagę inwazyjny charakter systemów zdalnej identyfikacji biometrycznej post factum, korzystanie z takich systemów powinno podlegać zabezpieczeniom. Systemy identyfikacji biometrycznej post factum powinny być zawsze wykorzystywane w sposób proporcjonalny, zgodny z prawem i jeżeli jest to bezwzględnie konieczne, a tym samym ukierunkowane na osoby fizyczne, które mają zostać zidentyfikowane, na określoną lokalizację i zakres czasowy, oraz opierać się na zamkniętym zbiorze danych pochodzących z legalnie uzyskanych materiałów wideo. W żadnym wypadku systemy zdalnej identyfikacji biometrycznej post factum nie powinny być wykorzystywane w ramach ścigania przestępstw w celu prowadzenia niezróżnicowanego nadzoru. Warunki zdalnej identyfikacji biometrycznej post factum nie powinny w żadnym wypadku stanowić podstawy do obchodzenia warunków zakazu i ścisłych wyjątków dotyczących zdalnej identyfikacji biometrycznej w czasie rzeczywistym.
(95)
Neskarot piemērojamos Savienības tiesību aktus, jo īpaši Regulu (ES) 2016/679 un Direktīvu (ES) 2016/680, tā kā vēlāklaika biometriskās tālidentifikācijas sistēmas pēc būtības ir aizskarošas, vēlāklaika biometriskās tālidentifikācijas sistēmu lietošanai būtu jāpiemēro aizsardzības pasākumi. Vēlāklaika biometriskās tālidentifikācijas sistēmas vienmēr būtu jālieto samērīgi, leģitīmi un tad, ja tas ir absolūti nepieciešams, un tādējādi tās būtu jāorientē uz identificējamām personām, atrašanās vietu, darbības laiku un pamatojoties uz slēgtu datu kopu, ko veido likumīgi iegūti videomateriāli. Jebkurā gadījumā vēlāklaika biometriskās tālidentifikācijas sistēmas nebūtu jālieto tiesībaizsardzības sistēmā, kas radītu nediferencētu uzraudzību. Vēlāklaika biometriskās tālidentifikācijas nosacījumiem nekādā gadījumā nevajadzētu būt par pamatu, lai apietu aizlieguma nosacījumus un stingrus izņēmumus attiecībā uz reāllaika biometrisko tālidentifikāciju.
(96)
Aby skutecznie zapewnić ochronę praw podstawowych, podmioty stosujące systemy AI wysokiego ryzyka będące podmiotami prawa publicznego lub podmiotami prywatnymi świadczącymi usługi publiczne i podmioty stosujące niektóre systemy AI wysokiego ryzyka wymienione w załączniku do niniejszego rozporządzenia, tacy jak podmioty bankowe lub ubezpieczeniowe, powinni przed wprowadzeniem tych systemów do użytku przeprowadzić ocenę skutków dla praw podstawowych. Usługi o charakterze publicznym ważne dla osób fizycznych mogą być również świadczone przez podmioty prywatne. Podmioty prywatne świadczące takie usługi publiczne działają w powiązaniu z zadaniami świadczonymi w interesie publicznym, takimi jak edukacja, opieka zdrowotna, usługi społeczne, mieszkalnictwo, sprawowanie wymiaru sprawiedliwości. Celem oceny skutków dla praw podstawowych jest zidentyfikowanie przez podmiot stosujący konkretnych rodzajów ryzyka dla praw osób fizycznych lub grup osób fizycznych, na które AI może mieć wpływ, oraz określenie środków, które należy podjąć w przypadku urzeczywistnienia się tego ryzyka. Ocena skutków powinna być przeprowadzana przed wdrożeniem systemu AI wysokiego ryzyka i powinna być aktualizowana, gdy podmiot stosujący uzna, że którykolwiek z istotnych czynników uległ zmianie. W ocenie skutków należy określić odpowiednie procesy podmiotu stosującego, w których system AI wysokiego ryzyka będzie wykorzystywany zgodnie z jego przeznaczeniem; powinna ona przedstawiać informacje o okresie, w którym system ma być wykorzystywany, i o częstotliwości jego wykorzystania, a także opis konkretnych kategorii osób fizycznych i grup, na które AI może mieć wpływ w tym konkretnym kontekście wykorzystania. Ocena powinna również obejmować określenie szczególnego ryzyka szkody, które może mieć wpływ na prawa podstawowe tych osób lub grup. Przeprowadzając tę ocenę, podmiot stosujący powinien uwzględnić informacje istotne dla właściwej oceny skutków, w tym między innymi informacje podane przez dostawcę systemu AI wysokiego ryzyka w instrukcji obsługi. W świetle zidentyfikowanego ryzyka podmioty stosujące powinny określić środki, które należy podjąć w przypadku urzeczywistnienia się tego ryzyka, w tym na przykład rozwiązania dotyczące zarządzania w tym konkretnym kontekście wykorzystania, np. dotyczące nadzoru ze strony człowieka zgodnie z instrukcją obsługi lub procedury rozpatrywania skarg i dochodzenia roszczeń, ponieważ mogą one odegrać zasadniczą rolę w ograniczaniu ryzyka dla praw podstawowych w konkretnych przypadkach wykorzystania. Po przeprowadzeniu tej oceny skutków podmiot stosujący powinien powiadomić odpowiedni organ nadzoru rynku. W stosownych przypadkach w celu zebrania odpowiednich informacji niezbędnych do przeprowadzenia oceny skutków podmioty stosujące system AI wysokiego ryzyka, w szczególności gdy systemy AI są wykorzystywane w sektorze publicznym, mogą angażować odpowiednie zainteresowane strony, w tym przedstawicieli grup osób, na które system AI może mieć wpływ, niezależnych ekspertów i organizacje społeczeństwa obywatelskiego w przeprowadzanie takich ocen skutków i opracowywanie środków, które należy wprowadzić w przypadku urzeczywistnienia się ryzyka. Europejski Urząd ds. Sztucznej Inteligencji (zwany dalej „Urzędem ds. AI”) powinien opracować wzór kwestionariusza, by ułatwić zapewnienie zgodności przez podmioty stosujące i zmniejszyć obciążenia administracyjne dla tych podmiotów.
(96)
Lai efektīvi nodrošinātu pamattiesību aizsardzību, augsta riska MI sistēmu uzturētājiem, kas ir publisko tiesību subjekti, vai privātām vienībām, kas sniedz sabiedriskos pakalpojumus, un konkrētu šīs regulas pielikumā uzskaitītu augsta riska MI sistēmu uzturētājiem, piemēram, banku vai apdrošināšanas vienībām, pirms nodošanas ekspluatācijā būtu jāveic novērtējums par ietekmi uz pamattiesībām. Sabiedriska rakstura pakalpojumus, kas ir svarīgi privātpersonām, var sniegt arī privātas vienības. Privātas vienības, kas sniedz šādus sabiedriskus pakalpojumus, ir saistīti ar uzdevumiem sabiedrības interesēs, piemēram, izglītības, veselības aprūpes, sociālo pakalpojumu, mājokļa, tiesvedības jomā. Novērtējuma par ietekmi uz pamattiesībām mērķis ir panākt, lai uzturētājs identificētu konkrētos riskus to personu vai personu grupu tiesībām, kas varētu tikt skartas, un identificētu pasākumus, kas jāveic minētā riska iestāšanās gadījumā. Ietekmes novērtējums būtu jāpiemēro augsta riska MI sistēmas pirmajai lietošanai, un tas būtu jāatjaunina, ja uzturētājs uzskata, ka kāds no būtiskajiem faktoriem ir mainījies. Ietekmes novērtējumā būtu jāidentificē uzturētāja attiecīgie procesi, kuros augsta riska MI sistēma tiks lietota saskaņā ar tai paredzēto nolūku, un tajā būtu jāietver apraksts par sistēmas paredzētās lietošanas laikposmu un biežumu, kā arī par konkrētām fizisku personu un grupu kategorijām, kuras varētu tikt skartas konkrētajā lietošanas kontekstā. Novērtējumā būtu arī jāidentificē konkrēti kaitējuma riski, kas varētu ietekmēt minēto personu vai grupu pamattiesības. Veicot šo novērtējumu, uzturētājam būtu jāņem vērā informācija, kas ir būtiska ietekmes pienācīgam novērtējumam, tostarp, bet ne tikai, informācija, ko augsta riska MI sistēmas nodrošinātājs sniedzis lietošanas instrukcijā. Ņemot vērā identificētos riskus, uzturētājiem būtu jānosaka pasākumi, kas jāveic minēto risku iestāšanās gadījumā, tostarp, piemēram, pārvaldības kārtība konkrētajā lietošanas kontekstā, piemēram, cilvēka virsvadības kārtība saskaņā ar lietošanas instrukciju, vai sūdzību izskatīšanas un tiesiskās aizsardzības procedūras, jo tās varētu būt noderīgas risku pamattiesībām mazināšanā konkrētos lietošanas gadījumos. Pēc minētā ietekmes novērtējuma veikšanas uzturētājam par to būtu jāpaziņo attiecīgajai tirgus uzraudzības iestādei. Attiecīgā gadījumā, lai vāktu attiecīgo informāciju, kas nepieciešama ietekmes novērtējuma veikšanai, augsta riska MI sistēmas uzturētāji, jo īpaši tad, ja MI sistēmas izmanto publiskajā sektorā, varētu iesaistīt attiecīgās ieinteresētās personas, tostarp to personu grupu pārstāvjus, kuras MI sistēma varētu skart, neatkarīgus ekspertus un pilsoniskās sabiedrības organizācijas šādu ietekmes novērtējumu veikšanā un tādu pasākumu izstrādē, kas jāveic risku iestāšanās gadījumā. Eiropas Mākslīgā intelekta birojam (MI birojs) būtu jāizstrādā anketas veidne, lai atvieglotu atbilstību un samazinātu administratīvo slogu uzturētājiem.
(97)
Należy jasno zdefiniować pojęcie modeli AI ogólnego przeznaczenia i oddzielić je od pojęcia systemów AI, aby zapewnić pewność prawa. Definicja powinna opierać się na kluczowych cechach funkcjonalnych modelu AI ogólnego przeznaczenia, w szczególności na ogólnym charakterze i zdolności do kompetentnego wykonywania szerokiego zakresu różnych zadań. Modele te są zazwyczaj trenowane w oparciu o dużą ilość danych za pomocą różnych metod, takich jak uczenie się samodzielnie nadzorowane, nienadzorowane lub uczenie przez wzmacnianie. Modele AI ogólnego przeznaczenia mogą być wprowadzane do obrotu na różne sposoby, w tym za pośrednictwem bibliotek, interfejsów programowania aplikacji (API), przez bezpośrednie pobieranie lub w wersji fizycznej. Modele te mogą być dalej zmieniane lub dostosowywane jako baza do tworzenia nowych modeli. Chociaż modele AI są zasadniczymi elementami systemów AI, nie stanowią same w sobie systemów AI. Aby model AI mógł stać się systemem AI należy dodać do niego dodatkowe elementy, takie jak na przykład interfejs użytkownika. Modele AI są zwykle zintegrowane z systemami AI i stanowią ich część. Niniejsze rozporządzenie ustanawia przepisy szczególne dotyczące modeli AI ogólnego przeznaczenia oraz modeli AI ogólnego przeznaczenia, które stwarzają ryzyko systemowe, a przepisy te powinny być stosowane również wtedy, gdy modele te są zintegrowane z systemem AI lub stanowią jego część. Należy rozumieć, że obowiązki dostawców modeli AI ogólnego przeznaczenia powinny mieć zastosowanie od momentu wprowadzenia do obrotu modeli AI ogólnego przeznaczenia. W przypadku gdy dostawca modelu AI ogólnego przeznaczenia zintegruje własny model z własnym systemem AI, który jest udostępniany na rynku lub oddany do użytku, model ten należy uznać za wprowadzony do obrotu i w związku z tym ustanowione w niniejszym rozporządzeniu obowiązki dotyczące modeli powinny nadal mieć zastosowanie obok obowiązków dotyczących systemów AI. Obowiązki ustanowione w odniesieniu do modeli nie powinny w żadnym przypadku mieć zastosowania, jeżeli model własny jest stosowany w czysto wewnętrznych procesach, które nie są niezbędne do dostarczania produktu lub usługi osobom trzecim, a prawa osób fizycznych nie są naruszone. Biorąc pod uwagę ich potencjalne znacząco negatywne skutki, modele AI ogólnego przeznaczenia z ryzykiem systemowym powinny zawsze podlegać odpowiednim obowiązkom ustanowionym w niniejszym rozporządzeniu. Definicja nie powinna obejmować modeli AI wykorzystywanych przed wprowadzeniem ich do obrotu wyłącznie do celów działalności badawczo-rozwojowej i tworzenia prototypów. Pozostaje to bez uszczerbku dla obowiązku zapewnienia zgodności z niniejszym rozporządzeniem w przypadku wprowadzenia do obrotu danego modelu w następstwie takiej działalności.
(97)
Lai nodrošinātu juridisko noteiktību, vispārīga lietojuma MI modeļu jēdziens būtu skaidri jādefinē un jānošķir no MI sistēmu jēdziena. Definīcijas pamatā vajadzētu būt vispārīga lietojuma MI modeļa galvenajām funkcionālajām iezīmēm, jo īpaši vispārīgumam un spējai kompetenti veikt plašu atšķirīgu uzdevumu klāstu. Šie modeļi parasti tiek apmācīti par lielu datu apjomu, izmantojot dažādas metodes, piemēram, pašuzraudzītu, neuzraudzītu vai stimulētu mācīšanos. Vispārīga lietojuma MI modeļus var laist tirgū dažādos veidos, tostarp ar bibliotēku, lietojumprogrammu saskarņu (API) starpniecību, kā tiešu lejupielādi vai kā fizisku kopiju. Šos modeļus var vēl vairāk modificēt vai pilnveidot, pārveidojot par jauniem modeļiem. Lai gan MI modeļi ir būtiskas MI sistēmu sastāvdaļas, tie paši par sevi nav MI sistēmas. MI modeļiem – lai tie kļūtu par MI sistēmām – ir jāpievieno vēl citas sastāvdaļas, piemēram, lietotāja saskarne. MI modeļi parasti ir integrēti MI sistēmās un ir to daļa. Šī regula paredz tādus konkrētus noteikumus vispārīga lietojuma MI modeļiem un vispārīga lietojuma MI modeļiem, kuri rada sistēmiskus riskus, kas būtu jāpiemēro arī tad, ja šie modeļi ir integrēti vai daļa no MI sistēmas. Būtu jāsaprot, ka vispārīga lietojuma MI modeļu nodrošinātāju pienākumi būtu jāpiemēro tad, kad vispārīga lietojuma MI modeļi ir laisti tirgū. Ja vispārīga lietojuma MI modeļa nodrošinātājs integrē savu modeli savā MI sistēmā, kas ir darīta pieejama tirgū vai nodota ekspluatācijā, būtu jāuzskata, ka minētais modelis ir laists tirgū, un tāpēc šajā regulā noteiktie pienākumi attiecībā uz modeļiem būtu jāturpina piemērot papildus tiem, kas attiecas uz MI sistēmām. Jebkurā gadījumā modeļiem paredzētie pienākumi nebūtu jāpiemēro, ja savu modeli izmanto tikai iekšējiem procesiem, kas nav būtiski produkta vai pakalpojuma piedāvāšanai trešām personām, un netiek skartas fizisku personu tiesības. Ņemot vērā to iespējamo būtiski negatīvo ietekmi, uz vispārīga lietojuma MI modeļiem ar sistēmisku risku vienmēr būtu jāattiecina attiecīgie šajā regulā paredzētie pienākumi. Definīcijai nebūtu jāattiecas uz MI modeļiem, ko pirms to laišanas tirgū izmanto vienīgi pētniecības, izstrādes un prototipu izstrādes darbību vajadzībām. Tas neskar pienākumu ievērot šo regulu, ja pēc šādām darbībām modelis tiek laists tirgū.
(98)
Mając na uwadze, że ogólny charakter modelu można określić między innymi na podstawie liczby parametrów, należy uznać, że modele o co najmniej miliardzie parametrów i trenowane w oparciu o dużą ilość danych z wykorzystaniem nadzoru własnego na dużą skalę są bardzo ogólne i kompetentnie wykonują szeroki zakres różnych zadań.
(98)
Tā kā modeļa vispārīgumu cita starpā varētu noteikt arī ar vairākiem parametriem, būtu jāuzskata, ka modeļi, kam ir vismaz miljards parametru un kas ir apmācīti ar lielu datu apjomu, izmantojot pašuzraudzību plašā mērogā, uzrāda būtisku vispārīgumu un ir kompetenti veikt plašu atšķirīgu uzdevumu klāstu.
(99)
Duże generatywne modele AI są typowym przykładem modelu AI ogólnego przeznaczenia, biorąc pod uwagę, że umożliwiają elastyczne generowanie treści, np. w postaci tekstu, dźwięku, obrazów lub materiałów wideo, i mogą z łatwością wykonywać szeroki zakres różnych zadań.
(99)
Lieli ģeneratīvi MI modeļi ir tipisks vispārīga lietojuma MI piemērs, ņemot vērā, ka tie ļauj elastīgi radīt saturu, piemēram, teksta, audio, attēlu vai video formātā, kas var viegli veikt plašu atšķirīgu uzdevumu klāstu.
(100)
Jeżeli model AI ogólnego przeznaczenia jest zintegrowany z systemem AI lub stanowi jego część, system ten należy uznać za system AI ogólnego przeznaczenia, jeżeli w wyniku zintegrowania modelu system ten może służyć różnym celom. System AI ogólnego przeznaczenia może być wykorzystywany bezpośrednio lub być zintegrowany z innymi systemami AI.
(100)
Ja vispārīga lietojuma MI modelis ir integrēts MI sistēmā vai ir tās daļa, šī sistēma būtu jāuzskata par vispārīga lietojuma MI sistēmu, ja šīs integrācijas dēļ šī sistēma spēj kalpot dažādiem nolūkiem. Vispārīga lietojuma MI sistēmu var lietot tieši vai integrēt citās MI sistēmās.
(101)
Dostawcy modeli AI ogólnego przeznaczenia odgrywają szczególną rolę i ponoszą szczególną odpowiedzialność w całym łańcuchu wartości AI, ponieważ modele, które dostarczają, mogą stanowić podstawę szeregu systemów niższego szczebla, często dostarczanych przez dostawców niższego szczebla, które to systemy wymagają dobrego zrozumienia modeli i ich zdolności, zarówno by umożliwić integrację takich modeli z ich produktami, jak i by spełniać obowiązki ustanowione w niniejszym rozporządzeniu lub innych przepisach. W związku z tym należy ustanowić proporcjonalne środki w zakresie przejrzystości, w tym sporządzanie i aktualizowanie dokumentacji oraz dostarczanie informacji na temat modelu AI ogólnego przeznaczenia do wykorzystania przez dostawców niższego szczebla. Dostawca modelu AI ogólnego przeznaczenia powinien przygotować i aktualizować dokumentację techniczną w celu udostępnienia jej na wniosek Urzędowi ds. AI i właściwym organom krajowym. Minimalny zbiór elementów do uwzględnienia w takiej dokumentacji należy określić w szczególnych załącznikach do niniejszego rozporządzenia. Komisja powinna być uprawniona do zmiany tych załączników w drodze aktów delegowanych w świetle postępu technicznego.
(101)
Vispārīga lietojuma MI modeļu nodrošinātājiem ir īpaša loma un atbildība visā MI vērtības ķēdē, jo to nodrošinātie modeļi var veidot pamatu virknei lejasposma sistēmu, ko bieži nodrošina lejasposma nodrošinātāji, kuriem ir vajadzīga laba izpratne par modeļiem un to spējām, lai tie šādus modeļus varētu integrēt savos produktos un arī lai varētu izpildīt savus šajā vai citās regulās noteiktos pienākumus. Tāpēc būtu jānosaka samērīgi pārredzamības pasākumi, tostarp dokumentācijas izstrāde un atjaunināšana un informācijas sniegšana par vispārīga lietojuma MI modeli, lai to varētu izmantot lejasposma nodrošinātāji. Vispārīga lietojuma MI modeļa nodrošinātājam būtu jāsagatavo un jāatjaunina tehniskā dokumentācija, lai to pēc pieprasījuma darītu pieejamu MI birojam un valstu kompetentajām iestādēm. Minimālais elementu kopums, kas jāiekļauj šādā dokumentācijā, būtu jānosaka konkrētos šīs regulas pielikumos. Komisija būtu jāpilnvaro grozīt minētos pielikumus ar deleģētajiem aktiem, ņemot vērā tehnoloģiju attīstību.
(102)
Oprogramowanie i dane, w tym modele, udostępniane na podstawie bezpłatnej licencji otwartego oprogramowania, która umożliwia ich ogólne upowszechnianie i zezwala użytkownikom na swobodny dostęp do nich, ich wykorzystywanie, zmianę i ich redystrybucję lub ich zmienionych wersji, mogą przyczynić się do badań naukowych i innowacji na rynku oraz zapewnić gospodarce Unii znaczne możliwości wzrostu. Należy uznać, że modele AI ogólnego przeznaczenia udostępniane na podstawie bezpłatnych licencji otwartego oprogramowania zapewniają wysoki poziom przejrzystości i otwartości, jeżeli ich parametry, w tym wagi, informacje na temat architektury modelu oraz informacje na temat wykorzystania modelu, są publicznie dostępne. Licencję należy uznać za bezpłatną licencję otwartego oprogramowania również wtedy, gdy umożliwia użytkownikom obsługę, kopiowanie, dystrybucję, badanie, zmianę i ulepszanie oprogramowania i danych, w tym modeli, pod warunkiem że umieszcza się wzmiankę o pierwotnym dostawcy modelu i że przestrzega się identycznych lub porównywalnych warunków dystrybucji.
(102)
Programmatūra un dati, tostarp modeļi, kas tiek laisti apgrozībā ar bezmaksas un atvērtā pirmkoda licenci, kas ļauj tos atklāti kopīgot un saskaņā ar ko lietotāji var brīvi piekļūt tiem vai to modificētām versijām, tos lietot, modificēt un pārdalīt, var veicināt pētniecību un inovāciju tirgū un sniegt ievērojamas izaugsmes iespējas Savienības ekonomikai. Būtu jāuzskata, ka vispārīga lietojuma MI modeļi, kas tiek laisti apgrozībā ar bezmaksas un atvērtā pirmkoda licencēm, nodrošina augstu pārredzamības un atvērtības līmeni, ja to parametri, tostarp svari, informācija par modeļa arhitektūru un informācija par modeļu lietošanu ir darīti publiski pieejami. Licence būtu jāuzskata par brīvu un atvērtu pirmavotu arī tad, ja tā ļauj lietotājiem vadīt, kopēt, izplatīt, pētīt, mainīt un uzlabot programmatūru un datus, tostarp modeļus, ar nosacījumu, ka tiek atzīts modeļa sākotnējais nodrošinātājs un tiek ievēroti identiski vai salīdzināmi izplatīšanas noteikumi.
(103)
Elementy AI na bezpłatnej licencji otwartego oprogramowania obejmują oprogramowanie i dane, w tym modele i modele AI ogólnego przeznaczenia, narzędzia, usługi lub procesy systemu AI. Elementy AI na bezpłatnej licencji otwartego oprogramowania mogą być dostarczane za pośrednictwem różnych kanałów, w tym rozwijane w otwartych repozytoriach. Do celów niniejszego rozporządzenia elementy AI, które są dostarczane odpłatnie lub w inny sposób monetyzowane, w tym poprzez zapewnianie wsparcia technicznego lub innych usług związanych z elementem AI, w tym poprzez platformy oprogramowania, lub wykorzystywanie danych osobowych z powodów innych niż wyłącznie poprawa bezpieczeństwa, kompatybilności lub interoperacyjności oprogramowania, z wyjątkiem transakcji między mikroprzedsiębiorstwami, nie powinny korzystać ze zwolnień przewidzianych w odniesieniu do bezpłatnych i otwartych elementów AI. Fakt udostępniania elementów AI w otwartych repozytoriach nie powinien sam w sobie stanowić monetyzacji.
(103)
Bezmaksas un atvērtā pirmkoda MI sastāvdaļas aptver MI sistēmas programmatūru un datus, tostarp modeļus un vispārīga lietojuma MI modeļus, rīkus, pakalpojumus vai procesus. Bezmaksas un atvērtā pirmkoda MI sastāvdaļas var nodrošināt, izmantojot dažādus kanālus, tostarp to izstrādi atvērtos repozitorijos. Šajā regulā MI sastāvdaļām, kas tiek nodrošinātas par noteiktu cenu vai citādi monetizētas, tostarp, sniedzot tehnisko atbalstu vai citus pakalpojumus, tostarp, izmantojot programmatūras platformu, kas saistīta ar MI sastāvdaļu, vai izmantojot personas datu citu iemeslu dēļ, nevis tikai programmatūras drošības, saderības vai sadarbspējas uzlabošanai, izņemot darījumus starp mikrouzņēmumiem, nebūtu jāgūst labums no izņēmumiem, kas paredzēti bezmaksas un atvērtā pirmkoda MI sastāvdaļām. Tas, ka MI sastāvdaļas tiek darītas pieejamas, izmantojot atvērtos repozitorijus, pats par sevi nebūtu jāuzskata par monetizāciju.
(104)
Dostawcy modeli AI ogólnego przeznaczenia, które są udostępniane na podstawie bezpłatnej licencji otwartego oprogramowania i których parametry, w tym wagi, informacje o architekturze modelu oraz informacje na temat korzystania z modelu, są udostępniane publicznie, powinni podlegać zwolnieniom w odniesieniu do wymogów związanych z przejrzystością nałożonych na modele AI ogólnego przeznaczenia, chyba że można uznać, że modele te stwarzają ryzyko systemowe, w którym to przypadku fakt, że model jest przejrzysty i że towarzyszy mu licencja otwartego oprogramowania, nie powinien być uznawany za wystarczający powód zwolnienia ze spełnienia obowiązków ustanowionych w niniejszym rozporządzeniu. W każdym razie, biorąc pod uwagę, że udostępnianie modeli AI ogólnego przeznaczenia na podstawie bezpłatnej licencji otwartego oprogramowania niekoniecznie prowadzi do ujawnienia istotnych informacji na temat zbioru danych wykorzystywanego do trenowania lub dostrajania modelu oraz na temat sposobu zapewnienia tym samym zgodności z prawem autorskim, przewidziane w odniesieniu do modeli AI ogólnego przeznaczenia zwolnienie z obowiązku spełnienia wymogów związanych z przejrzystością nie powinno dotyczyć obowiązku sporządzenia streszczenia dotyczącego treści wykorzystywanych do trenowania modeli oraz obowiązku wprowadzenia polityki w celu zapewnienie zgodności z unijnym prawem autorskim, w szczególności w celu zidentyfikowania i zastosowania się do zastrzeżenia praw zgodnie z art. 4 ust. 3 dyrektywy Parlamentu Europejskiego i Rady (UE) 2019/790 (40).
(104)
Tādu vispārīga lietojuma MI modeļu nodrošinātājiem, kuri tiek laisti apgrozībā ar bezmaksas un atvērtā pirmkoda licenci un kuru parametri, tostarp svari, informācija par modeļa arhitektūru un informācija par modeļu lietošanu, ir darīti publiski pieejami, būtu jāpiemēro izņēmumi attiecībā uz prasībām, kas saistītas ar pārredzamību un kas noteiktas vispārīga lietojuma MI modeļiem, izņemot gadījumus, kad tos var uzskatīt par tādiem, kas rada sistēmisku risku, un tādā gadījumā apstāklis, ka modelis ir pārredzams un tam ir pievienota atvērtā pirmkoda licence, nebūtu jāuzskata par pietiekamu iemeslu, lai izslēgtu atbilstību šajā regulā noteiktajiem pienākumiem. Jebkurā gadījumā, ņemot vērā to, ka vispārīga lietojuma MI modeļu laišana apgrozībā ar bezmaksas un atvērtā pirmkoda licenci ne vienmēr atklāj būtisku informāciju par modeļa apmācībai vai pilnveidošanai izmantoto datu kopu un par to, kā šajā procesā tika nodrošināta atbilstība tiesību aktiem autortiesību jomā, vispārīga lietojuma MI modeļiem paredzētajam izņēmumam attiecībā uz atbilstību ar pārredzamību saistītajām prasībām nebūtu jāattiecas uz pienākumu sagatavot kopsavilkumu par saturu, ko izmanto modeļu apmācībā, un pienākumu ieviest politiku, ar ko nodrošina atbilstību Savienības tiesību aktiem autortiesību jomā, jo īpaši, lai identificētu un nodrošinātu tiesību rezervāciju, ievērojot Eiropas Parlamenta un Padomes Direktīvas (ES) 2019/790 (40) 4. panta 3. punktu.
(105)
Modele AI ogólnego przeznaczenia, w szczególności duże generatywne modele AI, zdolne do generowania tekstów, obrazów i innych treści, stwarzają wyjątkowe możliwości w zakresie innowacji, ale także wyzwania dla artystów, autorów i innych twórców oraz w odniesieniu do sposobu tworzenia, rozpowszechniania, wykorzystywania i konsumowania ich treści kreatywnych. Rozwój i trenowanie takich modeli wymaga dostępu do ogromnych ilości tekstów, obrazów, materiałów wideo i innych danych. Techniki eksploracji tekstów i danych mogą być w tym kontekście szeroko wykorzystywane do wyszukiwania i analizy takich treści, które mogą być chronione prawem autorskim i prawami pokrewnymi. Każde wykorzystanie treści chronionych prawem autorskim wymaga zezwolenia danego podmiotu praw, chyba że zastosowanie mają odpowiednie wyjątki i ograniczenia dotyczące praw autorskich. Na mocy dyrektywy (UE) 2019/790 wprowadzono wyjątki i ograniczenia umożliwiające, pod pewnymi warunkami, zwielokrotnianie i pobieranie utworów lub innych przedmiotów objętych ochroną do celów eksploracji tekstów i danych. Zgodnie z tymi przepisami podmioty uprawnione mogą zastrzec swoje prawa do swoich utworów lub innych przedmiotów objętych ochroną, aby zapobiec eksploracji tekstów i danych, chyba że odbywa się to do celów badań naukowych. W przypadku gdy prawo do wyłączenia z eksploracji zostało w odpowiedni sposób wyraźnie zastrzeżone, dostawcy modeli AI ogólnego przeznaczenia muszą uzyskać zezwolenie od podmiotów uprawnionych, jeżeli chcą dokonywać eksploracji tekstów i danych odnośnie do takich utworów.
(105)
Vispārīga lietojuma modeļi, jo īpaši lieli ģeneratīvi modeļi, kas spēj ģenerēt tekstu, attēlus un citu saturu, sniedz unikālas inovācijas iespējas, taču arī rada izaicinājumus māksliniekiem, autoriem un citiem satura veidotājiem un tam, kā tiek radīts, izplatīts, lietots un patērēts radošais saturs. Šādu modeļu izstrādei un apmācībai ir vajadzīga piekļuve lielam teksta, attēlu, video un citu datu apjomam. Tekstizraces un datizraces metodes šajā kontekstā var plaši izmantot, lai izgūtu un analizētu šādu saturu, ko var aizsargāt autortiesības un blakustiesības. Jebkādai ar autortiesībām aizsargāta satura izmantošanai ir vajadzīga attiecīgā tiesību subjekta atļauja, ja vien netiek piemēroti attiecīgie autortiesību izņēmumi un ierobežojumi. Ar Direktīvu (ES) 2019/790 tika ieviesti izņēmumi un ierobežojumi, kas pieļauj – ar konkrētiem nosacījumiem – reproducēšanu un ekstrahēšanu attiecībā uz darbiem vai citiem blakustiesību objektiem tekstizraces un datizraces nolūkā. Saskaņā ar šiem noteikumiem tiesību subjekti var izvēlēties rezervēt tiesības uz saviem darbiem vai citiem blakustiesību objektiem, lai nepieļautu tekstizraci un datizraci, ja vien tas netiek darīts zinātniskās pētniecības nolūkos. Ja tiesības atteikties ir skaidri rezervētas piemērotā veidā, vispārīga lietojuma MI modeļu nodrošinātājiem ir jāsaņem atļauja no tiesību subjektiem, ja tie vēlas veikt tekstizraci un datizraci šādos darbos.
(106)
Dostawcy wprowadzający modele AI ogólnego przeznaczenia do obrotu w Unii powinni zapewnić, aby ustanowione w niniejszym rozporządzeniu odpowiednie obowiązki zostały spełnione. W tym celu dostawcy modeli AI ogólnego przeznaczenia powinni wprowadzić politykę w celu zapewnienia zgodności z prawem Unii dotyczącym prawa autorskiego i praw pokrewnych, w szczególności w celu identyfikacji i zastosowania się do zastrzeżenia praw wyrażonego przez podmioty uprawnione zgodnie z art. 4 ust. 3 dyrektywy (UE) 2019/790. Każdy dostawca wprowadzający do obrotu w Unii model AI ogólnego przeznaczenia powinien spełniać ten obowiązek, niezależnie od jurysdykcji, w której mają miejsce czynności regulowane prawem autorskim stanowiące podstawę trenowania tych modeli AI ogólnego przeznaczenia. Jest to konieczne do zapewnienia równych warunków działania dostawcom modeli AI ogólnego przeznaczenia, tak aby żaden dostawca nie mógł uzyskać przewagi konkurencyjnej na rynku Unii poprzez stosowanie niższych standardów praw autorskich niż normy przewidziane w Unii.
(106)
Nodrošinātājiem, kas Savienības tirgū laiž vispārīga lietojuma MI modeļus, būtu jānodrošina atbilstība attiecīgajiem šajā regulā noteiktajiem pienākumiem. Šajā nolūkā vispārīga lietojuma MI modeļu nodrošinātājiem būtu jāievieš politika, lai nodrošinātu atbilstību Savienības tiesību aktiem autortiesību un blakustiesību jomā, jo īpaši, lai identificētu un ievērotu tiesību rezervācijas, ko pauduši tiesību subjekti, ievērojot Direktīvas (ES) 2019/790 4. panta 3. punktu. Jebkuram nodrošinātājam, kas Savienības tirgū laiž vispārīga lietojuma MI modeli, šis pienākums būtu jāievēro neatkarīgi no jurisdikcijas, kurā notiek ar autortiesībām saistītās darbības, kas ir minēto vispārīga lietojuma MI modeļu apmācības pamatā. Tas ir nepieciešams, lai nodrošinātu vienlīdzīgus konkurences apstākļus vispārīga lietojuma MI modeļu nodrošinātājiem, proti, nevienam nodrošinātājam nevajadzētu spēt gūt konkurences priekšrocības Savienības tirgū, piemērojot zemākus autortiesību standartus nekā Savienībā noteiktie.
(107)
W celu zwiększenia przejrzystości dotyczącej danych wykorzystywanych do pretrenowania i trenowania modeli AI ogólnego przeznaczenia, w tym w zakresie tekstów i danych chronionych prawem autorskim, właściwe jest, aby dostawcy takich modeli sporządzali i udostępniali publicznie wystarczająco szczegółowe streszczenie na temat treści wykorzystywanych do trenowania modelu AI ogólnego przeznaczenia. Przy należytym uwzględnieniu potrzeby ochrony tajemnic przedsiębiorstwa i poufnych informacji handlowych streszczenie to nie powinno skupiać się na szczegółach technicznych, lecz mieć zasadniczo kompleksowy charakter, aby ułatwić stronom mającym uzasadniony interes, w tym posiadaczom praw autorskich, wykonywanie i egzekwowanie ich praw wynikających z prawa Unii; streszczenie to powinno więc na przykład wymieniać główne zbiory danych, które wykorzystano do trenowania modelu, takie jak duże prywatne lub publiczne bazy lub archiwa danych, oraz powinno zawierać opisowe wyjaśnienie innych wykorzystanych źródeł danych. Urząd ds. AI powinien zapewnić wzór streszczenia, który powinien być prosty i skuteczny oraz umożliwiać dostawcy przedstawienie wymaganego streszczenia w formie opisowej.
(107)
Lai palielinātu pārredzamību attiecībā uz datiem, ko izmanto vispārīga lietojuma MI modeļu iepriekšējā apmācībā un apmācībā, tostarp attiecībā uz tekstu un datiem, ko aizsargā tiesību akti autortiesību jomā, ir piemēroti, ka šādu modeļu nodrošinātāji izstrādā un dara publiski pieejamu pietiekami detalizētu kopsavilkumu par saturu, ko izmanto vispārīga lietojuma MI modeļa apmācībā. Pienācīgi ņemot vērā nepieciešamību aizsargāt komercnoslēpumus un konfidenciālu uzņēmējdarbības informāciju, šā kopsavilkuma tvērumam vajadzētu būt kopumā visaptverošam, nevis tehniski detalizētam, lai pusēm ar leģitīmām interesēm, tostarp autortiesību īpašniekiem, atvieglotu savu Savienības tiesību aktos paredzēto tiesību izmantošanu un īstenošanu, piemēram, uzskaitot galvenos modeļa apmācībā izmantotos datu apkopojumus vai datu kopas, piemēram, lielas privātas vai publiskas datubāzes vai datu arhīvi, un sniedzot aprakstošu skaidrojumu par citiem izmantotajiem datu avotiem. Ir lietderīgi, ka MI birojs nodrošina kopsavilkuma veidni, kam vajadzētu būt vienkāršam un efektīvam un kas ļautu nodrošinātājam sniegt prasīto kopsavilkumu aprakstošā veidā.
(108)
Urząd ds. AI powinien monitorować, czy dostawca spełnił obowiązki nałożone na dostawców modeli AI ogólnego przeznaczenia dotyczące wprowadzenia polityki w celu zapewnienia zgodności z unijnym prawem autorskim i podania do wiadomości publicznej streszczenia na temat treści wykorzystywanych do trenowania, jednak nie powinien weryfikować danych treningowych pod kątem zgodności z prawami autorskimi ani przystępować do oceny tych danych w podziale na poszczególne utwory. Niniejsze rozporządzenie nie wpływa na egzekwowanie przepisów dotyczących praw autorskich przewidzianych w prawie Unii.
(108)
Attiecībā uz vispārīga lietojuma MI modeļu nodrošinātājiem uzliktajiem pienākumiem ieviest politiku, ar ko nodrošina atbilstību Savienības tiesību aktiem autortiesību jomā, un darīt publiski pieejamu apmācībā izmantotā satura kopsavilkumu MI birojam būtu jāpārrauga, vai nodrošinātājs ir izpildījis minētos pienākumus, neveicot pārbaudi vai nevērtējot apmācības datus par katru atsevišķu darbu attiecībā uz atbilstību tiesību aktiem autortiesību jomā. Šī regula neietekmē Savienības tiesību aktos paredzēto noteikumu autortiesību jomā izpildi.
(109)
Spełnianie obowiązków mających zastosowanie do dostawców modeli AI ogólnego przeznaczenia powinno być współmierne i proporcjonalne do rodzaju dostawcy modeli, z wyłączeniem konieczności ich spełnienia przez osoby, które rozwijają lub wykorzystują modele do celów pozazawodowych lub badań naukowych – osoby te należy jednak zachęcać do dobrowolnego spełniania tych wymogów. Bez uszczerbku dla unijnego prawa autorskiego spełnianie tych obowiązków powinno odbywać się przy należytym uwzględnieniu wielkości dostawcy i umożliwiać uproszczone sposoby spełnienia tych obowiązków przez MŚP, w tym przedsiębiorstwa typu start-up, które nie powinny wiązać się z nadmiernymi kosztami i zniechęcać do korzystania z takich modeli. W przypadku zmiany lub dostrajania modelu obowiązki dostawców modeli AI ogólnego przeznaczenia powinny być ograniczone do tej zmiany lub dostrajania modelu, na przykład poprzez uzupełnienie już istniejącej dokumentacji technicznej o informacje na temat zmiany, w tym nowych źródeł danych treningowych, w celu spełnienia obowiązków związanych z łańcuchem wartości przewidzianych w niniejszym rozporządzeniu.
(109)
Vispārīga lietojuma MI modeļu nodrošinātājiem piemērojamo pienākumu izpildei vajadzētu būt samērīgai un proporcionālai modeļa nodrošinātāja veidam, izņemot nepieciešamību atbilstību nodrošināt personām, kuras izstrādā vai lieto modeļus neprofesionālos vai zinātniskās pētniecības nolūkos, bet kuras tomēr būtu jāmudina brīvprātīgi ievērot šīs prasības. Neskarot Savienības tiesību aktus autortiesību jomā, minēto pienākumu izpildē būtu pienācīgi jāņem vērā nodrošinātāja lielums un jāļauj MVU, tostarp jaunuzņēmumiem, izmantot vienkāršotus atbilstības nodrošināšanas veidus, kuriem nebūtu jārada pārmērīgas izmaksas un jāattur no šādu modeļu izmantošanas. Modeļa modifikācijas vai pilnveidošanas gadījumā vispārīga lietojuma MI modeļu nodrošinātāju pienākumi būtu jāattiecina tikai uz minēto modifikāciju vai pilnveidošanu, piemēram, papildinot jau esošo tehnisko dokumentāciju ar informāciju par modifikācijām, tostarp jauniem apmācības datu avotiem, lai izpildītu šajā regulā noteiktos pienākumus saistībā ar vērtības ķēdi.
(110)
Modele AI ogólnego przeznaczenia mogą stwarzać ryzyko systemowe, które obejmuje między innymi wszelkie rzeczywiste lub racjonalnie przewidywalne negatywne skutki poważnych awarii, zakłóceń w sektorach krytycznych oraz poważne konsekwencje dla zdrowia i bezpieczeństwa publicznego; wszelkie rzeczywiste lub racjonalnie przewidywalne negatywne skutki dla procesów demokratycznych, bezpieczeństwa publicznego i gospodarczego; rozpowszechnianie nielegalnych, fałszywych lub dyskryminujących treści. Należy rozumieć, że ryzyko systemowe wzrasta wraz ze zdolnościami i zasięgiem modelu, może wystąpić w całym cyklu życia modelu i jest uzależnione od warunków niewłaściwego wykorzystania, niezawodności, bezstronności i bezpieczeństwa modelu, poziomu jego autonomii, dostępu do narzędzi, stosowania nowatorskich lub połączonych metod, strategii udostępniania i dystrybucji, możliwości w zakresie usuwania zabezpieczeń i innych czynników. W szczególności podejścia międzynarodowe wskazywały jak dotąd na potrzebę zwrócenia uwagi na ryzyko wynikające z potencjalnego umyślnego niewłaściwego wykorzystania lub niezamierzonych problemów z kontrolą związanych z dostosowaniem się do zamiaru człowieka; ryzyko chemiczne, biologiczne, radiologiczne i jądrowe, takie jak sposoby obniżania barier wejścia na rynek, w tym w zakresie opracowywania, projektowania, nabywania lub stosowania broni; ofensywne zdolności w zakresie cyberbezpieczeństwa, takie jak sposoby wykrywania, wykorzystywania lub operacyjnego stosowania podatności; skutki interakcji i wykorzystania narzędzi, w tym na przykład zdolność do kontrolowania systemów fizycznych i zakłócania infrastruktury krytycznej; ryzyko związane ze sporządzaniem kopii własnych przez modele lub samoreplikacji lub wynikające z trenowania innych modeli przez dany model; sposoby, w jakie modele mogą powodować szkodliwą stronniczość i dyskryminację zagrażające osobom fizycznym, społecznościom lub społeczeństwom; ułatwianie dezinformacji lub naruszanie prywatności, co przedstawia zagrożenie dla wartości demokratycznych i praw człowieka; ryzyko, że dane wydarzenie może spowodować reakcję łańcuchową o znacznych negatywnych skutkach, które mogą mieć wpływ nawet na całe miasta, na całą działalność w danym obszarze lub na całe społeczności.
(110)
Vispārīga lietojuma MI modeļi varētu radīt sistēmiskus riskus, kas cita starpā ietver jebkādu faktisku vai pamatoti paredzamu negatīvu ietekmi saistībā ar smagiem negadījumiem, kritisko nozaru darbības traucējumiem un nopietnām sekām sabiedrības veselībai un drošībai; jebkādu faktisku vai pamatoti paredzamu negatīvu ietekmi uz demokrātiskajiem procesiem, sabiedrības un ekonomikas drošību; nelikumīga, nepatiesa vai diskriminējoša satura izplatīšanu. Sistēmiskie riski būtu jāsaprot kā tādi, kas palielinās līdz ar modeļa spējām un modeļa tvērumu, var rasties visā modeļa dzīves ciklā un ko ietekmē ļaunprātīgas izmantošanas apstākļi, modeļa uzticamība, modeļa taisnīgums un modeļa drošība, modeļa autonomijas pakāpe, tā piekļuve rīkiem, nebijušas vai kombinētas modalitātes, laišanas apgrozībā un izplatīšanas stratēģijas, aizsargmehānismu likvidēšanas potenciāls un citi faktori. Jo īpaši starptautiskajās pieejās līdz šim ir konstatēta vajadzība pievērst uzmanību riskiem, ko rada potenciāli tīša ļaunprātīga izmantošana vai neparedzētas kontroles problēmas saistībā ar saskaņošanu ar cilvēka nolūku; ķīmiskiem, bioloģiskiem, radioloģiskiem riskiem un kodolriskiem, piemēram, veidiem, kā samazināt iekļūšanas šķēršļus, tostarp attiecībā uz ieroču izstrādi, projektēšanu iegādi vai izmantošanu; ofensīvām kiberspējām, piemēram, neaizsargātības atklāšanas, izmantošanas vai operatīvas izmantošanas veidiem; rīku mijiedarbības un izmantošanas ietekmei, tostarp, piemēram, spējai kontrolēt fiziskās sistēmas un ietekmēt kritisko infrastruktūru; riskiem, ko rada modeļi, kas paši sevi kopē, ir “pašreplicējoši” vai apmāca citus modeļus; veidiem, kā modeļi var veicināt kaitējošus aizspriedumus un diskrimināciju, rados riskus personām, kopienām vai sabiedrībai; dezinformācijas veicināšanai vai privātuma aizskārumiem, kas apdraud demokrātiskās vērtības un cilvēktiesības; riskam, ka konkrēts notikums varētu izraisīt ķēdes reakciju ar ievērojamu negatīvu ietekmi, kas varētu skart veselu pilsētu, veselas jomas darbību vai veselu kopienu.
(111)
Należy ustanowić metodykę klasyfikacji modeli AI ogólnego przeznaczenia jako modeli AI ogólnego przeznaczenia z ryzykiem systemowym. Ponieważ ryzyko systemowe wynika ze szczególnie wysokich zdolności, należy uznać, że model AI ogólnego przeznaczenia stwarza ryzyko systemowe, jeżeli wykazuje on zdolności dużego oddziaływania, oceniane na podstawie odpowiednich narzędzi technicznych i metodologii, lub jeżeli ze względu na swój zasięg ma znaczący wpływ na rynek wewnętrzny. Zdolności dużego oddziaływania w przypadku modeli AI ogólnego przeznaczenia oznaczają zdolności, które dorównują zdolnościom zapisanym w najbardziej zaawansowanych modelach AI ogólnego przeznaczenia lub je przewyższają. Pełny zakres zdolności danego modelu można lepiej zrozumieć po jego wprowadzeniu do obrotu lub w momencie, w którym podmioty stosujące wchodzą w interakcję z modelem. Zgodnie z aktualnym stanem wiedzy technicznej w momencie wejścia w życie niniejszego rozporządzenia jednym ze sposób przybliżonego określenia zdolności modelu jest łączna liczba obliczeń wykorzystanych do trenowania modelu AI ogólnego zastosowania mierzona w operacjach zmiennoprzecinkowych. Łączna liczba obliczeń wykorzystanych do trenowania obejmuje obliczenia stosowane w odniesieniu do wszystkich działań i metod, które mają na celu zwiększenie zdolności modelu przed wdrożeniem, takich jak pretrenowanie, generowanie danych syntetycznych i dostrajanie. W związku z tym należy określić próg minimalny operacjach zmiennoprzecinkowych, który, jeżeli zostanie spełniony przez model AI ogólnego przeznaczenia, stwarza domniemanie, że model ten jest modelem AI ogólnego przeznaczenia z ryzykiem systemowym. Próg ten powinien być z czasem dostosowywany w celu odzwierciedlenia zmian technologicznych i przemysłowych, takich jak ulepszenia algorytmiczne lub większa wydajność sprzętu, i powinien zostać uzupełniony o poziomy odniesienia i wskaźniki dotyczące zdolności modelu. W tym celu Urząd ds. AI powinien współpracować ze środowiskiem naukowym, przemysłem, społeczeństwem obywatelskim i innymi ekspertami. Progi, a także narzędzia i poziomy odniesienia na potrzeby oceny zdolności dużego oddziaływania powinny zapewniać mocne podstawy przewidywania ogólnego charakteru, zdolności i związanego z nimi ryzyka systemowego modeli AI ogólnego przeznaczenia; mogą one uwzględniać sposób, w jaki model zostanie wprowadzony do obrotu lub liczbę użytkowników, na które model ten może mieć wpływ. Aby uzupełnić ten system, Komisja powinna mieć możliwość podejmowania indywidualnych decyzji w sprawie uznania modelu AI ogólnego przeznaczenia za model AI ogólnego przeznaczenia z ryzykiem systemowym, jeżeli okaże się, że zdolności lub wpływ takiego modelu są równoważne z tymi, na które wskazuje ustalony próg. Decyzję tę należy podjąć na podstawie ogólnej oceny kryteriów do celów uznawania modelu AI ogólnego przeznaczenia za model z ryzykiem systemowym, określonych w załączniku do niniejszego rozporządzenia, takich jak jakość lub wielkość zbioru danych treningowych, liczba użytkowników biznesowych i końcowych, format danych wejściowych i wyjściowych modelu, poziom autonomii i skalowalności lub narzędzia, do których ma dostęp. Na uzasadniony wniosek dostawcy, którego model został uznany za model AI ogólnego przeznaczenia z ryzykiem systemowym, Komisja powinna odnieść się do tego wniosku i może podjąć decyzję o ponownej ocenie, czy model AI ogólnego przeznaczenia nadal można uznać za stwarzający ryzyko systemowe.
(111)
Ir lietderīgi izveidot metodoloģiju vispārīga lietojuma MI modeļu klasificēšanai par vispārīga lietojuma MI modeļiem ar sistēmiskiem riskiem. Tā kā sistēmiskie riski izriet no īpaši augstām spējām, būtu jāuzskata, ka vispārīga lietojuma MI modelis rada sistēmiskus riskus, ja tam ir augstas ietekmes spējas, kas novērtētas, pamatojoties uz piemērotiem tehniskiem rīkiem un metodēm, vai būtiska ietekme uz iekšējo tirgu tā tvēruma dēļ. Augstas ietekmes spējas vispārīga lietojuma MI modeļos ir spējas, kas atbilst vai pārsniedz spējas, kuras ir iekļautas modernākajos vispārīga lietojuma MI modeļos. Visu modeļa spēju klāstu varētu labāk izprast pēc tā laišanas tirgū vai tad, kad uzturētāji mijiedarbojas ar modeli. Saskaņā ar jaunākajiem sasniegumiem šīs regulas spēkā stāšanās brīdī vispārīga lietojuma MI modeļa apmācībā izmantotais kumulatīvais skaitļošanas resursu apjoms, mērīts peldošā punkta operācijās, ir viens no attiecīgajiem modeļa spēju tuvināšanas faktoriem. Apmācībai izmantotais kumulatīvais skaitļošanas resursu apjoms ietver skaitļošanas resursus, ko izmanto visām darbībām, un metodes, kas paredzētas, lai uzlabotu modeļa spējas pirms ieviešanas, piemēram, iepriekšēju apmācību, sintētisko datu ģenerēšanu un pilnveidošanu. Tāpēc būtu jānosaka sākotnēja peldošā punkta operāciju robežvērtība, kas, ja to sasniedz ar vispārīga lietojuma MI modeli, rada pieņēmumu, ka modelis ir vispārīga lietojuma MI modelis ar sistēmiskiem riskiem. Šī robežvērtība laika gaitā būtu jāpielāgo, lai atspoguļotu tehnoloģiskās un rūpnieciskās pārmaiņas, piemēram, algoritmiskos uzlabojumus vai uzlabotu aparatūras efektivitāti, un tā būtu jāpapildina ar modeļa spējas kritērijiem un rādītājiem. Informācijas ieguves nolūkā MI birojam būtu jāsadarbojas ar zinātnieku aprindām, nozari, pilsonisko sabiedrību un citiem ekspertiem. Robežvērtībām, kā arī rīkiem un kritērijiem augstas ietekmes spēju novērtēšanai vajadzētu būt spēcīgiem vispārīguma, spēju un vispārīga lietojuma MI modeļu saistītā sistēmiskā riska prognozētājiem, un tajos varētu ņemt vērā veidu, kādā modelis tiks laists tirgū, vai to lietotāju skaitu, ko modelis var ietekmēt. Lai papildinātu šo sistēmu, Komisijai vajadzētu būt iespējai pieņemt atsevišķus lēmumus, ar kuriem vispārīga lietojuma MI modeli izraugās par vispārīga lietojuma MI modeli ar sistēmisku risku, ja tiek konstatēts, ka šādam modelim ir spējas vai ietekme, kas ir līdzvērtīga tām, kuras aptver noteiktā robežvērtība. Minētais lēmums būtu jāpieņem, pamatojoties uz tādu šīs regulas pielikumā izklāstīto vispārīga lietojuma MI modeļu ar sistēmisku risku izraudzīšanās kritēriju vispārēju novērtējumu kā, piemēram, apmācības datu kopas kvalitāte vai lielums, komerciālo lietotāju un galalietotāju skaits, to ievades un izvades modalitātes, autonomijas pakāpe un mērogojamība vai rīki, kuriem tiem ir piekļuve. Pēc nodrošinātāja, kura modelis ir atzīts par vispārīga lietojuma MI modeli ar sistēmisku risku, pamatota pieprasījuma Komisijai pieprasījums būtu jāņem vērā, un tā var lemt atkārtoti vērtēt, vai joprojām var uzskatīt, ka vispārīga lietojuma MI modelis rada sistēmiskus riskus.
(112)
Konieczne jest również doprecyzowanie procedury klasyfikacji modelu AI ogólnego zastosowania z ryzykiem systemowym. W przypadku modelu AI ogólnego przeznaczenia, który osiąga mający zastosowanie próg dotyczący zdolności dużego oddziaływania, należy domniemywać, że jest on modelem AI ogólnego przeznaczenia z ryzykiem systemowym. Dostawca powinien powiadomić Urząd ds. AI najpóźniej dwa tygodnie od momentu spełnienia kryteriów lub po uzyskaniu wiedzy, że model AI ogólnego przeznaczenia będzie spełniał kryteria prowadzące do takiego domniemania. Jest to szczególnie istotne w odniesieniu do progu dotyczącego operacji zmiennoprzecinkowych, ponieważ trenowanie modeli AI ogólnego przeznaczenia wymaga znacznego planowania, co obejmuje przydział z góry zasobów obliczeniowych, w związku z czym dostawcy modeli AI ogólnego przeznaczenia są w stanie stwierdzić, czy ich model osiągnąłby ten próg przed zakończeniem trenowania. W kontekście tego powiadomienia dostawca powinien móc wykazać, że ze względu na swoje szczególne cechy model AI ogólnego przeznaczenia wyjątkowo nie stwarza ryzyka systemowego, a zatem nie powinien być zaklasyfikowany jako model AI ogólnego przeznaczenia z ryzykiem systemowym. Powiadomienia te to cenne informacje, które umożliwiają Urzędowi ds. AI przewidywanie, że modele AI sztucznej inteligencji ogólnego przeznaczenia z ryzykiem systemowym zostaną wprowadzone do obrotu, dostawcy mogą zatem rozpocząć współpracę z Urzędem ds. AI na wczesnym etapie. Informacje te są szczególnie ważne w odniesieniu do modeli AI ogólnego przeznaczenia, które mają zostać udostępnione jako otwarte oprogramowanie, zważywszy na to, że wdrożenie środków niezbędnych do zapewnienia spełnienia obowiązków ustanowionych w niniejszym rozporządzeniu może być trudniejsze po udostępnieniu modelu na zasadach otwartego oprogramowania.
(112)
Ir arī jāprecizē vispārīga lietojuma MI modeļu ar sistēmiskiem riskiem klasificēšanas procedūra. Vispārīga lietojuma MI modelis, kas atbilst piemērojamai robežvērtībai attiecībā uz augstas ietekmes spējām, būtu jāuzskata par vispārīga lietojuma MI modeli ar sistēmisku risku. Nodrošinātājam par to būtu jāpaziņo MI birojam ne vēlāk kā divas nedēļas pēc tam, kad ir izpildītas prasības vai kļūst zināms, ka vispārīga lietojuma MI modelis atbildīs prasībām, kas ir pieņēmuma pamatā. Tas ir īpaši svarīgi attiecībā uz peldošā punkta operāciju robežvērtību, jo vispārīga lietojuma MI modeļu apmācībai ir vajadzīga ievērojama plānošana, kas ietver skaitļošanas resursu sākotnējo iedalīšanu, un tāpēc vispārīga lietojuma MI modeļu nodrošinātāji var zināt, vai viņu modelis atbilstu robežvērtībai pirms apmācības pabeigšanas. Minētā paziņojuma kontekstā nodrošinātājam būtu jāspēj pierādīt, ka vispārīga lietojuma MI modelis tā specifisko iezīmju dēļ izņēmuma kārtā nerada sistēmiskus riskus un ka tādējādi to nevajadzētu klasificēt kā vispārīga lietojuma MI modeli ar sistēmiskiem riskiem. Minētā informācija ir MI birojam noderīga, lai prognozētu vispārīga lietojuma MI modeļu ar sistēmiskiem riskiem laišanu tirgū, un nodrošinātāji jau agrīnā posmā var sākt sadarboties ar MI biroju. Minētā informācija ir īpaši svarīga attiecībā uz vispārīga lietojuma MI modeļiem, kurus plānots laist apgrozībā kā atvērtā pirmkoda modeļus, ņemot vērā to, ka pēc atvērtā pirmkoda modeļa laišanas apgrozībā var būt grūtāk īstenot pasākumus, kas vajadzīgi, lai nodrošinātu atbilstību šajā regulā paredzētajiem pienākumiem.
(113)
Jeżeli Komisja dowie się o tym, że model AI ogólnego przeznaczenia spełnia kryteria, by zostać zaklasyfikowany jako model AI o ogólnym przeznaczeniu z ryzykiem systemowym, czego wcześniej nie było wiadomo lub w przypadku gdy odpowiedni dostawca nie wywiązał się z obowiązku powiadomienia o tym Komisji, Komisja powinna być uprawniona do uznania tego modelu za model o ogólnym przeznaczeniu z ryzykiem systemowym. Obok działań monitorujących prowadzonych przez Urząd ds. AI powinien istnieć system, w ramach którego panel naukowy za pośrednictwem ostrzeżeń kwalifikowanych informuje Urząd ds. AI o modelach AI ogólnego przeznaczenia, które należy ewentualnie zaklasyfikować jako modele AI ogólnego przeznaczenia z ryzykiem systemowym.
(113)
Ja Komisijai kļūst zināms, ka vispārīga lietojuma MI modelis atbilst prasībām, lai to klasificētu kā vispārīga lietojuma MI modeli ar sistēmisku risku, par ko iepriekš nebija zināms vai par ko attiecīgais nodrošinātājs nav paziņojis Komisijai, Komisijai vajadzētu būt pilnvarotai to noteikt par tādu. Kvalificētu brīdinājumu sistēmai būtu jānodrošina, ka zinātniskā grupa informē MI biroju par tādiem vispārīga lietojuma MI modeļiem, kas, iespējams, būtu jāklasificē kā vispārīga lietojuma MI modeļi ar sistēmisku risku – papildus MI biroja pārraudzības darbībām.
(114)
Dostawcy modeli AI ogólnego przeznaczenia stwarzających ryzyko systemowe powinni podlegać nie tylko obowiązkom nałożonym na dostawców modeli AI ogólnego przeznaczenia, ale także obowiązkom mającym na celu identyfikację i ograniczenie ryzyka systemowego oraz zapewnienie odpowiedniego poziomu ochrony cyberbezpieczeństwa, niezależnie od tego, czy modele te są dostarczane jako samodzielne modele czy wbudowane w system AI lub w produkt. Aby osiągnąć te cele, w niniejszym rozporządzeniu należy zobowiązać dostawców do przeprowadzania niezbędnych ocen modeli, w szczególności przed ich pierwszym wprowadzeniem do obrotu, w tym przeprowadzania wobec modeli i dokumentowania testów kontradyktoryjnych, również, w stosownych przypadkach, w drodze wewnętrznych lub niezależnych testów zewnętrznych. Ponadto dostawcy modeli AI ogólnego przeznaczenia z ryzykiem systemowym powinni stale oceniać i ograniczać ryzyko systemowe, w tym na przykład poprzez wprowadzanie strategii zarządzania ryzykiem, takich jak procesy rozliczalności i zarządzania, wdrażanie monitorowania po wprowadzeniu do obrotu, podejmowanie odpowiednich środków w całym cyklu życia modelu oraz współpracę z odpowiednimi podmiotami w całym łańcuchu wartości AI.
(114)
Uz tādu vispārīga lietojuma MI modeļu, kas rada sistēmiskus riskus, nodrošinātājiem – papildus vispārīga lietojuma MI modeļu nodrošinātājiem noteiktajiem pienākumiem – būtu jāattiecina pienākumi, kuru mērķis ir identificēt un mazināt minētos riskus un nodrošināt pienācīgu kiberdrošības aizsardzības līmeni neatkarīgi no tā, vai tas tiek nodrošināts kā savrups modelis vai tiek iegults kādā MI sistēmā vai produktā. Lai sasniegtu minētos mērķus, ar šo regulu nodrošinātājiem būtu jāprasa veikt vajadzīgos modeļu novērtējumus, jo īpaši pirms to pirmās laišanas tirgū, tostarp veikt un dokumentēt modeļu pretiniecisko testēšanu, attiecīgā gadījumā izmantojot arī iekšējo vai neatkarīgu ārējo testēšanu. Turklāt vispārīga lietojuma MI modeļu ar sistēmiskiem riskiem nodrošinātājiem būtu pastāvīgi jānovērtē un jāmazina sistēmiskie riski, tostarp, piemēram, ieviešot riska pārvaldības politiku, piemēram, pārskatatbildības un pārvaldības procesus, īstenojot pēctirgus pārraudzību, veicot atbilstošus pasākumus visā modeļa dzīves ciklā un sadarbojoties ar attiecīgajiem MI vērtības ķēdes dalībniekiem.
(115)
Dostawcy modeli AI ogólnego przeznaczenia z ryzykiem systemowym powinni oceniać i ograniczać ewentualne ryzyko systemowe. Jeżeli pomimo wysiłków na rzecz zidentyfikowania ryzyka związanego z modelem AI ogólnego przeznaczenia, który może stwarzać ryzyko systemowe, i pomimo wysiłków na rzecz przeciwdziałania temu ryzyku, w wyniku rozwoju lub wykorzystania modelu wystąpi poważny incydent, dostawca modelu AI ogólnego przeznaczenia powinien bez zbędnej zwłoki zacząć śledzić jego przebieg i zgłosić wszelkie istotne informacje i możliwe środki naprawcze Komisji i właściwym organom krajowym. Ponadto dostawcy powinni zapewnić odpowiedni poziom ochrony cyberbezpieczeństwa w odniesieniu do modelu i jego infrastruktury fizycznej, w stosownych przypadkach, w całym cyklu życia modelu. Ochrona cyberbezpieczeństwa w kontekście ryzyka systemowego związanego ze złośliwym wykorzystaniem lub atakami powinna należycie uwzględniać przypadkowe przecieki modelu, nieuprawnione przypadki udostępnienia, obchodzenie środków bezpieczeństwa oraz ochronę przed cyberatakami, nieuprawnionym dostępem lub kradzieżą modelu. Ochronę tę można ułatwić poprzez zabezpieczenie wag modeli, algorytmów, serwerów i zbiorów danych, na przykład za pomocą operacyjnych środków bezpieczeństwa na rzecz bezpieczeństwa informacji, konkretnych strategii cyberbezpieczeństwa, odpowiednich rozwiązań technicznych i ustanowionych rozwiązań oraz kontroli dostępu fizycznego i w cyberprzestrzeni, odpowiednio do danych okoliczności i związanego z nimi ryzyka.
(115)
Vispārīga lietojuma MI modeļu ar sistēmiskiem riskiem nodrošinātājiem būtu jānovērtē un jāmazina iespējamie sistēmiskie riski. Ja, neraugoties uz centieniem identificēt un novērst riskus, kas saistīti ar vispārīga lietojuma MI modeli, kurš var radīt sistēmiskus riskus, modeļa izstrāde vai lietošana izraisa nopietnu incidentu, vispārīga lietojuma MI modeļa nodrošinātājam bez liekas kavēšanās būtu jāveic incidenta uzskaite un jāpaziņo Komisijai un valstu kompetentajām iestādēm visa attiecīgā informācija un iespējamie korektīvie pasākumi. Turklāt nodrošinātājiem attiecīgā gadījumā visā modeļa dzīves ciklā būtu jānodrošina pienācīga līmeņa kiberdrošības aizsardzība modelim un tā fiziskajai infrastruktūrai. Kiberdrošības aizsardzībā tādu sistēmisku risku kontekstā, kuri saistīti ar ļaunprātīgu modeļa izmantošanu vai uzbrukumiem, būtu pienācīgi jāņem vērā nejauša modeļa noplūde, neatļauta laišana apgrozībā, drošības pasākumu apiešana, kā arī aizsardzība pret kiberuzbrukumiem, neatļauta piekļuve vai modeļa zādzība. Minēto aizsardzību varētu sekmēt, nodrošinot modeļu svarus, algoritmus, serverus un datu kopas, piemēram, izmantojot operatīvus drošības pasākumus informācijas drošībai, specifisku kiberdrošības politiku, pienācīgus tehniskus un iedibinātus risinājumus un kiberpiekļuves un fiziskās piekļuves kontroles, kas atbilst attiecīgajiem apstākļiem un saistītajiem riskiem.
(116)
Urząd ds. AI powinien wspierać i ułatwiać opracowywanie, przegląd i dostosowywanie kodeksów praktyk, z uwzględnieniem podejść międzynarodowych. Do udziału można zaprosić wszystkich dostawców modeli AI ogólnego przeznaczenia. W celu zapewnienia, aby kodeksy praktyk odzwierciedlały aktualny stan wiedzy technicznej i należycie uwzględniały różne punkty widzenia, przy opracowania takich kodeksów Urząd ds. AI powinien współpracować z odpowiednimi właściwymi organami krajowymi i mógłby, w stosownych przypadkach, konsultować się z organizacjami społeczeństwa obywatelskiego i innymi odpowiednimi zainteresowanymi stronami i ekspertami, w tym z panelem naukowym. Kodeksy praktyk powinny obejmować obowiązki dostawców modeli AI ogólnego przeznaczenia i modeli AI ogólnego przeznaczenia stwarzających ryzyko systemowe. Ponadto w odniesieniu do ryzyka systemowego kodeksy praktyk powinny pomóc w ustanowieniu na poziomie Unii klasyfikacji tego ryzyka pod względem jego różnych rodzajów i charakteru, w tym jego źródeł. Kodeksy praktyk powinny również koncentrować się na konkretnych środkach oceny i ograniczania ryzyka.
(116)
MI birojam būtu jāveicina un jāatvieglo prakses kodeksu izstrāde, pārskatīšana un pielāgošana, ņemot vērā starptautiskās pieejas. Piedalīties varētu uzaicināt visus vispārīga lietojuma MI modeļu nodrošinātājus. Lai nodrošinātu, ka prakses kodeksi atspoguļo jaunākos sasniegumus un pienācīgi ņem vērā dažādu perspektīvu kopumu, MI birojam būtu jāsadarbojas ar attiecīgajām valstu kompetentajām iestādēm un attiecīgā gadījumā šādu kodeksu izstrādes nolūkā tas varētu apspriesties ar pilsoniskās sabiedrības organizācijām un citām attiecīgajām ieinteresētajām personām un ekspertiem, tostarp ar zinātnisko grupu. Prakses kodeksiem būtu jāaptver vispārīga lietojuma MI modeļu un vispārīga lietojuma MI modeļu, kuri rada sistēmiskus riskus, nodrošinātāju pienākumi. Turklāt attiecībā uz sistēmiskiem riskiem ar prakses kodeksiem būtu jāpalīdz izveidot riska taksonomiju, kas raksturo Savienības līmeņa sistēmisko risku veidu un raksturu, tostarp to avotus. Prakses kodeksos uzmanība būtu jāpievērš arī konkrētiem riska novērtēšanas un mazināšanas pasākumiem.
(117)
Kodeksy praktyk powinny stanowić jedno z głównych narzędzi służących właściwemu spełnianiu obowiązków przewidzianych w niniejszym rozporządzeniu w odniesieniu do dostawców modeli AI ogólnego przeznaczenia. Dostawcy powinni móc polegać na kodeksach praktyk w celu wykazania spełnienia tych obowiązków. W drodze aktów wykonawczych Komisja może podjąć decyzję o zatwierdzeniu kodeksu praktyk i nadaniu mu ogólnej ważności w Unii lub ewentualnie o ustanowieniu wspólnych zasad dotyczących wdrażania odpowiednich obowiązków, jeżeli do czasu rozpoczęcia stosowania niniejszego rozporządzenia prace nad kodeksem praktyk nie mogą zostać sfinalizowane lub jeśli Urząd ds. AI uzna, że kodeks ten nie jest wystarczający. Po opublikowaniu normy zharmonizowanej i po tym jak Urząd ds. AI oceni ją jako właściwą, by objąć odpowiednie obowiązki, zgodność z europejską normą zharmonizowaną powinna w odniesieniu do dostawców oznaczać domniemanie zgodności. Dostawcy modeli AI ogólnego przeznaczenia powinni ponadto być w stanie wykazać zgodność za pomocą odpowiednich alternatywnych środków, jeżeli kodeksy praktyk lub normy zharmonizowane nie są dostępne lub jeśli zdecydują się na nich nie polegać.
(117)
Prakses kodeksiem vajadzētu būt centrālam rīkam, ar ko vispārīga lietojuma MI modeļu nodrošinātāji nodrošina šajā regulā paredzēto pienākumu pienācīgu izpildi. Pienākumu izpildes pierādīšanas nolūkā nodrošinātājiem vajadzētu spēt paļauties uz prakses kodeksiem. Ar īstenošanas aktiem Komisija var nolemt apstiprināt prakses kodeksu un piešķirt tam vispārēju spēkā esību Savienībā vai – alternatīvi – paredzēt kopīgus noteikumus attiecīgo pienākumu īstenošanai, ja līdz brīdim, kad šī regula kļūst piemērojama, nav iespējams pabeigt prakses kodeksa izstrādi vai MI birojs to neuzskata par piemērotu. Tiklīdz saskaņots standarts ir publicēts, un MI birojs ir novērtējis, ka tas ir piemērots, lai aptvertu attiecīgos pienākumus, atbilstībai Eiropas saskaņotajam standartam būtu jānodrošina nodrošinātājiem pieņēmums par atbilstību. Turklāt vispārīga lietojuma MI modeļu nodrošinātājiem vajadzētu spēt pierādīt atbilstību, izmantojot alternatīvus piemērotus līdzekļus, ja nav pieejami prakses kodeksi vai saskaņoti standarti vai ja nodrošinātāji izvēlas uz tiem nepaļauties.
(118)
Niniejsze rozporządzenie reguluje systemy AI i modele AI, nakładając określone wymogi i obowiązki na odpowiednie podmioty rynkowe, które wprowadzają je do obrotu, oddają do użytku lub wykorzystują w Unii, i uzupełnia w ten sposób obowiązki dostawców usług pośrednich, którzy włączają takie systemy lub modele do swoich usług uregulowanych rozporządzeniem (UE) 2022/2065. W zakresie, w jakim takie systemy lub modele są wbudowane we wskazane bardzo duże platformy internetowe lub bardzo duże wyszukiwarki internetowe, podlegają one ramom zarządzania ryzykiem przewidzianym w rozporządzeniu (UE) 2022/2065. W związku z tym należy domniemywać, że odpowiednie obowiązki ustanowione w niniejszym rozporządzeniu zostały spełnione, chyba że w takich modelach pojawi się i zostanie zidentyfikowane znaczące ryzyko systemowe nieobjęte rozporządzeniem (UE) 2022/2065. W tych ramach dostawcy bardzo dużych platform internetowych i bardzo dużych wyszukiwarek internetowych są zobowiązani do oceny potencjalnego ryzyka systemowego wynikającego z projektu, funkcjonowania i wykorzystania ich usług, w tym tego, w jaki sposób projekt systemów algorytmicznych wykorzystywanych w danej usłudze może przyczynić się do powstania takiego ryzyka, a także ryzyka systemowego wynikającego z potencjalnego nadużycia. Dostawcy ci są również zobowiązani podjąć odpowiednie środki ograniczające to ryzyko z poszanowaniem praw podstawowych.
(118)
Šī regula reglamentē MI sistēmas un MI modeļus, nosakot konkrētas prasības un pienākumus attiecīgajiem tirgus dalībniekiem, kas tos laiž tirgū, nodod ekspluatācijā vai lieto Savienībā, un tādējādi papildinot pienākumus, kas noteikti starpniecības pakalpojumu nodrošinātājiem, kuri šādas sistēmas vai modeļus iegulst savos pakalpojumos, ko reglamentē Regula (ES) 2022/2065. Ciktāl šādas sistēmas vai modeļi ir iegulti izraudzītās ļoti lielās tiešsaistes platformās vai ļoti lielās tiešsaistes meklētājprogrammās, uz tiem attiecas Regulā (ES) 2022/2065 paredzētā riska pārvaldības sistēma. Līdz ar to būtu jāuzskata, ka attiecīgie šajā regulā noteiktie pienākumi ir izpildīti, ja vien šādos modeļos nerodas un netiek identificēti būtiski sistēmiski riski, uz kuriem neattiecas Regula (ES) 2022/2065. Šajā kontekstā ļoti lielu tiešsaistes platformu un ļoti lielu tiešsaistes meklētājprogrammu nodrošinātājiem ir pienākums novērtēt iespējamos sistēmiskos riskus, kas izriet no to pakalpojumu izstrādes, darbības un izmantošanas, tostarp to, kā pakalpojumā izmantoto algoritmisko sistēmu izstrāde var veicināt šādus riskus, kā arī sistēmiskos riskus, kas izriet no iespējamas ļaunprātīgas izmantošanas. Minētajiem nodrošinātājiem ir arī pienākums veikt atbilstošus riska mazināšanas pasākumus, ievērojot pamattiesības.
(119)
Biorąc pod uwagę szybkie tempo innowacji i rozwój technologiczny usług cyfrowych objętych różnymi instrumentami prawa Unii, w szczególności mając na uwadze wykorzystanie tych usług oraz zrozumienie, kto jest ich odbiorcą, systemy AI podlegające niniejszemu rozporządzeniu mogą być dostarczane jako usługi pośrednie lub ich części w rozumieniu rozporządzenia (UE) 2022/2065, które należy postrzegać w sposób neutralny pod względem technologicznym. Na przykład systemy AI mogą być wykorzystywane w roli wyszukiwarek internetowych, w szczególności w zakresie, w jakim system AI, taki jak chatbot internetowy, zasadniczo przeprowadza wyszukiwanie wszystkich stron internetowych, a następnie włącza wyniki do swojej istniejącej wiedzy i wykorzystuje zaktualizowaną wiedzę do wygenerowania jednego wyniku, który łączy różne źródła informacji.
(119)
Ņemot vērā digitālo pakalpojumu inovācijas straujo tempu un tehnoloģisko attīstību dažādu Savienības tiesību instrumentu piemērošanas jomā, jo īpaši paturot prātā, kā šos pakalpojumus lieto un uztver to saņēmēji, MI sistēmas, uz kurām attiecas šī regula, var nodrošināt kā starpniecības pakalpojumus vai to daļas Regulas (ES) 2022/2065 nozīmē, kas būtu jāinterpretē tehnoloģiski neitrālā veidā. Piemēram, MI sistēmas var lietot tiešsaistes meklētājprogrammu nodrošināšanai, jo īpaši tādā mērā, kādā MI sistēma, piemēram, tiešsaistes sarunbots, principā veic meklēšanu visās tīmekļa vietnēs, pēc tam iekļauj rezultātus savās esošajās zināšanās un pielieto atjauninātās zināšanas, lai ģenerētu vienu iznākumu, kas apvieno dažādus informācijas avotus.
(120)
Ponadto obowiązki nałożone w niniejszym rozporządzeniu na dostawców i podmioty stosujące niektóre systemy AI, by umożliwić wykrywanie i ujawnianie, że wyniki tych systemów są sztucznie wygenerowane lub zmanipulowane, są szczególnie istotne dla ułatwienia skutecznego wdrożenia rozporządzenia (UE) 2022/2065. Dotyczy to w szczególności obowiązków dostawców bardzo dużych platform internetowych lub bardzo dużych wyszukiwarek internetowych w zakresie identyfikowania i ograniczania ryzyka systemowego, które może wynikać z rozpowszechniania treści sztucznie wygenerowanych lub zmanipulowanych, w szczególności ryzyka faktycznych lub przewidywalnych negatywnych skutków dla procesów demokratycznych, dyskursu obywatelskiego i procesów wyborczych, w tym poprzez stosowanie dezinformacji.
(120)
Turklāt pienākumi, kas šajā regulā noteikti dažu MI sistēmu nodrošinātājiem un uzturētājiem, lai varētu atklāt un izpaust, ka minēto sistēmu iznākumi ir mākslīgi ģenerēti vai manipulēti, ir īpaši būtiski nolūkā veicināt Regulas (ES) 2022/2065 efektīvu īstenošanu. Tas jo īpaši attiecas uz ļoti lielu tiešsaistes platformu vai ļoti lielu tiešsaistes meklētājprogrammu nodrošinātāju pienākumiem identificēt un mazināt sistēmiskos riskus, kas var rasties no mākslīgi ģenerēta vai manipulēta satura izplatīšanas, jo īpaši risku, ka radīsies faktiska vai paredzama negatīva ietekme uz demokrātiskajiem procesiem, pilsonisko diskursu un vēlēšanu procesiem, tostarp izplatot dezinformāciju.
(121)
Kluczową rolę w dostarczaniu dostawcom rozwiązań technicznych – zgodnie z aktualnym stanem wiedzy technicznej – w celu zapewnienia zgodności z niniejszym rozporządzeniem powinna odgrywać normalizacja, tak aby promować innowacje oraz konkurencyjność i wzrost gospodarczy na jednolitym rynku. Zgodność z normami zharmonizowanymi określonymi w art. 2 pkt 1 lit. c) rozporządzenia Parlamentu Europejskiego i Rady (UE) nr 1025/2012 (41), które z założenia mają odzwierciedlać stan wiedzy technicznej, powinna stanowić dla dostawców sposób wykazania zgodności z wymogami niniejszego rozporządzenia. Przy opracowywaniu norm należy zatem zachęcać do zrównoważonej reprezentacji interesów wszystkich zainteresowanych stron, w szczególności MŚP, organizacji konsumenckich oraz zainteresowanych stron działających na rzecz ochrony środowiska i społeczeństwa zgodnie z art. 5 i 6 rozporządzenia (UE) nr 1025/2012. Aby ułatwić osiąganie zgodności, wnioski o normalizację powinny być wydawane przez Komisję bez zbędnej zwłoki. Przygotowując wniosek o normalizację, Komisja powinna skonsultować się z forum doradczym i Radą ds. AI, aby zebrać odpowiednią wiedzę fachową. Jednakże w przypadku braku odpowiednich odniesień do norm zharmonizowanych Komisja powinna mieć możliwość ustanowienia, w drodze aktów wykonawczych i po konsultacji z forum doradczym, wspólnych specyfikacji dotyczących niektórych wymogów określonych w niniejszym rozporządzeniu. Ta wspólna specyfikacja powinna stanowić wyjątkowe rozwiązanie awaryjne ułatwiające dostawcy spełnienie wymogów niniejszego rozporządzenia, w przypadku gdy wniosek o normalizację nie został zaakceptowany przez żadną z europejskich organizacji normalizacyjnych lub gdy odpowiednie normy zharmonizowane w niewystarczającym stopniu uwzględniają obawy dotyczące praw podstawowych lub gdy normy zharmonizowane nie są zgodne z wnioskiem, lub gdy występują opóźnienia w przyjęciu odpowiedniej normy zharmonizowanej. Jeżeli opóźnienie w przyjęciu normy zharmonizowanej wynika ze złożoności technicznej danej normy, Komisja powinna to uwzględnić, zanim zacznie rozważać ustanowienie wspólnych specyfikacji. Przy opracowywaniu wspólnych specyfikacji zachęca się Komisję do współpracy z partnerami międzynarodowymi i międzynarodowymi organami normalizacyjnymi.
(121)
Standartizācijai vajadzētu būt ļoti būtiskai tādu tehnisko risinājumu nodrošināšanā, kas nodrošinātājiem atbilstoši jaunākajiem sasniegumiem ļautu panākt atbilstību šīs regulas noteikumiem, veicināt inovāciju, kā arī konkurētspēju un izaugsmi vienotajā tirgū. Atbilstībai Eiropas Parlamenta un Padomes Regulas (ES) Nr. 1025/2012 (41) 2. panta 1. punkta c) apakšpunktā noteiktajiem saskaņotajiem standartiem, kuros – kā lielākoties sagaidāms – ir atspoguļoti jaunākie sasniegumi, vajadzētu būt veidam, kā nodrošinātāji var apliecināt atbilstību šīs regulas prasībām. Tāpēc būtu jāveicina līdzsvarota interešu pārstāvība, saskaņā ar Regulas (ES) Nr. 1025/2012 5. un 6. pantu standartu izstrādē iesaistot visas attiecīgās ieinteresētās personas, jo īpaši MVU, patērētāju organizācijas un vides un sociālās jomas ieinteresētās personas. Lai veicinātu atbilstību, Komisijai standartizācijas pieprasījumi būtu jāizdod bez liekas kavēšanās. Sagatavojot standartizācijas pieprasījumu, Komisijai būtu jāapspriežas ar konsultatīvo forumu un MI padomi, lai apkopotu attiecīgās speciālās zināšanas. Tomēr, ja nav attiecīgu atsauču uz saskaņotajiem standartiem, Komisijai vajadzētu būt iespējai ar īstenošanas aktiem un pēc apspriešanās ar konsultatīvo forumu noteikt kopīgas specifikācijas dažām šajā regulā paredzētajām prasībām. Kopīgajai specifikācijai vajadzētu būt izņēmuma alternatīvam risinājumam, lai nodrošinātājam atvieglotu pienākumu izpildīt šīs regulas prasības, ja neviena no Eiropas standartizācijas organizācijām nav akceptējusi standartizācijas pieprasījumu vai ja attiecīgajos saskaņotajos standartos nav pietiekami ņemti vērā pamattiesību jautājumi, vai ja saskaņotie standarti neatbilst pieprasījumam, vai ja atbilstoša saskaņota standarta pieņemšana kavējas. Ja šāda kavēšanās saskaņota standarta pieņemšanā ir saistīta ar minētā standarta tehnisko sarežģītību, Komisijai tas būtu jāņem vērā, pirms tiek apsvērta kopīgu specifikāciju izstrāde. Izstrādājot kopīgas specifikācijas, Komisija ir mudināta sadarboties ar starptautiskiem partneriem un starptautiskām standartizācijas iestādēm.
(122)
Bez uszczerbku dla stosowania norm zharmonizowanych i wspólnych specyfikacji zasadnym jest przyjęcie domniemania, że dostawcy systemu AI wysokiego ryzyka, który został wytrenowany i przetestowany w oparciu o dane odzwierciedlające określone otoczenie geograficzne, behawioralne, kontekstualne lub funkcjonalne, w którym dany system AI ma być wykorzystywany, stosują odpowiedni środek przewidziany w ramach wymogu dotyczącego zarządzania danymi określonego w niniejszym rozporządzeniu. Bez uszczerbku dla wymogów dotyczących solidności i dokładności określonych w niniejszym rozporządzeniu, zgodnie z art. 54 ust. 3 rozporządzenia (UE) 2019/881 należy przyjąć domniemanie, że systemy AI wysokiego ryzyka, które zostały certyfikowane lub w odniesieniu do których wydano deklarację zgodności w ramach programu certyfikacji cyberbezpieczeństwa na podstawie tego rozporządzenia i do których to poświadczeń opublikowano odniesienia w Dzienniku Urzędowym Unii Europejskiej, są zgodne z wymogiem cyberbezpieczeństwa określonym w niniejszym rozporządzeniu w zakresie, w jakim certyfikat cyberbezpieczeństwa lub deklaracja zgodności lub ich części obejmują wymóg cyberbezpieczeństwa określony w niniejszym rozporządzeniu. Pozostaje to bez uszczerbku dla dobrowolnego charakteru tego programu certyfikacji cyberbezpieczeństwa.
(122)
Neskarot saskaņoto standartu un kopīgo specifikāciju izmantošanu, būtu lietderīgi pieņemt, ka tādas augsta riska MI sistēmas nodrošinātāji, kura ir apmācīta un pārbaudīta ar datiem, kas atspoguļo konkrēto ģeogrāfisko, uzvedības, kontekstuālo vai funkcionālo vidi, kurā MI sistēmu ir paredzēts lietot, atbilst attiecīgajam pasākumam, kas paredzēts saskaņā ar šajā regulā noteikto datu pārvaldības prasību. Neskarot šajā regulā noteiktās prasības attiecībā uz robustumu un precizitāti, saskaņā ar Regulas (ES) 2019/881 54. panta 3. punktu būtu jāpieņem, ka augsta riska MI sistēmas, kuras, ievērojot minēto regulu, ir sertificētas vai kurām saskaņā ar kiberdrošības shēmu ir izsniegts atbilstības apliecinājums, un uz to atsauces ir publicētas Eiropas Savienības Oficiālajā Vēstnesī, atbilst šās regulas kiberdrošības prasībai, ciktāl kiberdrošības sertifikāts vai atbilstības apliecinājums vai tā daļas attiecas uz šīs regulas kiberdrošības prasību. Tas neskar minētās kiberdrošības shēmas brīvprātīgo raksturu.
(123)
Aby zapewnić wysoki poziom wiarygodności systemów AI wysokiego ryzyka, takie systemy powinny podlegać ocenie zgodności przed wprowadzeniem ich do obrotu lub oddaniem do użytku.
(123)
Lai nodrošinātu augsta riska MI sistēmu augstu uzticamības līmeni, būtu jāveic minēto sistēmu atbilstības novērtēšana pirms to laišanas tirgū vai nodošanas ekspluatācijā.
(124)
Aby zminimalizować obciążenie dla operatorów i uniknąć ewentualnego powielania działań, zgodność z wymogami niniejszego rozporządzenia w przypadku systemów AI wysokiego ryzyka powiązanych z produktami, które są objęte zakresem stosowania obowiązującego unijnego prawodawstwa harmonizacyjnego opartego na nowych ramach prawnych, należy oceniać w ramach oceny zgodności przewidzianej już w tym prawodawstwie. Stosowanie wymogów niniejszego rozporządzenia nie powinno zatem wpływać na szczególną logikę, metodykę lub ogólną strukturę oceny zgodności określone w unijnym prawodawstwie harmonizacyjnym.
(124)
Lai mazinātu slogu uz operatoriem un novērstu iespējamu dublēšanos, attiecībā uz augsta riska MI sistēmām, kas saistītas ar produktiem, uz kuriem attiecas esošie Savienības saskaņošanas tiesību akti, kuru pamatā ir Jaunais tiesiskais regulējums, būtu lietderīgi minēto MI sistēmu atbilstību šīs regulas prasībām novērtēt minētajos tiesību aktos jau paredzētās atbilstības novērtēšanas ietvaros. Tādējādi šīs regulas prasību piemērojamībai nevajadzētu ietekmēt attiecīgajos Savienības saskaņošanas tiesību aktos paredzētās atbilstības novērtēšanas īpašo loģiku, metodiku vai vispārīgo struktūru.
(125)
Biorąc pod uwagę złożoność systemów AI wysokiego ryzyka i związane z nimi ryzyko, ważne jest opracowanie odpowiedniej procedury oceny zgodności w przypadku systemów AI wysokiego ryzyka z udziałem jednostek notyfikowanych, tzw. oceny zgodności przeprowadzanej przez stronę trzecią. Zważywszy jednak na dotychczasowe doświadczenie, jakie zawodowe podmioty zajmujące się certyfikacją przed wprowadzeniem do obrotu mają w dziedzinie bezpieczeństwa produktów, oraz odmienny charakter odnośnego ryzyka, zakres stosowania oceny zgodności przeprowadzanej przez stronę trzecią należy ograniczyć, przynajmniej na początkowym etapie stosowania niniejszego rozporządzenia, w przypadku systemów AI wysokiego ryzyka innych niż te, które są powiązane z produktami. W związku z tym ocena zgodności takich systemów powinna być co do zasady przeprowadzana przez dostawcę na jego własną odpowiedzialność, z wyjątkiem systemów AI przeznaczonych do wykorzystania do celów biometrycznych.
(125)
Ņemot vērā augsta riska MI sistēmu sarežģītību un ar tām saistītos riskus, ir svarīgi izstrādāt pienācīgas atbilstības novērtēšanas procedūras augsta riska MI sistēmām, iesaistot paziņotās struktūras, tā saukto trešās personas veiktu atbilstības novērtēšanu. Tomēr, ņemot vērā pašreizējo produktu drošuma jomā gūto pieredzi, kas ir profesionāliem sertificētājiem, kuri darbojas pirmstirdzniecības posmā, kā arī saistīto risku atšķirīgo raksturu, vismaz sākotnējā šīs regulas piemērošanas posmā ir lietderīgi ierobežot trešās personas veiktas atbilstības novērtēšanas piemērošanas jomu tādām augsta riska MI sistēmām, kuras nav saistītas ar produktiem. Tāpēc šādu sistēmu atbilstības novērtēšana parasti būtu jāveic nodrošinātājam uz savu atbildību, izņemot vienīgi MI sistēmas, kuras paredzēts izmantot biometrijas vajadzībām.
(126)
Do celów oceny zgodności przeprowadzanej przez stronę trzecią, jeśli jest ona wymagana, właściwe organy krajowe powinny notyfikować na podstawie niniejszego rozporządzenia jednostki notyfikowane, pod warunkiem że jednostki te spełniają szereg wymogów, w szczególności dotyczących niezależności, kompetencji, braku konfliktu interesów i odpowiednich wymogów cyberbezpieczeństwa. Notyfikacja tych jednostek powinna zostać przesłana Komisji i pozostałym państwom członkowskim przez właściwe organy krajowe za pomocą systemu notyfikacji elektronicznej opracowanego i zarządzanego przez Komisję zgodnie z art. R23 załącznika I do decyzji nr 768/2008/WE.
(126)
Lai īstenotu trešās personas veiktus atbilstības novērtējumus, kad tas ir prasīts, valstu kompetentajām iestādēm saskaņā ar šo regulu būtu jāpaziņo paziņotās struktūras ar noteikumu, ka tās atbilst prasību kopumam, it īpaši neatkarības, kompetences, interešu konflikta neesības un piemērotu kiberdrošības prasību ziņā. Valstu kompetentajām iestādēm paziņojums par minētajām struktūrām būtu jānosūta Komisijai un pārējām dalībvalstīm, izmantojot elektronisko paziņošanas rīku, ko Komisija izveidojusi un pārvalda, ievērojot Lēmuma Nr. 768/2008/EK I pielikuma R23. pantu.
(127)
Zgodnie ze zobowiązaniami Unii wynikającymi z Porozumienia Światowej Organizacji Handlu w sprawie barier technicznych w handlu właściwe jest ułatwienie wzajemnego uznawania wyników oceny zgodności sporządzonych przez właściwe jednostki oceniające zgodność, niezależnie od terytorium, na którym mają siedzibę, pod warunkiem że te jednostki oceniające zgodność ustanowione na mocy prawa państwa trzeciego spełniają mające zastosowanie wymogi niniejszego rozporządzenia, a Unia zawarła w tym zakresie umowę. W tym kontekście Komisja powinna aktywnie szukać rozwiązań w postaci ewentualnych służących temu celowi instrumentów międzynarodowych, a w szczególności dążyć do zawarcia umów o wzajemnym uznawaniu z państwami trzecimi.
(127)
Atbilstoši Savienības saistībām saskaņā ar Pasaules Tirdzniecības organizācijas Nolīgumu par tehniskajiem šķēršļiem tirdzniecībā, ir lietderīgi veicināt to atbilstības novērtēšanas rezultātu savstarpēju atzīšanu, kurus sagatavojušas kompetentās atbilstības novērtēšanas struktūras neatkarīgi no teritorijas, kurā tās ir iedibinātas, ar noteikumu, ka tādas atbilstības novērtēšanas struktūras, kas iedibinātas saskaņā ar kādas trešās valsts tiesību aktiem, atbilst šīs regulas piemērojamajām prasībām un Savienība šajā sakarā ir noslēgusi nolīgumu. Šajā kontekstā Komisijai būtu aktīvi jāizpēta iespējamie starptautiskie instrumenti šādā nolūkā un jo īpaši būtu jācenšas panākt savstarpējas atzīšanas nolīgumu noslēgšana ar trešām valstīm.
(128)
Zgodnie z powszechnie ugruntowanym pojęciem istotnej zmiany w odniesieniu do produktów regulowanych unijnym prawodawstwem harmonizacyjnym, należy – za każdym razem, gdy dokonuje się zmiany, która może wpłynąć na zgodność danego systemu AI wysokiego ryzyka z niniejszym rozporządzeniem (np. zmiana systemu operacyjnego lub architektury oprogramowania), lub gdy zmienia się przeznaczenie danego systemu – uznać ten system AI za nowy system AI, który powinien zostać poddany nowej ocenie zgodności. Za istotną zmianę nie należy jednak uznawać zmian w algorytmie oraz w skuteczności działania systemu AI, który po wprowadzeniu do obrotu lub oddaniu do użytku nadal się „uczy”, tzn. automatycznie dostosowuje sposób wykonywania funkcji, pod warunkiem że zmiany te zostały z góry zaplanowane przez dostawcę i ocenione w momencie przeprowadzania oceny zgodności.
(128)
Saskaņā ar vispāratzīto būtisku modifikāciju jēdzienu, ko attiecina uz Savienības saskaņošanas tiesību aktu regulētajiem produktiem, ir lietderīgi, ka ikreiz, kad notikušas izmaiņas, kas var ietekmēt augsta riska MI sistēmas atbilstību šīs regulas noteikumiem (piemēram, operētājsistēmas vai programmatūras arhitektūras izmaiņas), vai kad mainījies sistēmas paredzētais nolūks, MI sistēma būtu jāuzskata par jaunu MI sistēmu, kurai būtu jāveic jauns atbilstības novērtējums. Tomēr izmaiņas tādu MI sistēmu algoritmā un veiktspējā, kuras turpina “mācīties” pēc to laišanas tirgū vai nodošanas ekspluatācijā, proti, automātiski pielāgojot veidu, kādā tās veic funkcijas, nebūtu uzskatāmas par būtisku modifikāciju, ar noteikumu, ka nodrošinātājs minētās izmaiņas ir iepriekš noteicis un novērtējis atbilstības novērtēšanas brīdī.
(129)
Systemy AI wysokiego ryzyka powinny posiadać oznakowanie CE wskazujące na ich zgodności z niniejszym rozporządzeniem, aby umożliwić ich swobodny przepływ na rynku wewnętrznym. W przypadku systemów AI wysokiego ryzyka wbudowanych w produkt należy umieścić fizyczne oznakowanie CE, które może zostać uzupełnione cyfrowym oznakowaniem CE. W przypadku systemów AI wysokiego ryzyka dostarczanych wyłącznie w formie cyfrowej należy stosować cyfrowe oznakowanie CE. Państwa członkowskie nie powinny stwarzać nieuzasadnionych przeszkód dla wprowadzania do obrotu lub oddawania do użytku systemów AI wysokiego ryzyka zgodnych z wymogami ustanowionymi w niniejszym rozporządzeniu i posiadających oznakowanie CE.
(129)
Augsta riska MI sistēmām vajadzētu būt marķētām ar CE zīmi, kas norādītu uz to atbilstību šīs regulas noteikumiem, ļaujot tām būt brīvā apritē iekšējā tirgū. Produktā iegultām augsta riska MI sistēmām būtu jāpiestiprina fiziska CE zīme, kuru var papildināt ar digitālu CE zīmi. Augsta riska MI sistēmām, kas tiek nodrošinātas tikai digitāli, būtu jāizmanto digitāla CE zīme. Dalībvalstīm nevajadzētu radīt nepamatotus šķēršļus tādu augsta riska MI sistēmu laišanai tirgū vai nodošanai ekspluatācijā, kuras atbilst šajā regulā noteiktajām prasībām un ir marķētas ar CE zīmi.
(130)
W pewnych warunkach szybka dostępność innowacyjnych technologii może być kluczowa dla zdrowia i bezpieczeństwa osób, ochrony środowiska i zmiany klimatu oraz dla całego społeczeństwa. Jest zatem właściwe, aby w przypadku wystąpienia nadzwyczajnych względów dotyczących bezpieczeństwa publicznego lub ochrony zdrowia i życia osób fizycznych, ochrony środowiska oraz ochrony kluczowych aktywów przemysłowych i infrastrukturalnych, organy nadzoru rynku mogły zezwolić na wprowadzenie do obrotu lub oddanie do użytku systemów AI, które nie przeszły oceny zgodności. W należycie uzasadnionych sytuacjach przewidzianych w niniejszym rozporządzeniu organy ścigania lub organy ochrony ludności mogą oddać do użytku określony system AI wysokiego ryzyka bez zezwolenia organu nadzoru rynku, pod warunkiem że o takie zezwolenie wystąpiono bez zbędnej zwłoki w trakcie jego wykorzystania lub po wykorzystaniu.
(130)
Dažos apstākļos ātra inovatīvu tehnoloģiju pieejamība var būt ļoti svarīga personu veselībai un drošumam, vides aizsardzībai un klimata pārmaiņu mazināšanas nolūkos, kā arī sabiedrībai kopumā. Līdz ar to ir lietderīgi, ka ar sabiedrisko drošību vai fizisku personu dzīvības un veselības aizsardzību, vides aizsardzību un svarīgu rūpniecības un infrastruktūras aktīvu aizsardzību saistītos ārkārtas apstākļos tirgus uzraudzības iestādes varētu atļaut laist tirgū vai nodot ekspluatācijā MI sistēmas, kurām nav veikta atbilstības novērtēšana. Pienācīgi pamatotos gadījumos, kā paredzēts šajā regulā, tiesībaizsardzības iestādes vai civilās aizsardzības iestādes var konkrētu augsta riska MI sistēmu nodot ekspluatācijā bez tirgus uzraudzības iestādes atļaujas ar noteikumu, ka šāda atļauja, lieki nekavējoties, tiek pieprasīta lietošanas laikā vai pēc tās.
(131)
Aby ułatwić pracę Komisji i państw członkowskich w dziedzinie AI, jak również zwiększyć przejrzystość wobec ogółu społeczeństwa, dostawców systemów AI wysokiego ryzyka innych niż te, które są powiązane z produktami objętymi zakresem stosowania odpowiedniego obowiązującego unijnego prawodawstwa harmonizacyjnego, a także dostawców, którzy uznają, że w związku z odstępstwem system AI wymieniony w wykazie przypadków wykorzystania stanowiących wysokie ryzyko zamieszczonym w załączniku do niniejszego rozporządzenia nie jest systemem wysokiego ryzyka, należy zobowiązać, by dokonali swojej rejestracji oraz rejestracji informacji na temat swoich systemów AI w bazie danych UE, która zostanie utworzona i będzie zarządzana przez Komisję. Przed wykorzystaniem systemu AI wymienionego w wykazie przypadków wykorzystania stanowiących wysokie ryzyko zamieszczonym w załączniku do niniejszego rozporządzenia będące publicznymi organami, agencjami lub jednostkami organizacyjnymi podmioty stosujące systemy AI wysokiego ryzyka powinny dokonać swojej rejestracji w tej bazie danych i wybrać system, który zamierzają wykorzystywać. Inne podmioty stosujące powinny być uprawnione do uczynienia tego dobrowolnie. Ta sekcja bazy danych UE powinna być publicznie dostępna, nieodpłatna, informacje powinny być łatwe do odnalezienia, zrozumiałe i nadające się do odczytu maszynowego. Ta baza danych UE powinna być również przyjazna dla użytkownika, na przykład poprzez zapewnienie funkcji wyszukiwania, w tym za pomocą słów kluczowych, co umożliwi ogółowi społeczeństwa znalezienie istotnych informacji przedkładanych przy rejestracji systemów AI wysokiego ryzyka, oraz informacji na temat przypadków wykorzystywania systemów AI wysokiego ryzyka, określonych w załączniku do niniejszego rozporządzenia, któremu odpowiadają poszczególne systemy AI wysokiego ryzyka. W unijnej bazie danych UE powinno się też rejestrować wszelkie istotne zmiany systemów sztucznej inteligencji wysokiego ryzyka. W przypadku systemów AI wysokiego ryzyka w obszarze ścigania przestępstw, zarządzania migracją, azylem i kontrolą graniczną obowiązkowej rejestracji należy dokonać w bezpiecznej niepublicznej sekcji bazy danych. Dostęp do tej bezpiecznej niepublicznej sekcji powinna posiadać tylko i wyłącznie Komisja i organy nadzoru rynku w odniesieniu do ich krajowej sekcji bazy danych UE. Systemy AI wysokiego ryzyka w obszarze infrastruktury krytycznej powinny być rejestrowane wyłącznie na poziomie krajowym. Komisja powinna być administratorem bazy danych UE zgodnie z rozporządzeniem (UE) 2018/1725. Aby zapewnić pełną funkcjonalność bazy danych UE po jej wdrożeniu, procedura ustanawiania bazy danych powinna obejmować rozwijanie przez Komisję specyfikacji funkcjonalnych oraz sprawozdanie z niezależnego audytu. Wykonując swoje zadania jako administrator danych bazy danych UE, Komisja powinna wziąć pod uwagę ryzyko dotyczące cyberbezpieczeństwa. Aby zmaksymalizować dostępność i wykorzystywanie bazy danych UE przez społeczeństwo, baza danych UE, w tym udostępniane za jej pośrednictwem informacje, powinna być zgodna z wymogami określonymi w dyrektywie (UE) 2019/882.
(131)
Lai veicinātu Komisijas un dalībvalstu darbu MI jomā, kā arī lai vairotu pārredzamību sabiedrībai, būtu jānosaka prasība tādu augsta riska MI sistēmu nodrošinātājiem, kuras nav saistītas ar produktiem, uz kuriem attiecas esošie Savienības saskaņošanas tiesību akti, kā arī nodrošinātājiem, kuri uzskata, ka MI sistēma, kas uzskaitīta šīs regulas pielikumā augsta riska lietošanas gadījumos, nav augsta riska MI sistēma, pamatojoties uz atkāpi, reģistrēties pašiem un reģistrēt informāciju par savu MI sistēmu ES datubāzē, ko izveidos un pārvaldīs Komisija. Pirms MI sistēmu, kas uzskaitīta šīs regulas pielikumā augsta riska lietošanas gadījumos, tiek lietota, augsta riska MI sistēmu uzturētāji, kas ir publiskas iestādes, aģentūras vai struktūras, paši reģistrējas šādā datubāzē un izvēlas sistēmu, kuru tie plāno lietot. Citiem uzturētājiem vajadzētu būt tiesībām to darīt brīvprātīgi. Šai datubāzes sadaļai vajadzētu būt bez maksas publiski piekļūstamai, informācijai vajadzētu būt viegli pārlūkojamai, saprotamai un mašīnlasāmai. ES datubāzei vajadzētu būt arī lietotājdraudzīgai, piemēram, nodrošinot meklēšanas funkcijas, tostarp atslēgvārdus, kas ļauj plašai sabiedrībai atrast attiecīgo informāciju, kas iesniedzama, reģistrējot augsta riska MI sistēmas, un par augsta riska MI sistēmu veidiem, kas izklāstītas šīs regulas pielikumā, kurai atbilst augsta riska MI sistēmas. ES datubāzē būtu jāreģistrē arī jebkādas augsta riska MI sistēmu būtiskas modifikācijas. Attiecībā uz augsta riska MI sistēmām tiesībaizsardzības, migrācijas, patvēruma un robežkontroles pārvaldības jomā reģistrācijas pienākumi būtu jāizpilda drošā nepubliskā ES datubāzes sadaļā. Piekļuve drošajai nepubliskajai sadaļai būtu stingri jāierobežo, atļaujot to tikai Komisijai, kā arī tirgus uzraudzības iestādēm attiecībā uz minētās datubāzes valsts sadaļu. Augsta riska MI sistēmas kritiskās infrastruktūras jomā būtu jāreģistrē tikai valsts līmenī. Komisijai vajadzētu būt ES datubāzes pārzinim saskaņā ar Regulu (ES) 2018/1725. Lai nodrošinātu datubāzes pilnīgu funkcionalitāti pēc tās darbības sākšanas, ES datubāzes izveides procedūrā būtu jāietver Komisijas veikta funkcionālo specifikāciju izstrāde un neatkarīgs revīzijas ziņojums. Komisijai, veicot savus ES datubāzes datu pārziņa uzdevumus, būtu jāņem vērā kiberdrošības riski. Lai maksimāli palielinātu datubāzes pieejamību un izmantošanu sabiedrībai, ES datubāzei, tostarp ar tās starpniecību sniegtajai informācijai, jāatbilst Direktīvā (ES) 2019/882 noteiktajām prasībām.
(132)
Niektóre systemy AI przeznaczone do wchodzenia w interakcję z osobami fizycznymi lub generowania treści mogą stwarzać szczególne ryzyko podawania się za inną osobę lub wprowadzania w błąd, niezależnie od tego, czy kwalifikują się jako systemy wysokiego ryzyka, czy też nie. W pewnych okolicznościach wykorzystanie tych systemów powinno zatem podlegać szczególnym obowiązkom w zakresie przejrzystości bez uszczerbku dla wymogów i obowiązków określonych dla systemów AI wysokiego ryzyka, przy zastosowaniu ukierunkowanych wyjątków, aby uwzględnić szczególne potrzeby w zakresie ścigania przestępstw. W szczególności osoby fizyczne powinny być powiadamiane o tym, że wchodzą w interakcję z systemem AI, chyba że jest to oczywiste z punktu widzenia osoby fizycznej, która jest dostatecznie poinformowana, uważna i ostrożna, z uwzględnieniem okoliczności i kontekstu korzystania. Przy spełnianiu takiego obowiązku należy uwzględniać cechy osób fizycznych należących do grup szczególnie wrażliwych ze względu na wiek lub niepełnosprawność – w zakresie, w jakim system AI ma również wchodzić w interakcję z tymi grupami. Ponadto osoby fizyczne powinny być powiadamiane, jeżeli są poddawane działaniu systemów AI, które poprzez przetwarzanie ich danych biometrycznych mogą zidentyfikować lub wywnioskować emocje lub zamiary tych osób lub przypisać je do określonych kategorii. Te określone kategorie mogą dotyczyć takich aspektów jak płeć, wiek, kolor włosów, kolor oczu, tatuaże, cechy osobowości, pochodzenie etniczne, osobiste preferencje i zainteresowania. Tego rodzaju informacje i powiadomienia należy przekazywać w formatach dostępnych dla osób z niepełnosprawnościami.
(132)
Dažas MI sistēmas, kas paredzētas mijiedarbībai ar fiziskām personām vai satura ģenerēšanai, var radīt konkrētus uzdošanās par citu personu vai maldināšanas riskus neatkarīgi no tā, vai tās ir pieskaitāmas augsta riska sistēmām vai nav. Tāpēc dažos apstākļos šādu sistēmu lietošanai būtu jāpiemēro konkrēti pārredzamības pienākumi, neskarot augsta riska MI sistēmām noteiktās prasības un pienākumus un ievērojot mērķtiecīgus izņēmumus, kas paredzēti, lai ņemtu vērā tiesībaizsardzības jomas īpašās vajadzības. Jo īpaši fiziskas personas būtu jāinformē, ka tās mijiedarbojas ar MI sistēmu, ja vien tas nav pats par sevi saprotams no tādas fiziskas personas viedokļa, kura ir samērā labi informēta, uzmanīga un apdomīga, ņemot vērā apstākļus un izmantošanas kontekstu. Īstenojot minēto pienākumu, būtu jāņem vērā tām fiziskajām personām raksturīgās iezīmes, kuras vecuma vai invaliditātes dēļ pieder pie neaizsargātām grupām, ciktāl MI sistēma ir paredzēta mijiedarbībai arī ar minētajām grupām. Turklāt fiziskām personām būtu jāpaziņo, ja tās ir pakļautas tādu MI sistēmu darbībai, kuras, apstrādājot to biometriskos datus, var identificēt vai izsecināt minēto personu emocijas vai nodomus vai iedalīt tās konkrētās kategorijās. Šādas konkrētas kategorijas var būt saistītas ar tādiem aspektiem kā dzimums, vecums, matu krāsa, acu krāsa, tetovējumi, personības iezīmes, etniskā izcelsme, personīgās vēlmes un intereses. Šāda informācija un paziņojumi būtu jāsniedz formātos, kuriem var piekļūt personas ar invaliditāti.
(133)
Różne systemy AI mogą generować duże ilości treści syntetycznych, które stają się coraz trudniejsze do odróżnienia od treści generowanych przez człowieka i treści autentycznych. Szeroka dostępność i coraz większe zdolności tych systemów mają znaczący wpływ na integralność ekosystemu informacyjnego i zaufanie do niego, stwarzając nowe rodzaje ryzyka polegające na podawaniu informacji wprowadzających w błąd i na manipulacji na dużą skalę, oszustwach, podszywaniu się pod inne osoby i wprowadzaniu w błąd konsumentów. W świetle tych skutków, a także szybkiego tempa technologicznego oraz zapotrzebowania na nowe metody i techniki śledzenia pochodzenia informacji należy zobowiązać dostawców tych systemów do wbudowania rozwiązań technicznych, które umożliwiają oznakowanie w formacie nadającym się do odczytu maszynowego i wykrywanie, że wyniki zostały wygenerowane lub zmanipulowane przez system AI, a nie przez człowieka. Takie techniki i metody powinny być wystarczająco niezawodne, interoperacyjne, skuteczne i solidne, o ile jest to technicznie wykonalne, z uwzględnieniem dostępnych technik lub kombinacji takich technik, takich jak znaki wodne, identyfikacja metadanych, metody kryptograficzne służące do potwierdzania pochodzenia i autentyczności treści, metody rejestracji zdarzeń, odciski palców lub inne techniki, stosownie do przypadku. Przy spełnianiu tego obowiązku dostawcy powinni uwzględniać specyfikę i ograniczenia różnych rodzajów treści oraz istotne postępy technologiczne i rynkowe w tym obszarze, które odzwierciedla powszechnie uznany stan wiedzy technicznej. Takie techniki i metody można wdrażać na poziomie danego systemu AI lub na poziomie modelu AI, w tym modeli AI ogólnego przeznaczenia generujących treści, a tym samym ułatwiać spełnianie tego obowiązku przez dostawcę niższego szczebla danego systemu AI. Aby zachować proporcjonalność, należy przewidzieć, że ten obowiązek oznakowania nie powinien obejmować systemów AI pełniących przede wszystkim funkcję wspomagającą w zakresie standardowej edycji lub systemów AI, które nie zmieniają w istotny sposób przekazywanych przez podmiot stosujący danych wejściowych ani ich semantyki.
(133)
Dažādas MI sistēmas var ģenerēt lielu daudzumu sintētiska satura, kas cilvēkiem kļūst arvien grūtāk atšķirams no cilvēka radīta un autentiska satura. Šo sistēmu plašā pieejamība un pieaugošās spējas būtiski ietekmē informācijas ekosistēmas integritāti un uzticēšanos tai, radot jaunus plaša mēroga maldinošas informācijas un manipulācijas, krāpšanas, uzdošanās par citu personu un patērētāju maldināšanas riskus. Ņemot vērā minēto ietekmi, straujo tehnoloģiskās attīstības tempu un vajadzību pēc jaunām informācijas izcelsmes izsekošanas metodēm un paņēmieniem, ir lietderīgi noteikt prasību, ka minēto sistēmu nodrošinātāji paredz iegultus tehniskus risinājumus, kas ļauj iekļaut mašīnlasāma formāta marķējumu un atklāt, ka iznākumu ir ģenerējis vai manipulējis nevis cilvēks, bet gan MI sistēma. Šādiem paņēmieniem un metodēm vajadzētu būt pietiekami uzticamiem, sadarbspējīgiem, efektīviem un robustiem, ciktāl tas ir tehniski iespējams, ņemot vērā pieejamos paņēmienus vai šādu paņēmienu kombināciju, kas var būt piemēroti, piemēram, ūdenszīmes, metadatu identifikāciju, kriptogrāfiskās metodes satura izcelsmes un autentiskuma pierādīšanai, reģistrēšanas metodes, pirkstu nospiedumus vai citus paņēmienus. Īstenojot šo pienākumu, nodrošinātājiem būtu jāņem vērā arī dažādo satura veidu specifika un ierobežojumi un attiecīgā jomas tehnoloģiskā attīstība un tirgus norises, kā atspoguļots vispāratzītos jaunākos sasniegumos. Šādus paņēmienus un metodes var īstenot MI sistēmas līmenī vai MI modeļa līmenī, tostarp vispārīga lietojuma MI modeļos, kas ģenerē saturu, tādējādi atvieglojot šā pienākuma izpildi MI sistēmas lejasposma nodrošinātājam. Lai saglabātu samērīgumu, ir lietderīgi paredzēt, ka šim marķēšanas pienākumam nebūtu jāattiecas uz MI sistēmām, kas galvenokārt pilda palīgfunkciju standarta rediģēšanai, vai uz MI sistēmām, kas būtiski nemaina uzturētāja sniegtos ievades datus vai to semantiku.
(134)
Oprócz rozwiązań technicznych wykorzystywanych przez dostawców systemu AI, podmioty stosujące, które wykorzystują system AI do generowania obrazów, treści dźwiękowych lub wideo lub manipulowania nimi, tak by łudząco przypominały istniejące osoby, przedmioty. Miejsca, podmioty lub wydarzenia i które to treści mogą niesłusznie zostać uznane przez odbiorcę za autentyczne lub prawdziwe („deepfake”), powinny również jasno i wyraźnie ujawnić – poprzez odpowiednie oznakowanie wyniku AI i ujawnienie, że źródłem jest AI – że treści te zostały sztucznie wygenerowane lub zmanipulowane. Spełnienie obowiązku w zakresie przejrzystości nie powinno być interpretowane jako wskazujące na to, że wykorzystanie systemu AI lub jego wyników ogranicza prawo do wolności wypowiedzi i prawo do wolności sztuki i nauki zagwarantowane w Karcie, w szczególności w przypadku, gdy treści te stanowią część dzieła lub programu mającego wyraźnie charakter twórczy, satyryczny, artystyczny fikcyjny lub analogiczny, z zastrzeżeniem odpowiednich zabezpieczeń w zakresie praw i wolności osób trzecich. W takich przypadkach określony w niniejszym rozporządzeniu obowiązek w zakresie przejrzystości dotyczący treści typu deepfake ogranicza się do ujawniania informacji o istnieniu takich wygenerowanych lub zmanipulowanych treści w odpowiedni sposób, który nie utrudnia wyświetlania utworu lub korzystania z niego, w tym jego normalnego wykorzystania i użytkowania, przy jednoczesnym zachowaniu użyteczności i jakości utworu. Ponadto należy również przewidzieć podobny obowiązek ujawniania w odniesieniu do tekstu wygenerowanego przez AI lub zmanipulowanego przez AI w zakresie, w jakim jest on publikowany w celu informowania opinii publicznej o sprawach leżących w interesie publicznym, chyba że treści wygenerowane przez AI zostały poddane procesowi weryfikacji przez człowieka lub kontroli redakcyjnej, a osoba fizyczna lub prawna ponosi odpowiedzialność redakcyjną za publikację treści.
(134)
Papildus tehniskajiem risinājumiem, ko pielieto MI sistēmas nodrošinātāji, uzturētājiem, kuri MI sistēmu lieto, lai ģenerētu vai manipulētu tādu attēlu, audio vai video saturu, kas ievērojami atgādina reālas personas, objektus, vietas, subjektus vai notikumus un kas personai maldinoši šķistu autentisks vai īstas (dziļviltojumi), būtu arī skaidri un atšķiramā veidā jāizpauž, ka saturs ir mākslīgi radīts vai manipulēts, attiecīgi marķējot MI radīto iznākumu un izpaužot tā mākslīgo izcelsmi. Šā pārredzamības pienākuma ievērošanu nevajadzētu interpretēt kā norādi uz to, ka MI sistēmas vai tās iznākuma lietošana ierobežo tiesības uz vārda brīvību un tiesības uz mākslas un zinātnes brīvību, kas garantētas Pamattiesību hartā, jo īpaši tad, ja saturs ir daļa no acīmredzami radoša, satīriska, mākslinieciska, fikcionāla vai analoga darba vai programmas, ievērojot atbilstošus trešo personu tiesību un brīvību aizsardzības pasākumus. Minētajos gadījumos šajā regulā noteiktais pārredzamības pienākums attiecībā uz dziļviltojumiem attiecas tikai uz šāda ģenerēta vai manipulēta satura esamības izpaušanu piemērotā veidā, kas netraucē izrādīt vai baudīt darbu, tostarp tā parastu izmantošanu un lietošanu, vienlaikus saglabājot darba lietderību un kvalitāti. Turklāt ir arī lietderīgi paredzēt līdzīgu izpaušanas pienākumu attiecībā uz MI ģenerētu vai manipulētu tekstu, ciktāl tas ir publicēts, lai sabiedrību informētu par sabiedrības interešu jautājumiem, izņemot gadījumus, kad MI ģenerēto saturu ir pārskatījis cilvēks vai tam ir veikta redakcionāla kontrole un ja fiziska vai juridiska persona ir redakcionāli atbildīga par satura publikāciju.
(135)
Bez uszczerbku dla obowiązkowego charakteru i pełnego stosowania obowiązków w zakresie przejrzystości Komisja może również zachęcać do opracowywania kodeksów praktyk na poziomie Unii i ułatwiać ich opracowywanie, aby ułatwić skuteczne wykonywanie obowiązków dotyczących wykrywania i oznakowania treści, które zostały sztucznie wygenerowane lub zmanipulowane, w tym aby wspierać praktyczne rozwiązania dotyczące udostępniania, stosownie do przypadku, mechanizmów wykrywania i ułatwiania współpracy z innymi podmiotami w całym łańcuchu wartości, które rozpowszechniają treści lub sprawdzają ich autentyczność i pochodzenie, aby umożliwić ogółowi społeczeństwa skuteczne rozróżnianie treści wygenerowanych przez AI.
(135)
Neskarot pārredzamības pienākumu obligāto raksturu un pilnīgu piemērojamību, Komisija var arī rosināt un sekmēt prakses kodeksu izstrādi Savienības līmenī, lai atvieglotu ar mākslīgi ģenerēta vai manipulēta satura atklāšanu un marķēšanu saistītu pienākumu efektīvu īstenošanu, tostarp atbalstīt praktiskus pasākumus, lai attiecīgā gadījumā padarītu atklāšanas mehānismus pieejamus un atvieglotu sadarbību ar citiem vērtības ķēdes dalībniekiem, izplatītu saturu vai pārbaudītu tā autentiskumu un izcelsmi, dodot sabiedrībai iespēju efektīvi atšķirt MI ģenerēto saturu.
(136)
Obowiązki nałożone w niniejszym rozporządzeniu na dostawców i podmioty stosujące niektóre systemy AI w celu umożliwienia wykrywania i ujawniania, że wyniki tych systemów są sztucznie wygenerowane lub zmanipulowane, są szczególnie istotne dla ułatwienia skutecznego wdrożenia rozporządzenia (UE) 2022/2065. Dotyczy to w szczególności obowiązków dostawców bardzo dużych platform internetowych lub bardzo dużych wyszukiwarek internetowych w zakresie identyfikowania i ograniczania ryzyka systemowego, które może wynikać z rozpowszechniania treści sztucznie wygenerowanych lub zmanipulowanych, w szczególności ryzyka faktycznych lub przewidywalnych negatywnych skutków dla procesów demokratycznych, dyskursu obywatelskiego i procesów wyborczych, w tym poprzez stosowanie dezinformacji. Wymóg oznakowania treści wygenerowanych przez systemy AI na podstawie niniejszego rozporządzenia pozostaje bez uszczerbku dla określonego w art. 16 ust. 6 rozporządzenia (UE) 2022/2065 obowiązku rozpatrywania przez dostawców usług hostingu zgłoszeń dotyczących nielegalnych treści otrzymanych na podstawie art. 16 ust. 1 tego rozporządzenia i nie powinien mieć wpływu na ocenę i decyzję w sprawie niezgodności z prawem konkretnych treści. Ocena ta powinna być dokonywana wyłącznie w odniesieniu do przepisów regulujących zgodność treści z prawem.
(136)
Pienākumi, kas šajā regulā noteikti dažu MI sistēmu nodrošinātājiem un uzturētājiem, lai varētu atklāt un izpaust, ka minēto sistēmu iznākumi ir mākslīgi ģenerēti vai manipulēti, ir īpaši būtiski nolūkā veicināt Regulas (ES) 2022/2065 efektīvu īstenošanu. Tas jo īpaši attiecas uz ļoti lielu tiešsaistes platformu vai ļoti lielu tiešsaistes meklētājprogrammu nodrošinātāju pienākumiem identificēt un mazināt sistēmiskos riskus, kas var rasties no mākslīgi ģenerēta vai manipulēta satura izplatīšanas, jo īpaši iespējamību, ka radīsies faktiska vai paredzama negatīva ietekme uz demokrātiskajiem procesiem, pilsonisko diskursu un vēlēšanu procesiem, tostarp izplatot dezinformāciju. Šajā regulā noteiktā prasība marķēt MI sistēmu ģenerētu saturu neskar Regulas (ES) 2022/2065 16. panta 6. punktā noteikto pienākumu mitināšanas pakalpojumu sniedzējiem izskatīt paziņojumus par nelikumīgu saturu, kas saņemti saskaņā ar minētās regulas 16. panta 1. punktu, un tai nebūtu jāietekmē novērtējums un lēmums par konkrētā satura nelikumību. Minētais novērtējums būtu jāveic, tikai atsaucoties uz noteikumiem, kas reglamentē satura likumību.
(137)
Spełnienie obowiązków w zakresie przejrzystości w odniesieniu do systemów AI objętych niniejszym rozporządzeniem nie powinno być interpretowane jako wskazanie, że wykorzystanie systemu AI lub jego wyników jest zgodne z prawem na podstawie niniejszego rozporządzenia lub innych przepisów prawa Unii i prawa państw członkowskich, i powinno pozostawać bez uszczerbku dla innych obowiązków w zakresie przejrzystości ustanowionych w prawie Unii lub prawie krajowym wobec podmiotów stosujących systemy AI.
(137)
Šajā regulā reglamentēto attiecībā uz MI sistēmām noteikto pārredzamības pienākumu izpildi nevajadzētu interpretēt kā norādi uz to, ka sistēmas vai tās iznākuma lietošana ir likumīga saskaņā ar šo regulu vai citiem Savienības un dalībvalstu tiesību aktiem, un tai nebūtu jāskar citi MI sistēmu uzturētāju pārredzamības pienākumi, kas noteikti Savienības vai valsts tiesību aktos.
(138)
AI jest szybko rozwijającą się grupą technologii, wymagającą nadzoru regulacyjnego oraz bezpiecznej i kontrolowanej przestrzeni do przeprowadzania doświadczeń, przy jednoczesnym zapewnieniu odpowiedzialnej innowacji oraz uwzględnieniu odpowiednich zabezpieczeń i środków ograniczających ryzyko. Aby zapewnić ramy prawne wspierające innowacje, nieulegające dezaktualizacji i uwzględniające przełomowe technologie, państwa członkowskie powinny zapewnić, by ich właściwe organy krajowe ustanowiły co najmniej jedną piaskownicę regulacyjną w zakresie AI na poziomie krajowym, aby ułatwić rozwijanie i testowanie innowacyjnych systemów AI pod ścisłym nadzorem regulacyjnym przed ich wprowadzeniem do obrotu lub oddaniem do użytku w inny sposób. Państwa członkowskie mogłyby również spełnić ten obowiązek, uczestnicząc w już istniejących piaskownicach regulacyjnych lub ustanawiając piaskownicę wspólnie z co najmniej jednym właściwym organem innego państwa członkowskiego, o ile udział ten zapewnia uczestniczącym państwom członkowskim równoważny poziom zasięgu krajowego. Piaskownice regulacyjne w zakresie AI mogą być tworzone w formie fizycznej, cyfrowej lub hybrydowej i mogą obejmować zarówno produkty fizyczne, jak i cyfrowe. Organy ustanawiające piaskownice regulacyjne w zakresie AI powinny również zapewnić, aby dysponowały one odpowiednimi do ich funkcjonowania zasobami, w tym zasobami finansowymi i ludzkimi.
(138)
MI ir strauji attīstošos tehnoloģiju kopums, kam nepieciešama regulatīvā uzraudzība un droša un kontrolēta vide eksperimentēšanai, vienlaikus nodrošinot atbildīgu inovāciju un atbilstošu aizsardzības un riska mazināšanas pasākumu integrēšanu. Lai nodrošinātu inovāciju sekmējošu, nākotnes prasībām atbilstošu un pret traucējumiem noturīgu tiesisko regulējumu, dalībvalstīm būtu jānodrošina, ka to valsts kompetentās iestādes valsts līmenī izveido vismaz vienu MI “regulatīvo smilškasti” nolūkā sekmēt inovatīvu MI sistēmu izstrādi un testēšanu stingrā regulatīvā uzraudzībā, pirms šīs sistēmas laiž tirgū vai citādi nodod ekspluatācijā. Dalībvalstis šo pienākumu varētu arī izpildīt, piedaloties jau esošajās “regulatīvajās smilškastēs” vai kopīgi ar vienu vai vairākām dalībvalstu kompetentajām iestādēm izveidojot smilškasti, ciktāl šāda piedalīšanās iesaistītajām dalībvalstīm nodrošina līdzvērtīgu valsts tvēruma līmeni. MI “regulatīvās smilškastes” varētu izveidot fiziskā, digitālā vai hibrīdā formā, un tajās var ietvert gan fiziskus, gan digitālus produktus. Izveidotājām iestādēm būtu arī jānodrošina, ka MI “regulatīvajām smilškastēm” ir to darbībai pietiekami resursi, tostarp finanšu resursi un cilvēkresursi.
(139)
Piaskownice regulacyjne w zakresie AI powinny mieć na celu: wspieranie innowacji w zakresie AI poprzez ustanowienie kontrolowanego środowiska doświadczalnego i testowego w fazie rozwojowej i przed wprowadzeniem do obrotu, z myślą o zapewnieniu zgodności innowacyjnych systemów AI z niniejszym rozporządzeniem oraz z innymi odpowiednimi przepisami prawa Unii i prawa krajowego. Ponadto piaskownice regulacyjne w zakresie AI powinny mieć na celu zwiększenie pewności prawa dla innowatorów, a także usprawnienie nadzoru ze strony właściwych organów oraz podnoszenie poziomu ich wiedzy na temat możliwości, pojawiających się rodzajów ryzyka oraz skutków związanych ze stosowaniem AI, ułatwienie organom i przedsiębiorstwom uczenia się działań regulacyjnych, w tym z myślą o przyszłym dostosowaniu ram prawnych, wspieranie współpracy i wymiany najlepszych praktyk z organami zaangażowanymi w piaskownicę regulacyjną w zakresie AI oraz przyspieszenie dostępu do rynków, w tym poprzez usuwanie barier dla MŚP, w tym przedsiębiorstw typu start-up. Piaskownice regulacyjne w zakresie AI powinny być powszechnie dostępne w całej Unii, a szczególną uwagę należy zwrócić na ich dostępność dla MŚP, w tym dla przedsiębiorstw typu start-up. Uczestnictwo w piaskownicy regulacyjnej w zakresie AI powinno koncentrować się na kwestiach, które powodują niepewność prawa dla dostawców i potencjalnych dostawców w zakresie innowacji i eksperymentowania z AI w Unii oraz powinno przyczyniać się do opartego na dowodach uczenia się działań regulacyjnych. Nadzór nad systemami AI w piaskownicy regulacyjnej w zakresie AI powinien zatem obejmować ich rozwój, trenowanie, testowanie i walidację przed wprowadzeniem tych systemów do obrotu lub oddaniem do użytku, a także pojęcie i występowanie istotnych zmian, które mogą wymagać nowej procedury oceny zgodności. Wykrycie jakiegokolwiek znaczącego ryzyka na etapie rozwoju i testowania takich systemów AI powinno powodować konieczność właściwego ograniczenia tego ryzyka, a w przypadku niepowodzenia w tym zakresie – skutkować zawieszeniem procesu rozwoju i testowania systemu. W stosownych przypadkach właściwe organy krajowe ustanawiające piaskownice regulacyjne w zakresie AI powinny współpracować z innymi odpowiednimi organami, w tym organami nadzorującymi ochronę praw podstawowych, i powinny umożliwiać zaangażowanie innych podmiotów funkcjonujących w ekosystemie AI, takich jak krajowe lub europejskie organizacje normalizacyjne, jednostki notyfikowane, ośrodki testowo-doświadczalne, laboratoria badawczo-doświadczalne, europejskie centra innowacji cyfrowych oraz organizacje zrzeszające odpowiednie zainteresowane strony i społeczeństwo obywatelskie. Aby zapewnić jednolite wdrożenie w całej Unii oraz osiągnąć korzyści skali, należy ustanowić wspólne przepisy regulujące uruchamianie piaskownic regulacyjnych w zakresie AI oraz ramy współpracy między odpowiednimi organami uczestniczącymi w nadzorze nad piaskownicami regulacyjnymi. Piaskownice regulacyjne w zakresie AI ustanowione na mocy niniejszego rozporządzenia powinny pozostawać bez uszczerbku dla innych przepisów, które umożliwiają ustanawianie innych piaskownic mających na celu zapewnienie zgodności z przepisami prawa innymi niż niniejsze rozporządzenie. W stosownych przypadkach odpowiednie właściwe organy odpowiedzialne za inne piaskownice regulacyjne powinny przeanalizować korzyści płynące ze stosowania tych piaskownic również do celów zapewnienia zgodności systemów AI z niniejszym rozporządzeniem. Po osiągnięciu porozumienia pomiędzy właściwymi organami krajowymi oraz uczestnikami piaskownicy regulacyjnej w zakresie AI w ramach takiej piaskownicy regulacyjnej można również prowadzić i nadzorować testy w warunkach rzeczywistych.
(139)
MI “regulatīvo smilškastu” mērķiem vajadzētu būt – veicināt MI inovāciju, radot kontrolētu eksperimentēšanas un testēšanas vidi izstrādes un pirmstirdzniecības posmā ar nolūku nodrošināt inovatīvu MI sistēmu atbilstību šīs regulas noteikumiem un citiem attiecīgiem Savienības un valsts tiesību aktiem. Turklāt MI regulatīvajām smilškastēm vajadzētu būt vērstām uz juridiskās noteiktības uzlabošanu novatoriem un kompetento iestāžu uzraudzību un izpratni par MI lietošanas radītajām iespējām, jauniem riskiem un ietekmi, iestādēm un uzņēmumiem atvieglot regulatīvu mācīšanos, tostarp nolūkā nākotnē pielāgot tiesisko regulējumu, atbalstīt sadarbību un paraugprakses apmaiņu ar MI “regulatīvajā smilškastē” iesaistītajām iestādēm un paātrināt piekļuvi tirgiem, tostarp novēršot šķēršļus MVU, tostarp jaunuzņēmumiem. MI “regulatīvajām smilškastēm” vajadzētu būt plaši pieejamām visā Savienībā, un īpaša uzmanība būtu jāpievērš tam, ka tām var piekļūt MVU, tostarp jaunuzņēmumi. Dalībai MI “regulatīvajā smilškastē” būtu jākoncentrējas uz jautājumiem, kas rada juridisko nenoteiktību nodrošinātājiem un potenciālajiem nodrošinātājiem, lai tie varētu ieviest inovācijas, eksperimentēt ar MI Savienībā un veicināt uz pierādījumiem balstītu regulatīvo mācīšanos. Tāpēc MI sistēmu uzraudzībai MI “regulatīvajā smilškastē” būtu jāaptver to izstrāde, apmācība, testēšana un validēšana pirms sistēmu laišanas tirgū vai nodošanas ekspluatācijā, kā arī tādu būtisku modifikāciju jēdziens un rašanās, kuru dēļ var būt nepieciešama jauna atbilstības novērtēšanas procedūra. Ja šādu MI sistēmu izstrādes un testēšanas laikā konstatēti kādi būtiski riski, būtu jāveic pienācīga risku mazināšana un, ja tas neizdodas, izstrādes un testēšanas procesu būtu jāaptur. Attiecīgā gadījumā valstu kompetentajām iestādēm, kas izveido MI “regulatīvās smilškastes”, būtu jāsadarbojas ar citām attiecīgajām iestādēm, tostarp tām, kas uzrauga pamattiesību aizsardzību, un tās varētu ļaut MI ekosistēmā iesaistīt citus dalībniekus, piemēram, valsts vai Eiropas standartizācijas organizācijas, paziņotās struktūras, testēšanas un eksperimentēšanas struktūras, pētniecības un eksperimentēšanas laboratorijas, Eiropas digitālās inovācijas centrus un attiecīgās ieinteresēto personu un pilsoniskās sabiedrības organizācijas. Lai nodrošinātu vienotu īstenošanu visā Savienībā un apjomradītus ietaupījumus, ir lietderīgi noteikt kopīgus noteikumus MI “regulatīvo smilškastu” īstenošanai un sistēmu sadarbībai starp attiecīgajām iestādēm, kuras iesaistītas “smilškastu” uzraudzībā. MI “regulatīvām smilškastēm”, kas izveidotas saskaņā ar šo regulu, nevajadzētu skart citus tiesību aktus, kas ļauj izveidot citas smilškastes, kuru mērķis ir nodrošināt atbilstību tiesību aktiem, kas nav šī regula. Attiecīgā gadījumā attiecīgajām kompetentajām iestādēm, kas atbild par šīm citām “regulatīvajām smilškastēm”, būtu jāapsver ieguvumi, ko sniedz minēto smilškastu izmantošana arī nolūkā nodrošināt MI sistēmu atbilstību šai regulai. Vienojoties valstu kompetentajām iestādēm un MI “regulatīvās smilškastes” dalībniekiem, testēšanu reālos apstākļos var veikt un uzraudzīt arī MI “regulatīvās smilškastes” ietvaros.
(140)
Niniejsze rozporządzenie powinno zapewniać dostawcom i potencjalnym dostawcom uczestniczącym w piaskownicy regulacyjnej w zakresie AI podstawę prawną do wykorzystywania danych osobowych zebranych w innych celach do rozwoju – w ramach piaskownicy regulacyjnej w zakresie AI – określonych systemów AI w interesie publicznym, tylko pod określonymi warunkami, zgodnie z art. 6 ust. 4 i art. 9 ust. 2 lit. g) rozporządzenia (UE) 2016/679 i art. 5, 6 i 10 rozporządzenia (UE) 2018/1725 i nie naruszając przepisów art. 4 ust. 2 i art. 10 dyrektywy (UE) 2016/680. Nadal mają zastosowanie wszystkie pozostałe obowiązki administratorów danych i prawa osób, których dane dotyczą, wynikające z rozporządzeń (UE) 2016/679 i (UE) 2018/1725 oraz dyrektywy (UE) 2016/680. W szczególności niniejsze rozporządzenie nie powinno stanowić podstawy prawnej w rozumieniu art. 22 ust. 2 lit. b) rozporządzenia (UE) 2016/679 i art. 24 ust. 2 lit. b) rozporządzenia (UE) 2018/1725. Dostawcy i potencjalni dostawcy w piaskownicy regulacyjnej w zakresie AI powinni zapewnić odpowiednie zabezpieczenia i współpracować z właściwymi organami, w tym przestrzegać wytycznych tych organów, a także podejmować w dobrej wierze bezzwłoczne działania w celu właściwego ograniczenia wszelkiego zidentyfikowanego znaczącego ryzyka dla bezpieczeństwa, zdrowia i praw podstawowych, jakie może powstać w trakcie rozwoju produktów oraz prowadzenia działań testowych i doświadczalnych w ramach takiej piaskownicy regulacyjnej.
(140)
Šai regulai būtu jānodrošina juridiskais pamats, kas nodrošinātājiem un potenciālajiem nodrošinātājiem MI “regulatīvajā smilškastē” ļauj tikai gadījumos, kad tiek ievēroti konkrēti nosacījumi, personas datus, kas savākti citiem nolūkiem, MI “regulatīvās smilškastes” ietvaros izmantot dažu MI sistēmu izstrādei sabiedrības interesēs saskaņā ar Regulas (ES) 2016/679 6. panta 4. punktu un 9. panta 2. punkta g) apakšpunktu un Regulas (ES) 2018/1725 5., 6. un 10. pantu un neskarot Direktīvas (ES) 2016/680 4. panta 2. punktu un 10. pantu. Visi pārējie datu pārziņu pienākumi un datu subjektu tiesības saskaņā ar regulām (ES) 2016/679 un (ES) 2018/1725 un Direktīvu (ES) 2016/680 joprojām tiek piemēroti. Jo īpaši šai regulai nebūtu jānodrošina juridiskais pamats Regulas (ES) 2016/679 22. panta 2. punkta b) apakšpunkta un Regulas (ES) 2018/1725 24. panta 2. punkta b) apakšpunkta nozīmē. Nodrošinātājiem un potenciālajiem nodrošinātājiem MI “regulatīvajā smilškastē” būtu jānodrošina atbilstoši aizsardzības pasākumi un jāsadarbojas ar kompetentajām iestādēm, tostarp sekojot to norādēm un rīkojoties efektīvi un godprātīgi, lai pienācīgi mazinātu jebkādus konstatētos būtiskos riskus drošumam, veselībai un pamattiesībām, kas varētu rasties minētajā “smilškastē” veiktās izstrādes, testēšanas un eksperimentēšanas gaitā.
(141)
Aby przyspieszyć proces rozwoju i wprowadzania do obrotu systemów AI wysokiego ryzyka wymienionych w załączniku do niniejszego rozporządzenia, ważne jest, aby dostawcy lub potencjalni dostawcy takich systemów mogli korzystać ze specjalnego mechanizmu testowania tych systemów w warunkach rzeczywistych, bez udziału w piaskownicy regulacyjnej w zakresie AI. Jednak w takich przypadkach oraz uwzględniając potencjalne konsekwencje takiego testowania dla osób fizycznych, należy zapewnić, by niniejsze rozporządzenie wprowadzało odpowiednie i wystarczające zabezpieczenia i warunki dotyczące dostawców lub potencjalnych dostawców. Takie zabezpieczenia powinny obejmować między innymi wymóg udzielenia świadomej zgody przez osoby fizyczne, które mają brać udział w testach w warunkach rzeczywistych, z wyjątkiem organów ścigania, gdy konieczność wystąpienia o świadomą zgodę uniemożliwiłaby testowanie systemu AI. Zgoda podmiotów testów na udział w takich testach na podstawie niniejszego rozporządzenia ma odrębny charakter i pozostaje bez uszczerbku dla zgody osób, których dane dotyczą, na przetwarzanie ich danych osobowych na podstawie odpowiedniego prawa o ochronie danych. Ważne jest również, aby zminimalizować ryzyko i umożliwić nadzór ze strony właściwych organów, a zatem zobowiązać potencjalnych dostawców do: przedstawienia właściwemu organowi nadzoru rynku planu testów w warunkach rzeczywistych, rejestrowania testów w specjalnych sekcjach bazy danych UE (z pewnymi ograniczonymi wyjątkami), ustalenia ograniczeń co do okresu, w jakim można przeprowadzać testy, oraz wymagania dodatkowych zabezpieczeń w odniesieniu do osób należących do grup szczególnie wrażliwych, a także pisemnej umowy określającej role i obowiązki potencjalnych dostawców i podmiotów stosujących oraz skutecznego nadzoru ze strony kompetentnego personelu zaangażowanego w testy w warunkach rzeczywistych. Ponadto należy przewidzieć dodatkowe zabezpieczenia w celu zapewnienia, aby predykcje, zalecenia lub decyzje systemu AI mogły zostać skutecznie odwrócone i nie były brane pod uwagę oraz aby dane osobowe były chronione i usuwane, gdy uczestnicy wycofają swoją zgodę na udział w testach, bez uszczerbku dla ich praw jako osób, których dane dotyczą, wynikających z prawa Unii o ochronie danych. W odniesieniu do przekazywania danych należy także przewidzieć, by dane zebrane i przetwarzane do celów testów w warunkach rzeczywistych przekazywano do państw trzecich wyłącznie pod warunkiem wdrożenia odpowiednich zabezpieczeń mających zastosowanie na podstawie prawa Unii, w szczególności zgodnie z podstawami przekazywania danych osobowych na mocy prawa Unii dotyczącego ochrony danych osobowych, a w odniesieniu do danych nieosobowych wprowadzono odpowiednie zabezpieczenia zgodnie z prawem Unii, takim jak rozporządzenia Parlamentu Europejskiego i Rady (UE) 2022/868 (42) i (UE) 2023/2854 (43).
(141)
Lai paātrinātu šīs regulas pielikumā uzskaitīto augsta riska MI sistēmu izstrādes un laišanas tirgū procesu, ir svarīgi, lai šādu sistēmu nodrošinātāji vai potenciāli nodrošinātāji arī varētu gūt labumu no konkrēta režīma minēto sistēmu testēšanai reālos apstākļos, nepiedaloties MI “regulatīvajā smilškastē”. Tomēr šādos gadījumos, ņemot vērā šādas testēšanas iespējamo ietekmi uz privātpersonām, būtu jānodrošina, ka ar šo regulu tiek ieviestas atbilstošas un pietiekamas garantijas un nosacījumi nodrošinātājiem vai potenciālajiem nodrošinātājiem. Šādās garantijās cita starpā būtu jāietver fizisku personu informētas piekrišanas pieprasīšana dalībai testēšanā reālos apstākļos, izņemot tiesībaizsardzības jomu, kur informētas piekrišanas iegūšana liegtu veikt MI sistēmas testēšanu. Subjektu piekrišana piedalīties šādā testēšanā saskaņā ar šo regulu atšķiras no datu subjektu piekrišanas viņu personas datu apstrādei saskaņā ar attiecīgajiem datu aizsardzības tiesību aktiem un neskar to. Ir svarīgi arī līdz minimumam samazināt riskus un dot iespēju kompetentajām iestādēm veikt uzraudzību un tāpēc pieprasīt potenciālajiem nodrošinātājiem iesniegt kompetentajai tirgus uzraudzības iestādei testēšanas plānu reālos apstākļos, reģistrēt testēšanu īpašās ES datubāzes sadaļās, ievērojot dažus ierobežotus izņēmumus, noteikt ierobežojumus attiecībā uz laikposmu, kurā testēšanu var veikt, un pieprasīt neaizsargātu personu aizsardzības papildu pasākumus, tostarp attiecībā uz personām, kas pieder pie neaizsargātām grupām, kā arī rakstisku vienošanos, kurā noteiktas potenciālo nodrošinātāju un uzturētāju lomas un pienākumi un efektīva uzraudzība, ko veic kompetents personāls, kas iesaistīts testēšanā reālos apstākļos. Turklāt ir lietderīgi paredzēt papildu aizsardzības pasākumus, lai nodrošinātu, ka MI sistēmas prognozes, ieteikumus vai lēmumus var faktiski reversēt un neņemt vērā un ka personas dati tiek aizsargāti un dzēsti, kad subjekti ir atsaukušas savu piekrišanu piedalīties testēšanā, neskarot savas Savienības datu aizsardzības tiesību aktos paredzētās datu subjektu tiesības. Attiecībā uz datu nodošanu ir arī lietderīgi paredzēt, ka dati, kas savākti un apstrādāti testēšanai reālos apstākļos, trešām valstīm būtu jānodod tikai tad, ja ir īstenoti piemēroti un piemērojami Savienības tiesību aktos paredzēti aizsardzības pasākumi, jo īpaši saskaņā ar Savienības datu aizsardzības tiesību aktos paredzētajiem personas datu nodošanas pamatiem, savukārt attiecībā uz nepersondatiem ir ieviesti atbilstoši aizsardzības pasākumi saskaņā ar Savienības tiesību aktiem, piemēram, Eiropas Parlamenta un Padomes Regulām (ES) 2022/868 (42) un (ES) 2023/2854 (43).
(142)
W celu zapewnienia, aby AI przynosiła korzyści dla społeczeństwa i środowiska, zachęca się państwa członkowskie do wspierania i promowania badań i rozwoju w dziedzinie rozwiązań w zakresie AI wspierających takie korzyści społeczne i środowiskowe, np. opartych na AI rozwiązań, które zwiększają dostępność dla osób z niepełnosprawnościami, przeciwdziałają nierównościom społeczno-gospodarczym lub służą osiągnięciu celów środowiskowych, przez przydzielanie wystarczających zasobów, w tym finansowania publicznego i unijnego, oraz, w stosownych przypadkach i pod warunkiem spełnienia kryteriów kwalifikowalności i wyboru, przez priorytetowe traktowanie projektów, które służą realizacji takich celów. Projekty takie powinny opierać się na zasadzie współpracy międzydyscyplinarnej między twórcami AI, ekspertami ds. nierówności i niedyskryminacji, dostępności, praw konsumentów, praw środowiskowych i cyfrowych oraz przedstawicielami środowiska akademickiego.
(142)
Lai nodrošinātu, ka MI sniedz sabiedrībai un videi labvēlīgus rezultātus, dalībvalstis tiek mudinātas atbalstīt un veicināt MI risinājumu pētniecību un izstrādi, kas atbalsta sabiedrībai un videi labvēlīgus rezultātus, piemēram, uz MI balstītus risinājumus, kas vērsti uz to, lai palielinātu piekļūstamību personām ar invaliditāti, novērstu sociālekonomisko nevienlīdzību vai sasniegtu vides mērķrādītājus, piešķirot pietiekamus resursus, tostarp publisko un Savienības finansējumu, un attiecīgā gadījumā un ar noteikumu, ka ir izpildīti atbilstības un atlases kritēriji, jo īpaši apsverot projektus, kuriem ir šādi mērķi. Šādu projektu pamatā vajadzētu būt starpdisciplinārai sadarbībai starp MI izstrādātājiem un ekspertiem nevienlīdzības un nediskriminācijas, piekļūstamības, patērētāju, vides un digitālo tiesību jautājumos, kā arī akadēmiskajām aprindām.
(143)
W celu promowania i ochrony innowacji ważne jest szczególne uwzględnienie interesów MŚP, w tym przedsiębiorstw typu start-up, które są dostawcami systemów AI lub podmiotami stosującymi systemy AI. W tym celu państwa członkowskie powinny opracować inicjatywy skierowane do tych operatorów, w tym inicjatywy służące podnoszeniu świadomości i przekazywaniu informacji. Państwa członkowskie powinny zapewniać MŚP, w tym przedsiębiorstwom typu start-up, mającym siedzibę statutową lub oddział w Unii, priorytetowy dostęp do piaskownic regulacyjnych w zakresie AI, pod warunkiem że przedsiębiorstwa te spełniają warunki kwalifikowalności i kryteria wyboru – w sposób, który nie uniemożliwia innym dostawcom i potencjalnym dostawcom dostępu do piaskownic, pod warunkiem spełnienia przez nich tych samych warunków i kryteriów. Państwa członkowskie powinny korzystać z istniejących kanałów komunikacji, a w stosownych przypadkach utworzyć nowy specjalny kanał komunikacji z MŚP, w tym przedsiębiorstwami typu start-up, podmiotami stosującymi, innymi innowacyjnymi podmiotami, a w stosownych przypadkach, z lokalnymi organami publicznymi, aby wspierać MŚP w rozwoju poprzez udzielanie im wskazówek i odpowiadanie na ich pytania dotyczące wykonywania niniejszego rozporządzenia. W stosownych przypadkach kanały powinny ze sobą współpracować, by uzyskać synergię i zapewnić spójność wskazówek dla MŚP, w tym przedsiębiorstw typu start-up, i podmiotów stosujących. Dodatkowo państwa członkowskie powinny ułatwiać udział MŚP i innych odpowiednich zainteresowanych stron w procesie opracowywania norm. Ponadto przy ustalaniu przez jednostki notyfikowane wysokości opłat z tytułu oceny zgodności należy uwzględnić szczególne interesy i potrzeby dostawców, którzy są MŚP, w tym przedsiębiorstwami typu start-up. Komisja powinna regularnie oceniać koszty certyfikacji i zapewnienia zgodności ponoszone przez MŚP, w tym przedsiębiorstwa typu start-up, w drodze przejrzystych konsultacji oraz współpracować z państwami członkowskimi na rzecz obniżenia tych kosztów. Przykładowo koszty tłumaczeń związane z prowadzeniem obowiązkowej dokumentacji i komunikacji z organami mogą stanowić istotny koszt dla dostawców i innych operatorów, w szczególności tych działających na mniejszą skalę. Państwa członkowskie powinny w miarę możliwości zapewnić, aby jednym z języków wskazanych i akceptowanych przez nie do celów dokumentacji prowadzonej przez odpowiednich dostawców oraz komunikacji z operatorami był język powszechnie rozumiany przez możliwie największą liczbę podmiotów stosujących w wymiarze transgranicznym. Aby zaspokoić szczególne potrzeby MŚP, w tym przedsiębiorstw typu start-up, Komisja powinna na wniosek Rady ds. AI zapewnić ujednolicone wzory w obszarach objętych niniejszym rozporządzeniem. Ponadto Komisja powinna w uzupełnieniu wysiłków państw członkowskich dostarczyć jednolitą platformę informacyjną zawierającą łatwe w użyciu informacje dotyczące niniejszego rozporządzenia dla wszystkich dostawców i podmiotów stosujących, organizować odpowiednie kampanie informacyjne w celu podnoszenia świadomości na temat obowiązków wynikających z niniejszego rozporządzenia oraz oceniać i promować zbieżność najlepszych praktyk w procedurach udzielania zamówień publicznych w odniesieniu do systemów AI. Średnie przedsiębiorstwa, które do niedawna kwalifikowały się jako małe przedsiębiorstwa w rozumieniu załącznika do zalecenia Komisji 2003/361/WE (44), powinny mieć dostęp do tych środków wsparcia, ponieważ w niektórych przypadkach te nowe średnie przedsiębiorstwa mogą nie posiadać zasobów prawnych i szkoleniowych niezbędnych do zapewnienia właściwego zrozumienia i zapewnienia zgodności z niniejszym rozporządzeniem.
(143)
Lai veicinātu un aizsargātu inovāciju, ir svarīgi īpaši ņemt vērā tādu MVU, tostarp jaunuzņēmumu intereses, kas ir MI sistēmu nodrošinātāji vai uzturētāji. Šajā nolūkā dalībvalstīm būtu jāizstrādā iniciatīvas, kas ir vērstas uz šiem operatoriem, arī saistībā ar izpratnes veicināšanu un informēšanu. Dalībvalstīm būtu jānodrošina MVU, tostarp jaunuzņēmumiem, kuriem ir juridiskā adrese vai filiāle Savienībā, prioritāru piekļuvi MI “regulatīvajām smilškastēm”, ar noteikumu, ka tie izpilda atbilstības nosacījumus un atlases kritērijus, neliedzot citiem nodrošinātājiem un potenciālajiem nodrošinātājiem piekļūt “smilškastēm”, ar noteikumu, ka ir izpildīti tie paši nosacījumi un kritēriji. Dalībvalstīm būtu jāizmanto esošie kanāli un attiecīgā gadījumā jāizveido jauni īpaši kanāli saziņai ar MVU, tostarp jaunuzņēmumiem, uzturētājiem, citiem novatoriem un vajadzības gadījumā vietējām publiskām iestādēm, lai visās izstrādes stadijās atbalstītu MVU, sniedzot norādījumus un atbildot uz jautājumiem par šīs regulas īstenošanu. Attiecīgā gadījumā šiem kanāliem būtu jāsadarbojas, lai radītu sinerģijas un nodrošinātu, ka to norādījumi MVU, tostarp jaunuzņēmumiem, un uzturētājiem ir viendabīgi. Turklāt dalībvalstīm būtu jāsekmē MVU un citu attiecīgo ieinteresēto personu līdzdalība standartizācijas izstrādes procesos. Turklāt būtu jāņem vērā nodrošinātāju, kuri ir MVU, tostarp jaunuzņēmumi, konkrētās intereses un vajadzības paziņotajām struktūrām, nosakot maksu par atbilstības novērtēšanu. Komisijai būtu regulāri jānovērtē MVU, tostarp jaunuzņēmumu, sertifikācijas un atbilstības nodrošināšanas izmaksas, izmantojot pārredzamas konsultācijas, un būtu jāstrādā kopīgi ar dalībvalstīm pie tā, lai samazinātu šādas izmaksas. Piemēram, ar obligāto dokumentāciju un saziņu ar iestādēm saistītie tulkošanas izdevumi var radīt ievērojamas izmaksas nodrošinātājiem un citiem operatoriem, jo īpaši mazākiem. Iespējams, ka dalībvalstīm vajadzētu nodrošināt, ka viena no valodām, ko tās nosaka un pieņem kā valodu attiecīgajai nodrošinātāju dokumentācijai un saziņai ar operatoriem, ir valoda, kuru plaši saprot pēc iespējas lielāks pārrobežu uzturētāju skaits. Lai ņemtu vērā MVU, tostarp jaunuzņēmumu, īpašās vajadzības, Komisijai pēc MI padomes pieprasījuma būtu jānodrošina standartizētas veidnes jomām, uz kurām attiecas šī regula. Turklāt Komisijai būtu jāpapildina dalībvalstu centieni, visiem nodrošinātājiem un uzturētājiem nodrošinot vienotu informācijas platformu ar viegli izmantojamu informāciju saistībā ar šo regulu, organizējot atbilstīgas komunikācijas kampaņas, lai palielinātu informētību par pienākumiem, kas izriet no šīs regulas, un izvērtējot un veicinot paraugprakses konverģenci publiskā iepirkuma procedūrās saistībā ar MI sistēmām. Vidējiem uzņēmumiem, kas līdz nesenam laikam tika kvalificēti kā mazie uzņēmumi Komisijas Ieteikuma 2003/361/EK (44) pielikuma nozīmē, vajadzētu būt piekļuvei minētajiem atbalsta pasākumiem, jo minētajiem jaunajiem vidējiem uzņēmumiem dažkārt var trūkt juridisko resursu un apmācības, kas vajadzīgi, lai nodrošinātu pienācīgu izpratni par šo regulu un atbilstību tai.
(144)
W celu promowania i ochrony innowacji do realizacji celów niniejszego rozporządzenia powinny przyczyniać się, w stosownych przypadkach, platforma „Sztuczna inteligencja na żądanie”, wszystkie odpowiednie finansowane przez Unię programy i projekty, takie jak program „Cyfrowa Europa”, „Horyzont Europa”, wdrażane przez Komisję i państwa członkowskie na poziomie Unii lub poziomie krajowym.
(144)
Lai veicinātu un aizsargātu inovāciju, platformai “MI pēc pieprasījuma”, visām attiecīgajām Savienības finansēšanas programmām un projektiem, piemēram, programmai “Digitālā Eiropa”, “Apvārsnis Eiropa”, ko Komisija un dalībvalstis attiecīgi īsteno Savienības vai valsts līmenī, būtu jāpalīdz sasniegt šīs regulas mērķus.
(145)
Aby zminimalizować zagrożenia dla wdrożenia wynikające z braku wiedzy o rynku i jego znajomości, a także aby ułatwić dostawcom, w szczególności MŚP, w tym przedsiębiorstwom typu start-up, i jednostkom notyfikowanym spełnianie obowiązków ustanowionych w niniejszym rozporządzeniu, platforma „Sztuczna inteligencja na żądanie”, europejskie centra innowacji cyfrowych oraz ośrodki testowo-doświadczalne ustanowione przez Komisję i państwa członkowskie na poziomie Unii lub poziomie krajowym powinny przyczyniać się do wykonywania niniejszego rozporządzenia. W ramach swoich zadań i obszarów kompetencji platforma „Sztuczna inteligencja na żądanie”, europejskie centra innowacji cyfrowych oraz ośrodki testowo-doświadczalne są w stanie zapewnić w szczególności wsparcie techniczne i naukowe dostawcom i jednostkom notyfikowanym.
(145)
Lai minimizētu ar īstenošanu saistītos riskus, kas izriet no zināšanu un zinātības trūkuma tirgū, kā arī veicinātu nodrošinātāju, īpaši MVU, tostarp jaunuzņēmumu, un paziņoto struktūru pienākumu izpildi saskaņā ar šo regulu, platformai “MI pēc pieprasījuma”, Eiropas digitālās inovācijas centriem un testēšanas un eksperimentēšanas struktūrām, kuras Komisija un dalībvalstis izveidojušas Savienības vai valstu līmenī, būtu jāpalīdz šīs regulas īstenošanā. Platforma “MI pēc pieprasījuma”, Eiropas digitālās inovācijas centri un testēšanas un eksperimentēšanas struktūras savu attiecīgo uzdevumu un kompetences ietvaros jo īpaši spēj sniegt tehnisku un zinātnisku atbalstu nodrošinātājiem un paziņotajām struktūrām.
(146)
Ponadto, biorąc pod uwagę bardzo mały rozmiar niektórych operatorów i aby zapewnić proporcjonalność w odniesieniu do kosztów innowacji, należy zezwolić mikroprzedsiębiorstwom na spełnienie jednego z najbardziej kosztownych obowiązków, a mianowicie ustanowienia systemu zarządzania jakością, w sposób uproszczony, co zmniejszy obciążenie administracyjne i koszty ponoszone przez te przedsiębiorstwa bez wpływu na poziom ochrony oraz konieczność zapewnienia zgodności z wymogami dotyczącymi systemów AI wysokiego ryzyka. Komisja powinna opracować wytyczne w celu określenia, które z elementów systemu zarządzania jakością mają być realizowane w ten uproszczony sposób przez mikroprzedsiębiorstwa.
(146)
Turklāt, ņemot vērā dažu operatoru ļoti mazo lielumu un lai nodrošinātu proporcionalitāti attiecībā uz inovācijas izmaksām, ir lietderīgi ļaut mikrouzņēmumiem vienkāršotā veidā pildīt vienu no visdārgākajiem pienākumiem, proti, izveidot kvalitātes pārvaldības sistēmu, kas samazinātu administratīvo slogu un izmaksas minētajiem uzņēmumiem, neietekmējot aizsardzības līmeni un nepieciešamību ievērot augsta riska MI sistēmu prasības. Komisijai būtu jāizstrādā pamatnostādnes ar mērķi precizēt kvalitātes vadības sistēmas elementus, kas šādā vienkāršotā veidā jāpilda mikrouzņēmumiem.
(147)
Komisja powinna w miarę możliwości ułatwiać dostęp do ośrodków testowo-doświadczalnych podmiotom, grupom lub laboratoriom ustanowionym lub akredytowanym na podstawie odpowiedniego unijnego prawodawstwa harmonizacyjnego, wykonującym zadania w kontekście oceny zgodności produktów lub wyrobów objętych tym unijnym prawodawstwem harmonizacyjnym. Dotyczy to w szczególności paneli ekspertów, laboratoriów eksperckich oraz laboratoriów referencyjnych w dziedzinie wyrobów medycznych w rozumieniu rozporządzeń (UE) 2017/745 i (UE) 2017/746.
(147)
Ir lietderīgi, ka Komisija struktūrām, grupām vai laboratorijām, kuras izveidotas vai akreditētas, ievērojot attiecīgos Savienības saskaņošanas tiesību aktus, un izpilda uzdevumus to produktu vai ierīču, uz kuriem attiecas minētie Savienības saskaņošanas tiesību akti, atbilstības novērtēšanas kontekstā, cik vien iespējams atvieglo piekļuvi testēšanas un eksperimentēšanas struktūrām. Tas jo paši attiecas uz ekspertu grupām, ekspertu laboratorijām un references laboratorijām medicīnisko ierīču jomā saskaņā ar Regulu (ES) 2017/745 un Regulu (ES) 2017/746.
(148)
W niniejszym rozporządzeniu należy ustanowić ramy zarządzania, które umożliwiają koordynację i wspieranie stosowania niniejszego rozporządzenia na poziomie krajowym, a także budowanie zdolności na poziomie Unii i zaangażowanie zainteresowanych stron w dziedzinę AI. Skuteczne wdrożenie i egzekwowanie niniejszego rozporządzenia wymaga ram zarządzania, które umożliwią koordynację i gromadzenie centralnej wiedzy fachowej na poziomie Unii. Misją Urzędu ds. AI, który został ustanowiony decyzją Komisji (45), jest rozwijanie unijnej wiedzy fachowej i unijnych zdolności w dziedzinie AI oraz przyczynianie się do wdrażania prawa Unii dotyczącego AI. Państwa członkowskie powinny ułatwiać Urzędowi ds. AI wykonywanie zadań z myślą o wspieraniu rozwoju unijnej wiedzy fachowej i unijnych zdolności oraz wzmacnianiu funkcjonowania jednolitego rynku cyfrowego. Ponadto należy ustanowić Radę ds. AI składającą się z przedstawicieli państw członkowskich, panel naukowy w celu zaangażowania środowiska naukowego oraz forum doradcze w celu wnoszenia przez zainteresowane strony wkładu w wykonywanie niniejszego rozporządzenia na poziomie Unii i poziomie krajowym. Rozwój unijnej wiedzy fachowej i unijnych zdolności powinien również obejmować wykorzystanie istniejących zasobów i wiedzy fachowej, w szczególności poprzez synergię ze strukturami zbudowanymi w kontekście egzekwowania innych przepisów na poziomie Unii oraz synergię z powiązanymi inicjatywami na poziomie Unii, takimi jak Wspólne Przedsięwzięcie EuroHPC i ośrodki testowo-doświadczalne w dziedzinie AI w ramach programu „Cyfrowa Europa”.
(148)
Šai regulai būtu jāizveido pārvaldības satvars, kas ļautu gan koordinēt, gan atbalstīt šīs regulas piemērošanu valsts līmenī, kā arī veidot spējas Savienības līmenī un integrēt ieinteresētās personas MI jomā. Lai efektīvi īstenotu un izpildītu šo regulu, ir vajadzīgs pārvaldības satvars, kas ļauj koordinēt un uzkrāt būtiskas speciālās zināšanas Savienības līmenī. MI birojs tika izveidots ar Komisijas lēmumu (45), un tā uzdevums ir attīstīt Savienības speciālās zināšanas un spējas MI jomā un veicināt Savienības tiesību aktu īstenošanu MI jomā. Dalībvalstīm būtu jāatvieglo MI biroja uzdevumu izpilde, lai atbalstītu Savienības speciālo zināšanu un spēju attīstību Savienības līmenī un stiprinātu digitālā vienotā tirgus darbību. Turklāt būtu jāizveido MI padome, kuras sastāvā būtu dalībvalstu pārstāvji, zinātniskā grupa zinātniskās kopienas integrēšanai un konsultatīvais forums, kura mērķis ir Savienības un valstu līmenī sniegt ieinteresēto personu ieguldījumu šīs regulas īstenošanā. Savienības speciālo zināšanu un spēju attīstībā būtu jāietver arī esošo resursu un speciālo zināšanu izmantošana, jo īpaši izmantojot sinerģijas ar struktūrām, kas izveidotas saistībā ar citu tiesību aktu izpildi Savienības līmenī, un sinerģijas ar saistītām iniciatīvām Savienības līmenī, piemēram, kopuzņēmumu EuroHPC un MI testēšanas un eksperimentēšanas struktūrām programmas “Digitālā Eiropa” ietvaros.
(149)
Aby ułatwić sprawne, skuteczne i zharmonizowane wykonywanie niniejszego rozporządzenia, należy ustanowić Radę ds. AI. Rada ds. AI powinna odzwierciedlać różne interesy ekosystemu AI i składać się z przedstawicieli państw członkowskich. Rada ds. AI powinna odpowiadać za szereg zadań doradczych, w tym wydawanie opinii lub zaleceń oraz udzielanie porad lub udział w tworzeniu wskazówek w dziedzinach związanych z wykonywaniem niniejszego rozporządzenia, także w kwestiach egzekwowania, specyfikacji technicznych lub istniejących norm dotyczących wymogów ustanowionych w niniejszym rozporządzeniu, jak również za udzielanie porad Komisji oraz państwom członkowskim i ich właściwym organom krajowym w konkretnych kwestiach związanych z AI. Aby zapewnić państwom członkowskim pewną swobodę w zakresie wyznaczania przedstawicieli do Rady ds. AI, takimi przedstawicielami mogą być wszelkie osoby należące do podmiotów publicznych, które powinny mieć odpowiednie kompetencje i uprawnienia, aby ułatwiać koordynację na poziomie krajowym i przyczyniać się do realizacji zadań Rady ds. AI. Rada ds. AI powinna ustanowić dwie stałe podgrupy służące jako platforma współpracy i wymiany między organami nadzoru rynku i organami notyfikującymi w zakresie kwestii dotyczących odpowiednio nadzoru rynku i jednostek notyfikowanych. Stała podgrupa ds. nadzoru rynku powinna do celów niniejszego rozporządzenia pełnić rolę grupy ds. współpracy administracyjnej (ADCO) w rozumieniu art. 30 rozporządzenia (UE) 2019/1020. Zgodnie z art. 33 przywołanego rozporządzenia Komisja powinna wspierać działania stałej podgrupy ds. nadzoru rynku poprzez przeprowadzanie ocen lub badań rynku, w szczególności w celu zidentyfikowania aspektów niniejszego rozporządzenia wymagających szczególnej i pilnej koordynacji między organami nadzoru rynku. W stosownych przypadkach Rada ds. AI może również tworzyć inne stałe lub tymczasowe podgrupy na potrzeby zbadania konkretnych kwestii. Rada ds. AI powinna również w stosownych przypadkach współpracować z odpowiednimi unijnymi organami, grupami ekspertów i sieciami działającymi w kontekście odpowiedniego prawa Unii, w tym w szczególności z tymi, które działają na podstawie odpowiednich przepisów prawa Unii dotyczących danych oraz produktów i usług cyfrowych.
(149)
Lai sekmētu netraucētu, efektīvu un saskaņotu šīs regulas īstenošanu, būtu jāizveido MI padome. MI padomei būtu jāatspoguļo dažādās MI ekosistēmas intereses, un tās sastāvā vajadzētu būt dalībvalstu pārstāvjiem. MI padomei būtu jāatbild par vairākiem konsultatīviem uzdevumiem, tostarp atzinumu, ieteikumu, konsultāciju sniegšanu vai norādījumu līdzveidošanu jautājumos, kas saistīti ar šīs regulas īstenošanu, tostarp par izpildes panākšanu, tehniskajām specifikācijām vai pašreizējiem standartiem attiecībā uz šajā regulā noteiktajām prasībām, kā arī par Komisijas un dalībvalstu un to kompetento iestāžu konsultēšanu konkrētos jautājumos saistībā ar MI. Lai dalībvalstīm dotu zināmu elastību savu pārstāvju izraudzīšanā MI padomē, šādi pārstāvji var būt jebkura persona, kura pieder pie publiskām struktūrām un kurai vajadzētu būt attiecīgajām kompetencēm un pilnvarām sekmēt koordināciju valsts līmenī un veicināt MI padomes uzdevumu izpildi. MI padomei būtu jāizveido divas pastāvīgas apakšgrupas, lai nodrošinātu platformu sadarbībai un apmaiņai starp tirgus uzraudzības iestādēm un paziņojošajām iestādēm jautājumos, kas attiecīgi saistīti ar tirgus uzraudzību un paziņotajām struktūrām. Tirgus uzraudzības pastāvīgajai apakšgrupai būtu jādarbojas kā šīs regulas administratīvās sadarbības grupai (ADCO) Regulas (ES) 2019/1020 30. panta nozīmē. Saskaņā ar minētās regulas 33. pantu Komisijai būtu jāatbalsta tirgus uzraudzības pastāvīgās apakšgrupas darbības, veicot tirgus izvērtējumus vai pētījumus, jo īpaši nolūkā apzināt šīs regulas aspektus, kam nepieciešama konkrēta un steidzama koordinācija starp tirgus uzraudzības iestādēm. MI padome vajadzības gadījumā var izveidot citas pastāvīgas vai pagaidu apakšgrupas konkrētu jautājumu izskatīšanai. MI padomei attiecīgā gadījumā būtu arī jāsadarbojas ar attiecīgajām ES struktūrām, ekspertu grupām un tīkliem, kas darbojas attiecīgo ES tiesību aktu kontekstā, tostarp jo īpaši ar tiem, kas darbojas saskaņā ar attiecīgiem ES tiesību aktiem datu, digitālo produktu un pakalpojumu jomā.
(150)
Aby zapewnić zaangażowanie zainteresowanych stron we wdrażanie i stosowanie niniejszego rozporządzenia, należy ustanowić forum doradcze, które ma doradzać Radzie ds. AI i Komisji oraz zapewniać im fachową wiedzę techniczną. Aby zapewnić zróżnicowaną i zrównoważoną reprezentację zainteresowanych stron z uwzględnieniem interesów handlowych i niehandlowych oraz – w ramach kategorii interesów handlowych – w odniesieniu do MŚP i innych przedsiębiorstw, forum doradcze powinno obejmować m.in. przemysł, przedsiębiorstwa typu start-up, MŚP, środowisko akademickie, społeczeństwo obywatelskie, w tym partnerów społecznych, a także Agencję Praw Podstawowych, ENISA, Europejski Komitet Normalizacyjny (CEN), Europejski Komitet Normalizacyjny Elektrotechniki (CENELEC) i Europejski Instytut Norm Telekomunikacyjnych (ETSI).
(150)
Lai nodrošinātu ieinteresēto personu iesaistīšanos šīs regulas īstenošanā un piemērošanā, būtu jāizveido konsultatīvais forums ar mērķi sniegt konsultācijas un tehniskas speciālās zināšanas MI padomei un Komisijai. Lai nodrošinātu dažādu un līdzsvarotu ieinteresēto personu pārstāvību starp komerciālām un nekomerciālām interesēm un komerciālo interešu kategorijā attiecībā uz MVU un citiem uzņēmumiem, konsultatīvajā forumā cita starpā būtu jāiekļauj rūpniecība, jaunuzņēmumi, MVU, akadēmiskās aprindas, pilsoniskā sabiedrība, tostarp sociālie partneri, kā arī Pamattiesību aģentūra, ENISA, Eiropas Standartizācijas komiteja (CEN), Eiropas Elektrotehniskās standartizācijas komiteja (CENELEC) un Eiropas telesakaru standartu institūts (ETSI).
(151)
Aby wspierać wdrażanie i egzekwowanie niniejszego rozporządzenia, w szczególności działania monitorujące prowadzone przez Urząd ds. AI w odniesieniu do modeli AI ogólnego przeznaczenia, należy ustanowić panel naukowy złożony z niezależnych ekspertów. Niezależni eksperci tworzący panel naukowy powinni być wybierani na podstawie aktualnej wiedzy naukowej lub technicznej w dziedzinie AI i powinni wykonywać swoje zadania w sposób bezstronny i obiektywny oraz zapewniać poufność informacji i danych uzyskanych w trakcie wykonywania swoich zadań i działań. Aby umożliwić wzmocnienie krajowych zdolności niezbędnych do skutecznego egzekwowania niniejszego rozporządzenia, państwa członkowskie powinny mieć możliwość zwrócenia się o wsparcie do zespołu ekspertów wchodzących w skład panelu naukowego w odniesieniu do ich działań w zakresie egzekwowania przepisów.
(151)
Lai atbalstītu šīs regulas īstenošanu un izpildi, jo īpaši MI biroja uzraudzības darbības attiecībā uz vispārējas nozīmes MI modeļiem, būtu jāizveido neatkarīgu ekspertu zinātniskā grupa. Neatkarīgie eksperti, kas veido zinātnisko grupu, būtu jāizraugās, pamatojoties uz jaunākajām zinātniskajām vai tehniskajām speciālajām zināšanām MI jomā, un tiem savi uzdevumi būtu jāveic neatkarīgi un objektīvi un jānodrošina uzdevumu un darbību izpildes gaitā iegūtās informācijas un datu konfidencialitāte. Lai varētu stiprināt valstu spējas, kas vajadzīgas šīs regulas efektīvai izpildei, dalībvalstīm to izpildes darbībām vajadzētu būt iespējai lūgt atbalstu no ekspertu rezerves, kas veido zinātnisko grupu.
(152)
Aby wspierać odpowiednie egzekwowanie w odniesieniu do systemów AI i wzmocnić zdolności państw członkowskich, należy ustanowić unijne struktury wsparcia testowania AI i udostępnić je państwom członkowskim.
(152)
Lai atbalstītu MI sistēmu pienācīgu izpildi un stiprinātu dalībvalstu spējas, būtu jāizveido Savienības MI testēšanas atbalsta struktūras, kas būtu jādara pieejamas dalībvalstīm.
(153)
Państwa członkowskie odgrywają kluczową rolę w stosowaniu i egzekwowaniu niniejszego rozporządzenia. W tym zakresie każde państwo członkowskie powinno wyznaczyć co najmniej jedną jednostkę notyfikującą i co najmniej jeden organ nadzoru ryku jako właściwe organy krajowe do celów sprawowania nadzoru nad stosowaniem i wykonywaniem niniejszego rozporządzenia. Państwa członkowskie mogą podjąć decyzję o wyznaczeniu dowolnego rodzaju podmiotu publicznego do wykonywania zadań właściwych organów krajowych w rozumieniu niniejszego rozporządzenia, zgodnie z ich określonymi krajowymi cechami organizacyjnymi i potrzebami. Aby zwiększyć efektywność organizacyjną po stronie państw członkowskich oraz ustanowić pojedynczy punkt kontaktowy dla ogółu społeczeństwa oraz innych partnerów na poziomie państw członkowskich i na poziomie Unii, każde państwo członkowskie powinno wyznaczyć organ nadzoru rynku, który pełniłby funkcję pojedynczego punktu kontaktowego.
(153)
Dalībvalstīm ir būtiska loma šīs regulas piemērošanā un izpildē. Šajā sakarā katrai dalībvalstij šīs regulas piemērošanas un īstenošanas uzraudzībai būtu jāizraugās vismaz viena paziņojošā iestāde un vismaz viena tirgus uzraudzības iestāde kā valsts kompetentās iestādes. Dalībvalstis var nolemt iecelt jebkāda veida publisku struktūru valsts kompetento iestāžu uzdevumu veikšanai šīs regulas nozīmē saskaņā ar to konkrētajām valsts organizatoriskajām iezīmēm un vajadzībām. Lai vairotu dalībvalstu organizatorisku efektivitāti un izveidotu vienotu kontaktpunktu saziņai ar sabiedrību un citiem partneriem dalībvalstu un Savienības līmenī, katrai dalībvalstij būtu jāizraugās tirgus uzraudzības iestāde, kas darbojas kā vienotais kontaktpunkts.
(154)
Właściwe organy krajowe powinny wykonywać swoje uprawnienia w sposób niezależny, bezstronny i wolny od uprzedzeń, aby zagwarantować przestrzeganie zasady obiektywności swoich działań i zadań oraz zapewnić stosowanie i wykonywanie niniejszego rozporządzenia. Członkowie tych organów powinni powstrzymać się od wszelkich działań niezgodnych z ich obowiązkami i powinni podlegać zasadom poufności na mocy niniejszego rozporządzenia.
(154)
Valsts kompetentām iestādēm savas pilnvaras būtu jāīsteno neatkarīgi, objektīvi un bez aizspriedumiem, lai aizsargātu savu darbību un uzdevumu objektivitātes principus un nodrošinātu šīs regulas piemērošanu un īstenošanu. Šo iestāžu locekļiem būtu jāatturas no jebkādas rīcības, kas nav saderīga ar viņu pienākumiem, un uz viņiem būtu jāattiecina šajā regulā paredzētie konfidencialitātes noteikumi.
(155)
W celu zapewnienia, aby dostawcy systemów AI wysokiego ryzyka mogli wykorzystywać doświadczenia związane ze stosowaniem systemów AI wysokiego ryzyka do ulepszenia swoich systemów oraz procesu projektowania i rozwoju lub byli w stanie odpowiednio szybko podejmować wszelkie możliwe działania naprawcze, każdy dostawca powinien wdrożyć system monitorowania po wprowadzeniu do obrotu. W stosownych przypadkach monitorowanie po wprowadzeniu do obrotu powinno obejmować analizę interakcji z innymi systemami AI, w tym z innymi urządzeniami i oprogramowaniem. Monitorowanie po wprowadzeniu do obrotu nie obejmuje wrażliwych danych operacyjnych podmiotów stosujących, które są organami ścigania. System ten ma również zasadnicze znaczenie dla zapewnienia skuteczniejszego i terminowego przeciwdziałania możliwym pojawiającym się ryzykom związanym z systemami AI, które nadal „uczą się” po wprowadzeniu do obrotu lub oddaniu do użytku. W tym kontekście dostawcy powinni być również zobowiązani do wdrożenia systemu zgłaszania odpowiednim organom wszelkich poważnych incydentów zaistniałych w związku z wykorzystaniem ich systemów AI, tj. incydentu lub nieprawidłowego działania prowadzącego do śmierci lub poważnej szkody dla zdrowia, poważnych i nieodwracalnych zakłóceń w zarządzaniu infrastrukturą krytyczną i jej działaniu, naruszeń obowiązków ustanowionych w prawie Unii, których celem jest ochrona praw podstawowych, lub poważnych szkód majątkowych lub środowiskowych.
(155)
Lai nodrošinātu, ka augsta riska MI sistēmu nodrošinātāji pieredzi augsta riska MI sistēmu lietošanā var ņemt vērā, uzlabojot savas sistēmas un projektēšanas un izstrādes procesu, vai savlaicīgi veikt jebkādu iespējamu korektīvu darbību, visiem nodrošinātājiem būtu jāizveido pēctirgus pārraudzības sistēma. Attiecīgā gadījumā pēctirgus pārraudzībai būtu jāietver analīze par mijiedarbību ar citām MI sistēmām, tostarp citām ierīcēm un programmatūru. Pēctirgus pārraudzībai nevajadzētu attiekties uz uzturētāju, kas ir tiesībaizsardzības iestādes, sensitīviem operatīvajiem datiem. Minētā sistēma ir svarīga arī, lai varētu efektīvi un savlaicīgi novērst iespējamos riskus, kas rodas, MI sistēmām turpinot “mācīties” pēc to laišanas tirgū vai nodošanas ekspluatācijā. Šajā kontekstā būtu arī jānosaka, ka nodrošinātājiem ir jāievieš sistēma ar mērķi ziņot attiecīgajām iestādēm par to MI sistēmu lietošanas izraisītiem nopietniem incidentiem, proti, incidentu vai darbības traucējumu, kas izraisa nāvi vai nopietnu kaitējumu veselībai, nopietniem un neatgriezeniskiem kritiskās infrastruktūras pārvaldības un darbības traucējumiem, Savienības tiesību aktos pamattiesību aizsardzībai paredzēto pienākumu pārkāpumiem vai nopietnu kaitējumu īpašumam vai videi.
(156)
Aby zapewnić odpowiednie i skuteczne egzekwowanie wymogów i obowiązków ustanowionych w niniejszym rozporządzeniu, które należy do unijnego prawodawstwa harmonizacyjnego, pełne zastosowanie powinien mieć system nadzoru rynku i zgodności produktów ustanowiony rozporządzeniem (UE) 2019/1020. Organy nadzoru rynku wyznaczone zgodnie z niniejszym rozporządzeniem powinny mieć wszystkie uprawnienia w zakresie egzekwowania wymogów i obowiązków ustanowione w niniejszym rozporządzeniu oraz z rozporządzenia (UE) 2019/1020 i powinny wykonywać swoje uprawnienia i obowiązki w sposób niezależny, bezstronny i wolny od uprzedzeń. Chociaż większość systemów AI nie podlega szczególnym wymogom i obowiązkom na podstawie niniejszego rozporządzenia, organy nadzoru rynku mogą podejmować środki w odniesieniu do wszystkich systemów AI, jeżeli zgodnie z niniejszym rozporządzeniem stwarzają one ryzyko. Z uwagi na szczególny charakter instytucji, organów i jednostek organizacyjnych Unii objętych zakresem stosowania niniejszego rozporządzenia, należy wyznaczyć Europejskiego Inspektora Ochrony Danych jako właściwy dla nich organ nadzoru rynku. Powinno to pozostawać bez uszczerbku dla wyznaczenia właściwych organów krajowych przez państwa członkowskie. Działania w zakresie nadzoru rynku nie powinny wpływać na zdolność nadzorowanych podmiotów do niezależnego wypełniania ich zadań, w przypadku gdy taka niezależność jest wymagana prawem Unii.
(156)
Lai nodrošinātu šajā regulā, kas ir Savienības saskaņošanas tiesību akts, noteikto prasību un pienākumu pienācīgu un iedarbīgu izpildi, ar Regulu (ES) 2019/1020 izveidotā tirgus uzraudzības un produktu atbilstības sistēma būtu jāpiemēro pilnībā. Tirgus uzraudzības iestādēm, kas izraudzītas, ievērojot šo regulu, vajadzētu būt visām izpildes pilnvarām, kas paredzētas šajā regulā un Regulā (ES) 2019/1020, un tām būtu jāīsteno savas pilnvaras un jāveic savi pienākumi neatkarīgi, objektīvi un bez aizspriedumiem. Lai gan uz lielāko daļu MI sistēmu neattiecas konkrētas prasības un pienākumi, kas paredzēti šajā regulā, tirgus uzraudzības iestādes var veikt pasākumus attiecībā uz visām MI sistēmām, ja tās saskaņā ar šo regulu rada risku. Ņemot vērā šīs regulas piemērošanas jomā ietilpstošo Savienības iestāžu, aģentūru un struktūru konkrēto raksturu, ir lietderīgi izraudzīties Eiropas Datu aizsardzības uzraudzītāju par to kompetento tirgus uzraudzības iestādi. Tam nebūtu jāskar valsts kompetento iestāžu izraudzīšanās, ko veic dalībvalstis. Tirgus uzraudzības darbībām nevajadzētu ietekmēt uzraudzīto vienību spēju neatkarīgi veikt savus uzdevumus, ja šāda neatkarība ir prasīta Savienības tiesību aktos.
(157)
Niniejsze rozporządzenie pozostaje bez uszczerbku dla kompetencji, zadań, uprawnień i niezależności odpowiednich krajowych organów lub podmiotów publicznych, które nadzorują stosowanie prawa Unii w zakresie ochrony praw podstawowych, w tym organów ds. równości i organów ochrony danych. W przypadku gdy jest to niezbędne do wykonywania ich mandatu, te krajowe organy lub podmioty publiczne powinny również mieć dostęp do wszelkiej dokumentacji sporządzonej na podstawie niniejszego rozporządzenia. Należy ustanowić szczególną procedurę ochronną, aby zapewnić odpowiednie i terminowe egzekwowanie przepisów niniejszego rozporządzenia w odniesieniu do systemów AI stwarzających ryzyko dla zdrowia, bezpieczeństwa i praw podstawowych. Procedurę dotyczącą takich systemów AI stwarzających ryzyko należy stosować w odniesieniu do systemów AI wysokiego ryzyka stwarzających ryzyko, zakazanych systemów, które zostały wprowadzone do obrotu, oddane do użytku lub są wykorzystywane z naruszeniem zasad dotyczących zakazanych praktyk ustanowionych w niniejszym rozporządzeniu, oraz systemów AI, które zostały udostępnione z naruszeniem ustanowionych w niniejszym rozporządzeniu wymogów przejrzystości i które stwarzają ryzyko.
(157)
Šī regula neskar to attiecīgo valsts publisku iestāžu vai struktūru kompetenci, uzdevumus, pilnvaras un neatkarību, kuras uzrauga Savienības tiesību aktu, kas aizsargā pamattiesības, piemērošanu, tostarp līdztiesības struktūru un datu aizsardzības iestāžu kompetenci, uzdevumus, pilnvaras un neatkarību. Kad tas nepieciešams to pilnvaru īstenošanai, minētajām valstu publiskām iestādēm vai struktūrām vajadzētu būt arī piekļuvei jebkādai dokumentācijai, kas sagatavota saskaņā ar šo regulu. Būtu jānosaka konkrēta drošības procedūra, lai nodrošinātu pienācīgu un savlaicīgu izpildi attiecībā uz MI sistēmām, kas rada risku veselībai, drošībai un pamattiesībām. Procedūra attiecībā uz šādām MI sistēmām, kas rada risku, būtu jāpiemēro augsta riska MI sistēmām, kas rada risku, aizliegtām sistēmām, kas laistas tirgū, nodotas ekspluatācijā vai izmantotas, pārkāpjot šajā regulā noteikto aizliegto praksi, un MI sistēmām, kas darītas pieejamas, pārkāpjot šajā regulā noteiktās pārredzamības prasības, un rada risku.
(158)
Przepisy prawa Unii dotyczące usług finansowych obejmują zasady i wymogi dotyczące zarządzania wewnętrznego i zarządzania ryzykiem, które mają zastosowanie do regulowanych instytucji finansowych podczas świadczenia tych usług, w tym wówczas, gdy korzystają one z systemów AI. Aby zapewnić spójne stosowanie i egzekwowanie obowiązków ustanowionych w niniejszym rozporządzeniu oraz odpowiednich zasad i wymogów ustanowionych w unijnych aktach prawnych dotyczących usług finansowych, właściwe organy do celów nadzoru nad tymi aktami prawnymi i ich egzekwowania, w szczególności właściwe organy zdefiniowane w rozporządzeniu Parlamentu Europejskiego i Rady (UE) nr 575/2013 (46) oraz dyrektywach Parlamentu Europejskiego i Rady 2008/48/WE (47), 2009/138/WE (48), 2013/36/UE (49), 2014/17/UE (50) i (UE) 2016/97 (51), należy wyznaczyć w ramach ich odpowiednich kompetencji jako właściwe organy do celów nadzoru nad wykonywaniem niniejszego rozporządzenia, w tym do celów działań w zakresie nadzoru rynku, w odniesieniu do systemów AI dostarczanych lub wykorzystywanych przez objęte regulacją i nadzorem instytucje finansowe, chyba że państwa członkowskie zdecydują się wyznaczyć inny organ do wypełniania tych zadań związanych z nadzorem rynku. Te właściwe organy powinny mieć wszystkie uprawnienia wynikające z niniejszego rozporządzenia i rozporządzenia (UE) 2019/1020 w celu egzekwowania wymogów i obowiązków ustanowionych w niniejszym rozporządzeniu, w tym uprawnienia do prowadzenia działań ex post w zakresie nadzoru rynku, które można w stosownych przypadkach włączyć do ich istniejących mechanizmów i procedur nadzorczych na podstawie odpowiednich przepisów prawa Unii dotyczących usług finansowych. Należy przewidzieć, że – działając w charakterze organów nadzoru rynku na podstawie niniejszego rozporządzenia –krajowe organy odpowiedzialne za nadzór nad instytucjami kredytowymi uregulowanymi w dyrektywie 2013/36/UE, które uczestniczą w jednolitym mechanizmie nadzorczym ustanowionym rozporządzeniem Rady (UE) nr 1024/2013 (52), powinny niezwłocznie przekazywać Europejskiemu Bankowi Centralnemu wszelkie informacje zidentyfikowane w trakcie prowadzonych przez siebie działań w zakresie nadzoru rynku, które potencjalnie mogą mieć znaczenie dla Europejskiego Banku Centralnego z punktu widzenia określonych w tym rozporządzeniu zadań EBC dotyczących nadzoru ostrożnościowego. Aby dodatkowo zwiększyć spójność między niniejszym rozporządzeniem a przepisami mającymi zastosowanie do instytucji kredytowych uregulowanych w dyrektywie 2013/36/UE, niektóre obowiązki proceduralne dostawców związane z zarządzaniem ryzykiem, monitorowaniem po wprowadzeniu do obrotu oraz prowadzeniem dokumentacji należy również włączyć do istniejących obowiązków i procedur przewidzianych w dyrektywie 2013/36/UE. Aby uniknąć nakładania się przepisów, należy również przewidzieć ograniczone odstępstwa dotyczące systemu zarządzania jakością prowadzonego przez dostawców oraz obowiązku monitorowania nałożonego na podmioty stosujące systemy AI wysokiego ryzyka w zakresie, w jakim mają one zastosowanie do instytucji kredytowych uregulowanych w dyrektywie 2013/36/UE. Ten sam system powinien mieć zastosowanie do zakładów ubezpieczeń i zakładów reasekuracji oraz ubezpieczeniowych spółek holdingowych na podstawie dyrektywy 2009/138/WE oraz pośredników ubezpieczeniowych na mocy dyrektywy (UE) 2016/97, a także do innych rodzajów instytucji finansowych objętych wymogami dotyczącymi systemu zarządzania wewnętrznego, uzgodnień lub procedur ustanowionych zgodnie z odpowiednimi przepisami prawa Unii dotyczącymi usług finansowych, w celu zapewnienia spójności i równego traktowania w sektorze finansowym.
(158)
Savienības tiesību akti finanšu pakalpojumu jomā ietver iekšējās pārvaldes un riska pārvaldības noteikumus un prasības, kas attiecas uz regulētām finanšu iestādēm minēto pakalpojumu sniegšanas gaitā, arī tad, kad tās lieto MI sistēmas. Lai nodrošinātu šajā regulā noteikto pienākumu un Savienības finanšu pakalpojumu tiesību aktu attiecīgo noteikumu un prasību saskaņotu piemērošanu un izpildi, par minēto tiesību aktu uzraudzību un izpildi kompetentās iestādes, jo īpaši tās kompetentās iestādes, kas definētas Eiropas Parlamenta un Padomes Regulā (ES) Nr. 575/2013 (46) un Eiropas Parlamenta un Padomes Direktīvās 2008/48/EK (47), 2009/138/EK (48), 2013/36/ES (49), 2014/17/ES (50) un (ES) 2016/97 (51), savas attiecīgās kompetences ietvaros būtu jāizraugās par kompetentajām iestādēm šīs regulas īstenošanas uzraudzībai, tostarp tirgus uzraudzības darbībām, attiecībā uz MI sistēmām, kuras nodrošina vai izmanto regulētas un uzraudzītas finanšu iestādes, ja vien dalībvalstis nenolemj izraudzīties citu iestādi šo tirgus uzraudzības uzdevumu izpildei. Minētajām kompetentajām iestādēm vajadzētu būt visām pilnvarām, kas paredzētas šajā regulā un Regulā (ES) 2019/1020, lai izpildītu šajā regulā noteiktās prasības un pienākumus, tostarp pilnvarām veikt ex post tirgus uzraudzības darbības, kuras attiecīgā gadījumā var integrēt to esošajos uzraudzības mehānismos un procedūrās, kā paredzēts attiecīgajos Savienības tiesību aktos finanšu pakalpojumu jomā. Ir lietderīgi paredzēt, ka, pildot tirgus uzraudzības iestādes pienākumus, kā tas paredzēts šajā regulā, valstu iestādēm, kas atbild par to kredītiestāžu uzraudzību, kuras tiek regulētas ar Direktīvu 2013/36/ES un kuras piedalās vienotajā uzraudzības mehānismā, kas izveidots ar Padomes Regulu (ES) Nr. 1024/2013 (52), būtu nekavējoties jāziņo Eiropas Centrālajai bankai visa tirgus uzraudzības darbību gaitā identificētā informācija, kas varētu būt noderīga Eiropas Centrālās bankas prudenciālās uzraudzības uzdevumu veikšanai, kā noteikts minētajā regulā. Lai vēl vairāk uzlabotu saskaņotību starp šo regulu un noteikumiem, kuri attiecas uz kredītiestādēm, ko regulē Direktīva 2013/36/ES, ir arī lietderīgi dažus nodrošinātāju procesuālos pienākumus saistībā ar riska pārvaldību, pēctirgus pārraudzību un dokumentāciju integrēt pašreizējos pienākumos un procedūrās, kas noteiktas Direktīvā 2013/36/ES. Lai novērstu pārklāšanos, būtu jāparedz arī ierobežotas atkāpes attiecībā uz nodrošinātāju kvalitātes vadības sistēmu un pārraudzības pienākumu, kas noteikts augsta riska MI sistēmu uzturētājiem, ciktāl tie attiecas uz kredītiestādēm, ko regulē Direktīva 2013/36/ES. Tas pats režīms būtu jāpiemēro apdrošināšanas un pārapdrošināšanas sabiedrībām un apdrošināšanas pārvaldītājsabiedrībām saskaņā ar Direktīvu 2009/138/EK un apdrošināšanas starpniekiem saskaņā ar Direktīvu (ES) 2016/97, kā arī cita veida finanšu iestādēm, uz kurām attiecas prasības par iekšējo pārvaldi, mehānismiem vai procesiem, kas noteiktas, ievērojot attiecīgos Savienības tiesību aktus finanšu pakalpojumu jomā, lai nodrošinātu konsekvenci un vienlīdzīgu attieksmi finanšu nozarē.
(159)
Każdy organ nadzoru rynku ds. systemów AI wysokiego ryzyka w obszarze danych biometrycznych, wymienionych w załączniku do niniejszego rozporządzenia, o ile systemy te są wykorzystywane do celów ścigania przestępstw, zarządzania migracją, azylem i kontrolą graniczną lub do celów sprawowania wymiaru sprawiedliwości i procesów demokratycznych, powinien dysponować skutecznymi uprawnieniami do prowadzenia postępowań i uprawnieniami naprawczymi, w tym co najmniej uprawnieniami do uzyskania dostępu do wszystkich przetwarzanych danych osobowych oraz do wszelkich informacji niezbędnych do wykonywania jego zadań. Organy nadzoru rynku powinny mieć możliwość wykonywania swoich uprawnień, działając w sposób całkowicie niezależny. Wszelkie ograniczenia dostępu tych organów do wrażliwych danych operacyjnych na mocy niniejszego rozporządzenia powinny pozostawać bez uszczerbku dla uprawnień przyznanych im na mocy dyrektywy (UE) 2016/680. Żadne wyłączenie dotyczące ujawniania danych krajowym organom ochrony danych na mocy niniejszego rozporządzenia nie powinno mieć wpływu na obecne lub przyszłe uprawnienia tych organów wykraczające poza zakres niniejszego rozporządzenia.
(159)
Katrai šīs regulas pielikumā uzskaitītajai augsta riska MI sistēmu tirgus uzraudzības iestādei biometrijas jomā, ciktāl minētās sistēmas tiek izmantotas tiesībaizsardzības, migrācijas, patvēruma un robežkontroles pārvaldības vai tiesvedības un demokrātisko procesu nolūkos, vajadzētu būt efektīvām izmeklēšanas un korektīvām pilnvarām, tostarp vismaz pilnvarām iegūt piekļuvi visiem apstrādātajiem personas datiem un visai informācijai, kas vajadzīga tās uzdevumu izpildei. Tirgus uzraudzības iestādēm vajadzētu būt iespējai īstenot savas pilnvaras, rīkojoties pilnīgi neatkarīgi. Jebkuram ierobežojumam, kas attiecas uz to piekļuvi sensitīviem operatīvajiem datiem saskaņā ar šo regulu, nevajadzētu skart pilnvaras, kas tām piešķirtas ar Direktīvu (ES) 2016/680. Nevienam izņēmumam, kas attiecas uz datu izpaušanu valsts datu aizsardzības iestādēm saskaņā ar šo regulu, nevajadzētu ietekmēt minēto iestāžu pašreizējās vai turpmākās pilnvaras ārpus šīs regulas piemērošanas jomu.
(160)
Organy nadzoru rynku i Komisja powinny mieć możliwość proponowania wspólnych działań, w tym wspólnych postępowań, które mają być prowadzone przez organy nadzoru rynku lub organy nadzoru rynku wspólnie z Komisją, których celem jest promowanie zgodności, wykrywanie niezgodności, podnoszenie świadomości i zapewnianie wytycznych dotyczących niniejszego rozporządzenia w odniesieniu do konkretnych kategorii systemów AI wysokiego ryzyka, w przypadku których stwierdzono, że stwarzają poważne ryzyko w co najmniej dwóch państwach członkowskich. Wspólne działania na rzecz promowania zgodności należy prowadzić zgodnie z art. 9 rozporządzenia (UE) 2019/1020. Urząd ds. AI powinien zapewniać wsparcie w zakresie koordynacji wspólnych postępowań.
(160)
Tirgus uzraudzības iestādēm un Komisijai vajadzētu būt iespējai ierosināt kopīgas darbības, tostarp kopīgas izmeklēšanas, kas jāveic tirgus uzraudzības iestādēm vai tirgus uzraudzības iestādēm kopā ar Komisiju, nolūkā veicināt atbilstību, konstatēt neatbilstību, uzlabot informētību un sniegt norādījumus saistībā ar šo regulu attiecībā uz konkrētām augsta riska MI sistēmu kategorijām, par kurām konstatēts, ka tās rada nopietnu risku divās vai vairāk dalībvalstīs. Kopīgas darbības nolūkā veicināt atbilstību būtu jāveic saskaņā ar Regulas (ES) 2019/1020 9. pantu. MI birojam būtu jānodrošina kopīgās izmeklēšanas centrāla koordinācija.
(161)
Konieczne jest wyjaśnienie odpowiedzialności i kompetencji na poziomie Unii i poziomie krajowym w odniesieniu do systemów AI, które opierają się na modelach AI ogólnego przeznaczenia. Aby uniknąć nakładania się kompetencji, w przypadku gdy system AI opiera się na modelu AI ogólnego przeznaczenia, a model i system są dostarczone przez tego samego dostawcę, nadzór powinien odbywać się na poziomie Unii za pośrednictwem Urzędu ds. AI, który w tym celu powinien posiadać uprawnienia organu nadzoru rynku w rozumieniu rozporządzenia (UE) 2019/1020. We wszystkich innych przypadkach krajowe organy nadzoru rynku pozostają odpowiedzialne za nadzór nad systemami AI. Natomiast w przypadku systemów AI ogólnego przeznaczenia, które mogą być wykorzystywane bezpośrednio przez podmioty stosujące do co najmniej jednego celu zaklasyfikowanego jako cel wysokiego ryzyka, organy nadzoru rynku powinny współpracować z Urzędem ds. AI przy prowadzeniu ocen zgodności i by odpowiednio informować Radę ds. AI i inne organy nadzoru rynku. Ponadto organy nadzoru rynku powinny mieć możliwość zwrócenia się o pomoc do Urzędu ds. AI, jeżeli organ nadzoru rynku nie jest w stanie zakończyć postępowania w sprawie systemu AI wysokiego ryzyka ze względu na niemożność dostępu do niektórych informacji związanych z modelem AI ogólnego przeznaczenia, na którym opiera się ten system AI wysokiego ryzyka. W takich przypadkach powinna mieć zastosowanie odpowiednio procedura dotycząca wzajemnej pomocy transgranicznej określona w rozdziale VI rozporządzenia (UE) 2019/1020.
(161)
Savienības un valstu līmenī ir jāprecizē pienākumi un kompetences attiecībā uz MI sistēmām, kas balstās uz vispārīga lietojuma MI modeļiem. Lai izvairītos no kompetenču pārklāšanās gadījumos, kad MI sistēma balstās uz vispārīga lietojuma MI modeli un šā modeļa un sistēmas nodrošināšanu veic viens un tas pats nodrošinātājs, uzraudzībai būtu jānotiek Savienības līmenī ar MI biroja starpniecību, kuram šajā nolūkā vajadzētu būt tirgus uzraudzības iestādes pilnvarām Regulas (ES) 2019/1020 nozīmē. Visos pārējos gadījumos valstu tirgus uzraudzības iestādes saglabā atbildību par MI sistēmu uzraudzību. Tomēr attiecībā uz vispārīga lietojuma MI sistēmām, kuras uzturētāji var tieši izmantot vismaz vienam nolūkam, kas ir klasificēts kā augsta riska nolūks, tirgus uzraudzības iestādēm būtu jāsadarbojas ar MI biroju, lai veiktu atbilstības izvērtēšanu un attiecīgi informētu padomi un citas tirgus uzraudzības iestādes. Turklāt tirgus uzraudzības iestādēm vajadzētu būt iespējai pieprasīt palīdzību no MI biroja, ja tirgus uzraudzības iestāde nespēj pabeigt izmeklēšanu attiecībā uz augsta riska MI sistēmu, jo tā nevar piekļūt noteiktai informācijai, kas ir saistīta ar vispārīga lietojuma MI modeli, uz kuru balstās augsta riska MI sistēma. Tādos gadījumos mutatis mutandis būtu jāpiemēro Regulas (ES) 2019/1020 VI nodaļas procedūra attiecībā uz savstarpējo palīdzību pārrobežu lietās.
(162)
Aby jak najlepiej wykorzystać scentralizowaną unijną wiedzę fachową i synergie na poziomie Unii, uprawnienia w zakresie nadzoru i egzekwowania obowiązków spoczywających na dostawcach modeli AI ogólnego przeznaczenia powinny należeć do kompetencji Komisji. Urząd ds. AI powinien mieć możliwość prowadzenia wszelkich niezbędnych działań w celu monitorowania skutecznego wykonywania niniejszego rozporządzenia w odniesieniu do modeli AI ogólnego przeznaczenia. Powinien mieć możliwość prowadzenia postępowań w sprawie ewentualnych naruszeń przepisów dotyczących dostawców modeli AI ogólnego przeznaczenia zarówno z własnej inicjatywy, na podstawie wyników swoich działań monitorujących, jak i na wniosek organów nadzoru rynku zgodnie z warunkami określonymi w niniejszym rozporządzeniu. W celu wsparcia skutecznego monitorowania Urząd ds. AI powinien ustanowić możliwość składania przez dostawców niższego szczebla skarg na dostawców modeli i systemów AI ogólnego przeznaczenia dotyczących ewentualnych naruszeń przepisów.
(162)
Lai pēc iespējas labāk izmantotu Savienības centralizētās speciālās zināšanas un sinerģijas Savienības līmenī, Komisijas kompetencē vajadzētu būt vispārīga lietojuma MI modeļu nodrošinātāju uzraudzībai un izpildes pilnvarām. MI birojam vajadzētu būt iespējai veikt visas nepieciešamās darbības, lai pārraudzītu šīs regulas efektīvu īstenošanu attiecībā uz vispārīga lietojuma MI modeļiem. Tai vajadzētu būt iespējai izmeklēt iespējamus vispārīga lietojuma MI modeļu nodrošinātāju noteikumu pārkāpumus gan pēc savas iniciatīvas, ņemot vērā pārraudzības darbību rezultātus, gan pēc tirgus uzraudzības iestāžu pieprasījuma saskaņā ar šajā regulā izklāstītajiem nosacījumiem. Lai atbalstītu MI biroja efektīvu pārraudzību, tai vajadzētu paredzēt iespēju lejasposma nodrošinātājiem iesniegt sūdzības par iespējamiem to noteikumu pārkāpumiem, kas attiecas uz vispārīga lietojuma MI modeļu un sistēmu nodrošinātājiem.
(163)
W celu uzupełnienia systemów zarządzania modelami AI ogólnego przeznaczenia panel naukowy powinien wspierać działania monitorujące Urzędu ds. AI i może, w niektórych przypadkach, przekazywać Urzędowi ds. AI ostrzeżenia kwalifikowane, które uruchamiają działania następcze, takie jak postępowania. Powinno to mieć miejsce w przypadku, gdy panel naukowy ma powody, by podejrzewać, że model AI ogólnego przeznaczenia stwarza konkretne i możliwe do zidentyfikowania ryzyko na poziomie Unii. Ponadto powinno to mieć miejsce w przypadku, gdy panel naukowy ma powody, by podejrzewać, że model AI ogólnego przeznaczenia spełnia kryteria, które prowadziłyby do zaklasyfikowania go jako modelu AI ogólnego przeznaczenia z ryzykiem systemowym. Aby panel naukowy mógł dysponować informacjami niezbędnymi do wykonywania tych zadań, powinien istnieć mechanizm, w ramach którego panel naukowy może zwrócić się do Komisji, aby wystąpiła do dostawcy z wnioskiem o przedstawienie dokumentacji lub informacji.
(163)
Lai papildinātu vispārīga lietojuma MI modeļu pārvaldības sistēmas, zinātniskajai grupai būtu jāatbalsta MI biroja pārraudzības darbības un atsevišķos gadījumos tā var MI birojam sniegt kvalificētus brīdinājumus, kuri izraisa turpmākus pasākumus, piemēram, izmeklēšanu. Tam būtu jāattiecas uz gadījumiem, kad zinātniskajai grupai ir pamats aizdomām, ka vispārīga lietojuma MI modelis rada konkrētu un identificējamu risku Savienības līmenī. Turklāt tam būtu jāattiecas uz gadījumiem, kad zinātniskajai grupai ir pamats aizdomām, ka vispārīga lietojuma MI modelis atbilst kritērijiem, kuru dēļ tas tiktu klasificēts kā vispārīga lietojuma MI modelis ar sistēmisku risku. Lai zinātniskajai grupai sniegtu informāciju, kas vajadzīga minēto uzdevumu izpildei, būtu jāparedz mehānisms, saskaņā ar kuru zinātniskā grupa var pieprasīt Komisijai, lai tā pieprasa dokumentāciju vai informāciju no nodrošinātāja.
(164)
Urząd ds. AI powinien mieć możliwość podejmowania niezbędnych działań w celu monitorowania skutecznego wdrażania i spełniania obowiązków przez dostawców modeli AI ogólnego przeznaczenia określonych w niniejszym rozporządzeniu. Urząd ds. AI powinien mieć możliwość prowadzenia postępowań w sprawie ewentualnych naruszeń zgodnie z uprawnieniami przewidzianymi w niniejszym rozporządzeniu, w tym poprzez zwracanie się o dokumentację i informacje, przeprowadzanie ocen, a także zwracanie się do dostawców modeli AI ogólnego przeznaczenia o zastosowanie określonych środków. Aby wykorzystać niezależną wiedzę fachową w ramach prowadzenia ocen, Urząd ds. AI powinien mieć możliwość angażowania niezależnych ekspertów do przeprowadzania ocen w jego imieniu. Spełnienie obowiązków powinno być możliwe do wyegzekwowania m.in. poprzez wezwanie do podjęcia odpowiednich środków, w tym środków ograniczających ryzyko w przypadku zidentyfikowanego ryzyka systemowego, a także poprzez ograniczenie udostępniania modelu na rynku, wycofanie modelu z rynku lub z użytku. Jako zabezpieczenie, jeśli zaistnieją potrzeby wykraczające poza prawa proceduralne przewidziane w niniejszym rozporządzeniu, dostawcy modeli AI ogólnego przeznaczenia powinni dysponować prawami proceduralnymi przewidzianymi w art. 18 rozporządzenia (UE) 2019/1020, które powinny mieć zastosowanie odpowiednio, bez uszczerbku dla bardziej szczególnych praw proceduralnych przewidzianych w niniejszym rozporządzeniu.
(164)
MI birojam vajadzētu būt iespējai veikt nepieciešamās darbības, lai pārraudzītu šajā regulā noteikto vispārīga lietojuma MI modeļu nodrošinātāju pienākumu efektīvu īstenošanu un izpildi. MI birojam vajadzētu būt iespējai izmeklēt iespējamos pārkāpumus saskaņā ar šajā regulā paredzētajām pilnvarām, tostarp, pieprasot dokumentāciju un informāciju, veicot izvērtēšanu, kā arī pieprasot vispārīga lietojuma MI modeļu nodrošinātājiem veikt pasākumus. Veicot izvērtēšanu, nolūkā izmantot neatkarīgas speciālās zināšanas, MI birojam vajadzētu būt iespējai piesaistīt neatkarīgus ekspertus, lai tie veiktu izvērtēšanu tā vārdā. Atbilstība pienākumiem būtu jāpanāk, cita starpā pieprasot veikt pienācīgus pasākumus, tostarp riska mazināšanas pasākumus identificēto sistēmisko risku gadījumā, kā arī ierobežojot modeļa pieejamību tirgū, to izņemot vai atsaucot no tirgus. Drošības nolūkā, vajadzības gadījumā pārsniedzot šajā regulā paredzētās procesuālās tiesības, vispārīga lietojuma MI modeļu nodrošinātājiem vajadzētu būt Regulas (ES) 2019/1020 18. pantā paredzētajām procesuālajām tiesībām, kas mutatis mutandis būtu jāpiemēro, neskarot konkrētākas šajā regulā paredzētās procesuālās tiesības.
(165)
Rozwój systemów AI innych niż systemy AI wysokiego ryzyka zgodnie z wymogami niniejszego rozporządzenia może doprowadzić do szerszego upowszechnienia etycznej i godnej zaufania AI w Unii. Dostawców systemów AI niebędących systemami wysokiego ryzyka należy zachęcać do opracowywania kodeksów postępowania, w tym powiązanych mechanizmów zarządzania, wspierających dobrowolne stosowanie niektórych lub wszystkich obowiązkowych wymogów mających zastosowanie do systemów AI wysokiego ryzyka, dostosowanych do przeznaczenia tych systemów i związanego z nimi niższego ryzyka oraz z uwzględnieniem dostępnych rozwiązań technicznych i najlepszych praktyk branżowych, takich jak karty modeli i karty charakterystyki. Dostawców wszystkich systemów AI, zarówno wysokiego ryzyka, jak i nie stanowiących wysokiego ryzyka, oraz modeli AI, a w stosownych przypadkach, podmioty stosujące te systemy i modele należy również zachęcać do dobrowolnego stosowania dodatkowych wymogów dotyczących na przykład elementów unijnych Wytycznych w zakresie etyki dotyczących godnej zaufania sztucznej inteligencji, zrównoważenia środowiskowego, środków wspierających kompetencje w zakresie AI, projektowania i rozwoju systemów AI z uwzględnieniem różnorodności i inkluzywności, w tym szczególnej uwagi poświęconej osobom szczególnie wrażliwym i dostępności dla osób z niepełnosprawnościami, udziału zainteresowanych stron w tym, w stosownych przypadkach, organizacji przedsiębiorców i społeczeństwa obywatelskiego, środowisk akademickich, organizacji badawczych, związków zawodowych i organizacji ochrony konsumentów w projektowaniu i rozwoju systemów AI oraz dotyczących różnorodności zespołów programistycznych, w tym pod względem równowagi płci. W celu zapewnienia skuteczności dobrowolnych kodeksów postępowania, powinny się one opierać się na jasnych celach i kluczowych wskaźnikach skuteczności działania służących do pomiaru stopnia osiągnięcia tych celów. Należy je również rozwijać w sposób inkluzywny, w stosownych przypadkach, z udziałem odpowiednich zainteresowanych stron, takich jak organizacje przedsiębiorców i społeczeństwa obywatelskiego, środowiska akademickie, organizacje badawcze, związki zawodowe i organizacje ochrony konsumentów. Komisja może opracowywać inicjatywy, również o charakterze sektorowym, aby ułatwiać zmniejszanie barier technicznych utrudniających transgraniczną wymianę danych na potrzeby rozwoju AI, w tym w zakresie infrastruktury dostępu do danych oraz interoperacyjności semantycznej i technicznej różnych rodzajów danych.
(165)
Tādu MI sistēmu, kas nav augsta riska MI sistēmas, izstrāde saskaņā ar šīs regulas prasībām varētu izraisīt ētiska un uzticama mākslīgā intelekta plašāku ieviešanu Savienībā. Tādu MI sistēmu, kas nav augsta riska sistēmas, nodrošinātāji būtu jāmudina izstrādāt rīcības kodeksus, tostarp saistītus pārvaldības mehānismus, kuru mērķis būtu veicināt dažu vai visu augsta riska MI sistēmām piemērojamo obligāto prasību brīvprātīgu piemērošanu, kuras pielāgotas, ņemot vērā sistēmu paredzēto nolūku un saistīto zemāko risku, kā arī ņemot vērā pieejamos tehniskos risinājumus un nozares paraugpraksi, piemēram, modeļus un datu kartes. Tāpat visus MI sistēmu – neatkarīgi no tā, vai tās ir vai nav augsta riska sistēmas,– un MI modeļu uzturētājus un attiecīgā gadījumā ieviesējus būtu jāmudina brīvprātīgi piemērot papildu prasības, kas ir saistītas, piemēram, ar elementiem Savienības ētikas vadlīnijās uzticamam MI, ar vides ilgtspēju, MI pratības pasākumiem, iekļaujošu un daudzveidīgu MI sistēmu projektēšanu un izstrādi, tostarp pievēršot uzmanību neaizsargātām personām un pieejamībai personām ar invaliditāti, ar ieinteresēto personu līdzdalību, attiecīgā gadījumā MI sistēmu projektēšanā un izstrādē iesaistot attiecīgās ieinteresētās personas, piemēram, uzņēmēju un pilsoniskās sabiedrības organizācijas, akadēmiskās aprindas, pētniecības organizācijas, arodbiedrības un patērētāju aizsardzības organizāciju, un ar daudzveidību, tostarp dzimumu līdzsvaru izstrādes komandās. Lai nodrošinātu brīvprātīgo rīcības kodeksu efektivitāti, to pamatā vajadzētu būt skaidriem mērķiem un galvenajiem snieguma rādītājiem, lai izmērītu minēto mērķu sasniegšanu. Attiecīgā gadījumā tie būtu jāizstrādā arī iekļaujošā veidā, iesaistot attiecīgās ieinteresētās personas, piemēram, uzņēmēju un pilsoniskās sabiedrības organizācijas, akadēmiskās aprindas, pētniecības organizācijas, arodbiedrības un patērētāju aizsardzības organizāciju. Komisija var izstrādāt iniciatīvas, tostarp nozaru iniciatīvas, ar mērķi veicināt tādu tehnisko šķēršļu mazināšanu, kuri kavē pārrobežu datu apmaiņu MI izstrādei, tostarp par datu piekļuves infrastruktūru un dažādu veidu datu semantisko un tehnisko savietojamību.
(166)
Istotne jest, aby systemy AI powiązane z produktami, które nie są systemami wysokiego ryzyka w rozumieniu niniejszego rozporządzenia, a zatem nie muszą być zgodne z wymogami ustanowionymi w przypadku systemów AI wysokiego ryzyka, były mimo to bezpieczne w chwili wprowadzenia ich do obrotu lub oddawania ich do użytku. Aby przyczynić się do osiągnięcia tego celu, rozporządzenie Parlamentu Europejskiego i Rady (UE) 2023/988 (53) miałoby zastosowanie jako rozwiązanie zapasowe.
(166)
Ir svarīgi, lai ar produktiem saistītas MI sistēmas, kuras saskaņā ar šo regulu nav augsta riska sistēmas un kurām līdz ar to nav jāatbilst prasībām, kas šajā regulā noteiktas augsta riska MI sistēmām, tomēr būtu drošas, kad tās tiek laistas tirgū vai nodotas ekspluatācijā. Minētā mērķa sekmēšanas nolūkā Eiropas Parlamenta un Padomes Regula (ES) 2023/988 (53) tiktu piemērota kā drošības tīkls.
(167)
W celu zapewnienia opartej na zaufaniu i konstruktywnej współpracy właściwych organów na poziomie Unii i poziomie krajowym wszystkie strony uczestniczące w stosowaniu niniejszego rozporządzenia powinny przestrzegać zasady poufności informacji i danych uzyskanych podczas wykonywania swoich zadań, zgodnie z prawem Unii lub prawem krajowym. Powinny one wykonywać swoje zadania i prowadzić działania w taki sposób, aby chronić w szczególności prawa własności intelektualnej, poufne informacje handlowe i tajemnice przedsiębiorstwa, skuteczne wykonywanie niniejszego rozporządzenia, interesy bezpieczeństwa publicznego i narodowego, integralność postępowań karnych i administracyjnych oraz integralność informacji niejawnych.
(167)
Lai nodrošinātu uzticēšanās pilnu un konstruktīvu sadarbību starp kompetentajām iestādēm Savienības un valstu līmenī, visām šīs regulas piemērošanā iesaistītajām personām būtu jāievēro savu uzdevumu veikšanas gaitā iegūtās informācijas un datu konfidencialitāte saskaņā ar Savienības vai valsts tiesību aktiem. Tām savi uzdevumi un darbības būtu jāveic tā, lai jo īpaši aizsargātu intelektuālā īpašuma tiesības, konfidenciālu uzņēmējdarbības informāciju un komercnoslēpumus, šīs regulas efektīvu īstenošanu, sabiedrības un valsts drošības intereses, kriminālprocesu un administratīvo procesu neaizskaramību un klasificētas informācijas integritāti.
(168)
Zgodność z niniejszym rozporządzeniem powinna być możliwa do wyegzekwowania poprzez nakładanie kar i innych środków egzekwowania prawa. Państwa członkowskie powinny podjąć wszelkie niezbędne środki, aby zapewnić wdrożenie przepisów niniejszego rozporządzenia, w tym poprzez ustanowienie skutecznych, proporcjonalnych i odstraszających kar za ich naruszenie, oraz poszanowanie zasady ne bis in idem. Aby wzmocnić i zharmonizować kary administracyjne za naruszenie niniejszego rozporządzenia należy ustanowić górne limity dla ustalania administracyjnych kar pieniężnych za niektóre konkretne naruszenia. Przy ocenie wysokości kar pieniężnych, państwa członkowskie powinny w każdym indywidualnym przypadku brać pod uwagę wszystkie istotne okoliczności danej sytuacji, z należytym uwzględnieniem w szczególności charakteru, wagi i czasu trwania naruszenia oraz jego skutków, a także wielkości dostawcy, w szczególności faktu, czy dostawca jest MŚP, w tym przedsiębiorstwem typu start-up. Europejski Inspektor Ochrony Danych powinien mieć uprawnienia do nakładania kar pieniężnych na instytucje, organy i jednostki organizacyjne Unii objęte zakresem stosowania niniejszego rozporządzenia.
(168)
Atbilstība šai regulai būtu jāpanāk, piemērojot sodus un citus izpildes panākšanas pasākumus. Dalībvalstīm būtu jāveic visi šīs regulas noteikumu īstenošanas nodrošināšanai nepieciešamie pasākumi, tostarp, nosakot iedarbīgus, samērīgus un atturošus sodus par noteikumu pārkāpumiem, un ievērojot ne bis in idem principu. Lai stiprinātu un saskaņotu administratīvos sodus par šīs regulas pārkāpumiem, būtu jāparedz maksimālais administratīvais naudas sods par konkrētiem specifiskiem pārkāpumiem. Novērtējot naudas sodu apmēru, dalībvalstīm katrā atsevišķā gadījumā būtu jāņem vērā visi attiecīgie konkrētās situācijas apstākļi, jo īpaši pienācīgi ņemot vērā pārkāpuma un tā seku raksturu, smagumu un ilgumu, kā arī nodrošinātāja lielumu, jo īpaši gadījumā, ja nodrošinātājs ir MVU, tostarp jaunuzņēmums. Eiropas Datu aizsardzības uzraudzītājam vajadzētu būt pilnvarotam uzlikt naudas sodus Savienības iestādēm, aģentūrām un struktūrām, kuras ietilpst šīs regulas piemērošanas jomā.
(169)
Spełnienie obowiązków spoczywających na dostawcach modeli AI ogólnego przeznaczenia nałożonych na mocy niniejszego rozporządzenia powinna być możliwa do wyegzekwowania między innymi za pomocą kar pieniężnych. W tym celu należy również ustanowić odpowiednią wysokość kar pieniężnych za naruszenie tych obowiązków, w tym za niezastosowanie środków wymaganych przez Komisję zgodnie z niniejszym rozporządzeniem, z zastrzeżeniem odpowiednich terminów przedawnienia zgodnie z zasadą proporcjonalności. Wszystkie decyzje przyjmowane przez Komisję na podstawie niniejszego rozporządzenia podlegają kontroli Trybunału Sprawiedliwości Unii Europejskiej zgodnie z TFUE, w tym nieograniczonemu prawu orzekania zgodnie z art. 261 TFUE.
(169)
Atbilstība šajā regulā noteiktajiem vispārīga lietojuma MI modeļu nodrošinātāju pienākumiem būtu jāpanāk, cita starpā piemērojot naudas sodus. Šajā nolūkā būtu arī jānosaka atbilstošs naudas sodu apmērs par minēto pienākumu pārkāpumiem, tostarp par to pasākumu neievērošanu, kurus Komisija pieprasījusi saskaņā ar šo regulu, ievērojot atbilstīgus noilguma termiņus saskaņā ar proporcionalitātes principu. Visus lēmumus, ko saskaņā ar šo regulu pieņēmusi Komisija, var pārskatīt Eiropas Savienības Tiesa saskaņā ar LESD, tostarp Tiesas neierobežotajai jurisdikcijai attiecībā uz sankcijām, ievērojot LESD 261. pantu.
(170)
W przepisach prawa Unii i prawa krajowego przewidziano już skuteczne środki odwoławcze dla osób fizycznych i prawnych, na których prawa i wolności negatywnie wpływa wykorzystanie systemów AI. Bez uszczerbku dla tych środków odwoławczych każda osoba fizyczna lub prawna, która ma podstawy, by uważać, że doszło do naruszenia niniejszego rozporządzenia, powinna być uprawniona do wniesienia skargi do odpowiedniego organu nadzoru rynku.
(170)
Savienības un valstu tiesību aktos jau ir paredzēti efektīvi tiesiskās aizsardzības līdzekļi fiziskām un juridiskām personām, kuru tiesības un brīvības nelabvēlīgi ietekmē MI sistēmu lietošana. Neskarot minētos tiesiskos aizsardzības līdzekļus, jebkurai fiziskai vai juridiskai personai, kurai ir pamats uzskatīt, ka ir pārkāpta šī regula, vajadzētu būt tiesīgai iesniegt sūdzību attiecīgajai tirgus uzraudzības iestādei.
(171)
Osoby, na które AI ma wpływ, powinny mieć prawo do uzyskania wyjaśnienia, jeżeli decyzja podmiotu stosującego opiera się głównie na wynikach określonych systemów AI wysokiego ryzyka objętych zakresem stosowania niniejszego rozporządzenia i jeżeli decyzja ta wywołuje skutki prawne lub podobnie znacząco oddziałuje na te osoby w sposób, który ich zdaniem ma niepożądany wpływ na ich zdrowie, bezpieczeństwo lub prawa podstawowe. Wyjaśnienie to powinno być jasne i merytoryczne oraz powinno dawać osobom, na które AI ma wpływ, podstawę do korzystania z ich praw. Prawo do uzyskania wyjaśnienia nie powinno mieć zastosowania do wykorzystania systemów AI, co do których na mocy przepisów praw Unii lub prawa krajowego obowiązują wyjątki lub ograniczenia, i powinno mieć zastosowanie wyłącznie w zakresie, w jakim prawo to nie jest jeszcze przewidziane w przepisach prawa Unii.
(171)
Skartajām personām vajadzētu būt tiesībām saņemt paskaidrojumu, ja uzturētāja lēmums galvenokārt pamatojas uz iznākumu, kas iegūts no konkrētām augsta riska MI sistēmām, kuras ietilpst šīs regulas piemērošanas jomā, un ja minētais lēmums rada juridiskas sekas vai līdzīgā veidā būtiski ietekmē minētās personas tādā veidā, ka tās uzskata, ka tas nelabvēlīgi ietekmē to veselību, drošību vai pamattiesības. Minētajam skaidrojumam vajadzētu būt skaidram un jēgpilnam, un tam būtu jānodrošina pamats, saskaņā ar kuru skartās personas var īstenot savas tiesības. Tiesības saņemt paskaidrojumu nebūtu jāpiemēro tādu MI sistēmu lietošanai, attiecībā uz kurām izņēmumi vai ierobežojumi izriet no Savienības vai valsts tiesību aktiem, un tās būtu jāpiemēro tikai tiktāl, ciktāl šīs tiesības jau nav paredzētas Savienības tiesību aktos.
(172)
Osoby działające w charakterze sygnalistów w związku z naruszeniami niniejszego rozporządzenia powinny być chronione na mocy prawa Unii. Do zgłaszania naruszeń przepisów niniejszego rozporządzenia oraz ochrony osób zgłaszających przypadki takich naruszeń powinno zatem stosować się dyrektywę Parlamentu Europejskiego i Rady (UE) 2019/1937 (54).
(172)
Personas, kas attiecībā uz šīs regulas pārkāpumiem rīkojas kā trauksmes cēlēji, būtu jāaizsargā saskaņā ar Savienības tiesību aktiem. Tādēļ ziņošanai par šīs regulas pārkāpumiem un to personu aizsardzībai, kas ziņo par šādiem pārkāpumiem, būtu jāpiemēro Eiropas Parlamenta un Padomes Direktīva (ES) 2019/1937 (54).
(173)
Aby zapewnić możliwość dostosowania w razie potrzeby ram regulacyjnych, należy przekazać Komisji uprawnienia do przyjmowania aktów zgodnie z art. 290 TFUE w celu zmiany warunków, na podstawie których systemu AI nie uznaje się za system AI wysokiego ryzyka, zmiany wykazu systemów AI wysokiego ryzyka, przepisów dotyczących dokumentacji technicznej, treści deklaracji zgodności UE, przepisów dotyczących procedur oceny zgodności, przepisów określających systemy AI wysokiego ryzyka, do których powinna mieć zastosowanie procedura oceny zgodności oparta na ocenie systemu zarządzania jakością oraz ocenie dokumentacji technicznej, progu, poziomów odniesienia i wskaźników, które zostały określone w przepisach dotyczących klasyfikacji modeli AI ogólnego przeznaczenia z ryzykiem systemowym, w tym poprzez uzupełnienie tych poziomów odniesienia i wskaźników, kryteriów uznawania modeli za modele AI ogólnego przeznaczenia z ryzykiem systemowym, dokumentacji technicznej dostawców modeli AI ogólnego przeznaczenia oraz informacji dotyczących przejrzystości od dostawców modeli AI ogólnego przeznaczenia. Szczególnie ważne jest, aby w czasie prac przygotowawczych Komisja prowadziła stosowne konsultacje, w tym na poziomie ekspertów, oraz aby konsultacje te prowadzone były zgodnie z zasadami określonymi w Porozumieniu międzyinstytucjonalnym z dnia 13 kwietnia 2016 r. w sprawie lepszego stanowienia prawa (55). W szczególności, aby zapewnić Parlamentowi Europejskiemu i Radzie udział na równych zasadach w przygotowaniu aktów delegowanych, instytucje te otrzymują wszelkie dokumenty w tym samym czasie co eksperci państw członkowskich, a eksperci tych instytucji mogą systematycznie brać udział w posiedzeniach grup eksperckich Komisji zajmujących się przygotowaniem aktów delegowanych.
(173)
Lai nodrošinātu, ka tiesisko regulējumu vajadzības gadījumā ir iespējams pielāgot, būtu jādeleģē Komisijai pilnvaras pieņemt aktus saskaņā ar LESD 290. pantu ar mērķi grozīt nosacījumus, saskaņā ar kuriem MI sistēma nav uzskatāma par augsta riska sistēmu, MI sistēmu sarakstu, noteikumus par tehnisko dokumentāciju, ES atbilstības deklarācijas saturu, noteikumus par atbilstības novērtēšanas procedūrām, noteikumus, ar ko nosaka augsta riska MI sistēmas, kurām būtu jāpiemēro atbilstības novērtēšanas procedūra, kas balstīta uz kvalitātes vadības sistēmas un tehniskās dokumentācijas novērtēšanu, maksimālo vērtību, kritērijus un rādītājus, tostarp, papildinot minētos kritērijus un rādītājus, noteikumus par vispārīga lietojuma MI modeļu ar sistēmisku risku klasificēšanu, vispārīga lietojuma MI modeļu ar sistēmisku risku izraudzīšanās kritērijus, tehnisko dokumentāciju vispārīga lietojuma MI modeļu nodrošinātājiem un informāciju par pārredzamību vispārīga lietojuma MI modeļu nodrošinātājiem. Ir īpaši būtiski, lai Komisija, veicot sagatavošanas darbus, rīkotu attiecīgas apspriešanās, tostarp ekspertu līmenī, un lai minētās apspriešanās tiktu rīkotas saskaņā ar principiem, kas noteikti 2016. gada 13. aprīļa Iestāžu nolīgumā par labāku likumdošanas procesu (55). Jo īpaši, lai deleģēto aktu sagatavošanā nodrošinātu vienādu dalību, Eiropas Parlaments un Padome visus dokumentus saņem vienlaicīgi ar dalībvalstu ekspertiem, un minēto iestāžu ekspertiem ir sistemātiska piekļuve Komisijas ekspertu grupu sanāksmēm, kurās notiek deleģēto aktu sagatavošana.
(174)
Z uwagi na szybki rozwój technologiczny i wiedzę techniczną wymaganą do skutecznego stosowania niniejszego rozporządzenia, Komisja powinna dokonać oceny i przeglądu niniejszego rozporządzenia do dnia 2 sierpnia 2029 r., a następnie co cztery lata oraz składać sprawozdania Parlamentowi Europejskiemu i Radzie. Ponadto ze względu na skutki dla zakresu stosowania niniejszego rozporządzenia Komisja powinna raz w roku ocenić, czy konieczne jest wprowadzenie zmian w wykazie systemów AI wysokiego ryzyka i w wykazie zakazanych praktyk. Dodatkowo do dnia 2 sierpnia 2028 r., a następnie co cztery lata, Komisja powinna ocenić, czy należy wprowadzić zmiany w wykazie nagłówków dotyczących obszarów wysokiego ryzyka zawartym w załączniku do niniejszego rozporządzenia, zmiany w zakresie systemów AI objętych obowiązkami w zakresie przejrzystości, zmiany służące skuteczności systemu nadzoru i zarządzania oraz ocenić postępy w opracowywaniu dokumentów normalizacyjnych dotyczących efektywnego energetycznie rozwoju modeli AI ogólnego przeznaczenia, w tym potrzebę wprowadzenia dalszych środków lub działań, a następnie przekazać sprawozdania z tych ocen Parlamentowi Europejskiemu i Radzie. Ponadto do dnia 2 sierpnia 2028 r., a następnie co trzy lata, Komisja powinna oceniać wpływ i skuteczność dobrowolnych kodeksów postępowania pod względem wspierania stosowania wymogów przewidzianych w przypadku systemów AI wysokiego ryzyka do systemów AI innych niż systemy AI wysokiego ryzyka oraz ewentualnie innych dodatkowych wymogów dotyczących takich systemów AI.
(174)
Ņemot vērā tehnoloģiju straujo attīstību un šīs regulas efektīvai piemērošanai nepieciešamās tehniskās zināšanas, Komisijai būtu jāizvērtē un jāpārskata šī regula līdz 2029. gada 2. augustam un pēc tam reizi četros gados un jāiesniedz ziņojums Eiropas Parlamentam un Padomei. Turklāt, ņemot vērā ietekmi uz šīs regulas piemērošanas jomu, Komisijai reizi gadā būtu jāveic novērtējums par nepieciešamību grozīt augsta riska MI sistēmu sarakstu un aizliegtās prakses sarakstu. Turklāt līdz 2028. gada 2. augustam un pēc tam reizi četros gados Komisijai būtu jāizvērtē un jāsniedz ziņojums Eiropas Parlamentam un Padomei par nepieciešamību grozīt augsta riska jomu sarakstu šīs regulas pielikumā, par MI sistēmām, kurām piemēro pārredzamības pienākumus, par uzraudzības un pārvaldības sistēmas efektivitāti un par vispārīga lietojuma MI modeļu energoefektīvas izstrādes standartizācijas nodevumu izstrādē gūto progresu, tostarp vajadzību pēc turpmākiem pasākumiem vai darbībām. Visbeidzot, līdz 2028. gada 2. augustam un pēc tam reizi trīs gados Komisijai būtu jāizvērtē brīvprātīgo rīcības kodeksu ietekme un efektivitāte, lai veicinātu prasību piemērošanu attiecībā uz MI sistēmām, kas nav augsta riska MI sistēmas, un, iespējams, citu papildu prasību piemērošanu attiecībā uz tādām MI sistēmām.
(175)
W celu zapewnienia jednolitych warunków wykonywania niniejszego rozporządzenia należy powierzyć Komisji uprawnienia wykonawcze. Uprawnienia te powinny być wykonywane zgodnie z rozporządzeniem Parlamentu Europejskiego i Rady (UE) nr 182/2011 (56).
(175)
Lai nodrošinātu vienādus nosacījumus šīs regulas īstenošanai, būtu jāpiešķir īstenošanas pilnvaras Komisijai. Minētās pilnvaras būtu jāizmanto saskaņā ar Eiropas Parlamenta un Padomes Regulu (ES) Nr. 182/2011 (56).
(176)
Ponieważ cel niniejszego rozporządzenia, a mianowicie poprawa funkcjonowania rynku wewnętrznego i promowanie upowszechniania zorientowanej na człowieka i godnej zaufania AI, przy jednoczesnym zapewnieniu wysokiego poziomu ochrony zdrowia, bezpieczeństwa i praw podstawowych zapisanych w Karcie, w tym demokracji, praworządności i ochrony środowiska przed szkodliwymi skutkami systemów AI w Unii, oraz wspieranie innowacji, nie może zostać osiągnięty w sposób wystarczający przez państwa członkowskie, natomiast ze względu na rozmiary lub skutki działania możliwe jest jego lepsze osiągnięcie na poziomie Unii, może ona podjąć działania zgodnie z zasadą pomocniczości określoną w art. 5 TUE. Zgodnie z zasadą proporcjonalności określoną w tym artykule niniejsze rozporządzenie nie wykracza poza to, co jest konieczne do osiągnięcia tego celu.
(176)
Ņemot vērā to, ka šīs regulas mērķi, proti, uzlabot iekšējā tirgus darbību un veicināt uz cilvēku orientēta un uzticama MI ieviešanu, vienlaikus nodrošinot augstu veselības, drošuma, Hartā nostiprināto pamattiesību, tostarp demokrātijas, tiesiskuma un vides aizsardzības, līmeni pret MI sistēmu radītām kaitīgām sekām Savienībā, un atbalstīt inovāciju, nevar pietiekami labi sasniegt atsevišķās dalībvalstīs, bet tās mēroga vai iedarbības dēļ to var labāk sasniegt Savienības līmenī, Savienība var pieņemt pasākumus saskaņā ar LES 5. pantā noteikto subsidiaritātes principu. Saskaņā ar minētajā pantā noteikto proporcionalitātes principu šajā regulā paredz vienīgi tos pasākumus, kas ir vajadzīgi minētā mērķa sasniegšanai.
(177)
Aby zapewnić pewność prawa, zapewnić operatorom odpowiedni okres na dostosowanie się i uniknąć zakłóceń na rynku, w tym dzięki zapewnieniu ciągłości korzystania z systemów AI, niniejsze rozporządzenie należy stosować do systemów AI wysokiego ryzyka, które zostały wprowadzone do obrotu lub oddane do użytku przed ogólną datą rozpoczęcia jego stosowania, tylko wtedy, gdy po tej dacie w systemach tych wprowadzane będą istotne zmiany dotyczące ich projektu lub przeznaczeniu. Należy wyjaśnić, że w tym względzie pojęcie istotnej zmiany należy rozumieć jako równoważne znaczeniowo z pojęciem istotnej zmiany, które stosuje się wyłącznie w odniesieniu do systemów AI wysokiego ryzyka zgodnie z niniejszym rozporządzeniem. W drodze wyjątku i z uwagi na odpowiedzialność publiczną, operatorzy systemów AI, które są elementami wielkoskalowych systemów informatycznych ustanowionych na mocy aktów prawnych wymienionych w załączniku do niniejszego rozporządzenia, oraz operatorzy systemów AI wysokiego ryzyka, które mają być wykorzystywane przez organy publiczne, powinni odpowiednio podjąć niezbędne kroki w celu spełnienia wymogów niniejszego rozporządzenia do końca 2030 r. i do dnia 2 sierpnia 2030 r.
(177)
Lai nodrošinātu juridisko noteiktību, nodrošinātu pienācīgu pielāgošanās laikposmu operatoriem un izvairītos no tirgus traucējumiem, tostarp nodrošinot MI sistēmu lietošanas nepārtrauktību, ir lietderīgi, ka šo regulu augsta riska MI sistēmām, kas laistas tirgū vai nodotas ekspluatācijā pirms tās vispārējās piemērošanas sākuma dienas, piemēro tikai tad, ja no minētā datuma šajās sistēmās notikušas būtiskas izmaiņas to uzbūvē vai to paredzētajā nolūkā. Ir lietderīgi precizēt, ka šajā sakarā jēdziens “būtiskas izmaiņas” būtu jāsaprot kā pēc būtības līdzvērtīgs jēdzienam “būtiska modifikācija”, ko izmanto tikai attiecībā uz augsta riska MI sistēmām, ievērojot šo regulu. Izņēmuma kārtā un ņemot vērā publisko pārskatatbildību, to MI sistēmu operatoriem, kas ir tādu lielapjoma IT sistēmu sastāvdaļas, kas izveidotas ar šīs regulas pielikumā uzskaitītajiem tiesību aktiem, un to augsta riska MI sistēmu operatoriem, ko paredzēts izmantot publiskajās iestādēs, būtu jāveic nepieciešamie pasākumi, lai izpildītu šīs regulas prasības līdz 2030. gada beigām un līdz 2030. gada 2. augustam.
(178)
Dostawców systemów AI wysokiego ryzyka zachęca się, by już w okresie przejściowym przystąpili do dobrowolnego spełniania odpowiednich obowiązków ustanowionych w niniejszym rozporządzeniu.
(178)
Augsta riska MI sistēmu nodrošinātāji tiek mudināti jau pārejas periodā brīvprātīgi sākt pildīt attiecīgos šajā regulā noteiktos pienākumus.
(179)
Niniejsze rozporządzenie należy stosować od dnia 2 sierpnia 2026 r. Biorąc jednak pod uwagę niedopuszczalne ryzyko związane z niektórymi sposobami wykorzystania AI, zakazy oraz przepisy ogólne niniejszego rozporządzenia należy stosować już od dnia 2 lutego 2025 r. Chociaż pełne skutki tych zakazów zrealizowane zostaną w momencie ustanowienia zarządzania i egzekwowania niniejszego rozporządzenia, wcześniejsze ich stosowanie jest ważne, by uwzględnić niedopuszczalne ryzyko i wywrzeć wpływ na inne procedury, np. w prawie cywilnym. Ponadto infrastruktura związana z zarządzaniem i systemem oceny zgodności powinna być gotowa przed dniem 2 sierpnia 2026 r., w związku z czym przepisy dotyczące jednostek notyfikowanych oraz struktury zarządzania należy stosować od dnia 2 sierpnia 2025 r. Biorąc pod uwagę szybkie tempo postępu technologicznego i przyjęcie modeli AI ogólnego przeznaczenia, obowiązki dostawców modeli AI ogólnego przeznaczenia należy stosować od dnia 2 sierpnia 2025 r. Kodeksy praktyk powinny być gotowe do dnia 2 maja 2025 r., tak aby umożliwić dostawcom terminowe wykazanie zgodności. Urząd ds. AI powinien zapewniać aktualność zasad i procedur klasyfikacji w świetle rozwoju technologicznego. Ponadto państwa członkowskie powinny ustanowić przepisy dotyczące kar, w tym administracyjnych kar pieniężnych i powiadomić o nich Komisję oraz zapewnić ich właściwe i skuteczne wdrożenie przed dniem rozpoczęcia stosowania niniejszego rozporządzenia. Przepisy dotyczące kar należy zatem stosować od dnia 2 sierpnia 2025 r.
(179)
Šī regula būtu jāpiemēro no 2026. gada 2. augusta. Tomēr, ņemot vērā nepieņemamo risku, kas zināmā mērā ir saistīts ar MI lietošanu, aizliegumi, kā arī šīs regulas vispārīgie noteikumi būtu jāpiemēro jau no 2025. gada 2. februāra. Lai gan minēto aizliegumu pilnīga ietekme izriet no šīs regulas pārvaldības un izpildes panākšanas, ir svarīgi paredzēt aizliegumu piemērošanu, lai ņemtu vērā nepieņemamus riskus un ietekmētu citas procedūras, piemēram, civiltiesību jomā. Turklāt ar pārvaldi un atbilstības novērtēšanu saistītajai infrastruktūrai būtu jāsāk darboties pirms 2026. gada 2. augusta, tāpēc noteikumi par paziņotajām struktūrām un pārvaldes struktūru būtu jāpiemēro no 2025. gada 2. augusta. Ņemot vērā straujo tempu, kādā attīstās tehnoloģijas un tiek pieņemti vispārīga lietojuma MI modeļi, pienākumi vispārīga lietojuma MI modeļu nodrošinātājiem būtu jāpiemēro no 2025. gada 2. augusta. Prakses kodeksiem vajadzētu būt gataviem līdz 2025. gada 2. maijam, lai nodrošinātāji varētu savlaicīgi apliecināt atbilstību. MI birojam būtu jānodrošina, ka klasificēšanas noteikumi un procedūras tiek atjauninātas, ņemot vērā tehnoloģiju attīstību. Turklāt dalībvalstīm būtu jānosaka noteikumi par sodiem, tostarp administratīviem naudas sodiem, un tie jāpaziņo Komisijai, un jānodrošina to pienācīga un efektīva īstenošana līdz šīs regulas piemērošanas sākuma dienai. Tāpēc noteikumi par sodiem būtu jāpiemēro no 2025. gada 2. augusta.
(180)
Zgodnie z art. 42 ust. 1 i 2 rozporządzenia (UE) 2018/1725 skonsultowano się z Europejskim Inspektorem Ochrony Danych i Europejską Radą Ochrony Danych, którzy wydali wspólną opinię dnia 18 czerwca 2021 r.,
(180)
Saskaņā ar Regulas (ES) 2018/1725 42. panta 1. un 2. punktu ir notikusi apspriešanās ar Eiropas Datu aizsardzības uzraudzītāju un Eiropas Datu aizsardzības kolēģiju, kas 2021. gada 18. jūnijā sniedza kopīgu atzinumu,
PRZYJMUJĄ NINIEJSZE ROZPORZĄDZENIE:
1. Niniejsze rozporządzenie stosuje się do:
a)
dostawców wprowadzających do obrotu lub oddających do użytku systemy AI lub wprowadzających do obrotu modele AI ogólnego przeznaczenia w Unii, niezależnie od tego, czy dostawcy ci mają siedzibę lub znajdują się w Unii czy w państwie trzecim;
a)
nodrošinātājiem, kas Savienībā laiž tirgū vai nodod ekspluatācijā MI sistēmas vai laiž tirgū vispārīga lietojuma MI modeļus, neatkarīgi no tā, vai minētie nodrošinātāji ir iedibināti vai atrodas Savienībā jeb vai trešā valstī;
b)
podmiotów stosujących systemy AI, które to podmioty mają siedzibę lub znajdują się w Unii;
b)
MI sistēmu uzturētājiem, kuru iedibinājuma vieta ir Savienībā vai kuri atrodas Savienībā;
c)
dostawców systemów AI i podmiotów stosujących systemy AI, którzy mają siedzibę lub znajdują się w państwie trzecim, w przypadku gdy wyniki wytworzone przez system AI są wykorzystywane w Unii;
c)
tādu MI sistēmu nodrošinātājiem un uzturētājiem, kuru iedibinājuma vieta ir vai kuri atrodas trešā valstī, ja MI sistēmas radīto iznākumu izmanto Savienībā;
d)
importerów i dystrybutorów systemów AI;
d)
MI sistēmu importētājiem un izplatītājiem;
e)
producentów produktu, którzy pod własną nazwą lub znakiem towarowym oraz wraz ze swoim produktem wprowadzają do obrotu lub oddają do użytku system AI;
e)
produktu ražotājiem, kas laiž tirgū vai nodod ekspluatācijā MI sistēmu kopā ar savu produktu un ar savu nosaukumu vai preču zīmi;
f)
upoważnionych przedstawicieli dostawców niemających siedziby w Unii;
f)
nodrošinātāju pilnvarotiem pārstāvjiem, kuri nav iedibināti Savienībā;
g)
osób, na które AI ma wpływ i które znajdują się w Unii.
g)
skartajām personām, kas atrodas Savienībā.
2. W przypadku systemów AI zaklasyfikowanych jako systemy AI wysokiego ryzyka zgodnie z art. 6 ust. 1 związanych z produktami, które są objęte unijnym prawodawstwem harmonizacyjnym wymienionym w załączniku I sekcja B, stosuje się wyłącznie art. 6 ust. 1, art. 102–109 i art. 112. Art. 57 stosuje się wyłącznie w zakresie, w jakim wymogi dotyczące systemów AI wysokiego ryzyka ustanowione w niniejszym rozporządzeniu zostały włączone do tego unijnego prawodawstwa harmonizacyjnego.
2. MI sistēmām, kas klasificētas kā augsta riska MI sistēmas saskaņā ar 6. panta 1. punktu saistībā ar produktiem, uz kuriem attiecas I pielikuma B iedaļā minētie Savienības saskaņošanas tiesību akti, piemēro tikai 6. panta 1. punktu, 102. līdz 109. pantu un 112. pantu. Regulas 57. pantu piemēro tikai tiktāl, ciktāl šajā regulā paredzētās prasības augsta riska MI sistēmām ir integrētas minētajos Savienības saskaņošanas tiesību aktos.
3. Niniejszego rozporządzenia nie stosuje się do obszarów wykraczających poza zakres stosowania prawa Unii i w żadnym wypadku nie wpływa ono na kompetencje państw członkowskich w zakresie bezpieczeństwa narodowego, niezależnie od rodzaju podmiotu, któremu państwa członkowskie powierzyły wykonywanie zadań związanych z tymi kompetencjami.
3. Šī regula neattiecas uz jomām, kas ir ārpus Savienības tiesību tvēruma, un tā jebkurā gadījumā neietekmē dalībvalstu kompetences attiecībā uz valsts drošību neatkarīgi no tā, kāda veida vienībai dalībvalstis ir uzticējušas veikt uzdevumus saistībā ar minētajām kompetencēm.
Niniejszego rozporządzenia nie stosuje się do systemów AI, jeżeli – i w zakresie, w jakim – wprowadzono je do obrotu, oddano do użytku lub są one wykorzystywane, ze zmianami lub bez zmian, wyłącznie do celów wojskowych, obronnych lub do celów bezpieczeństwa narodowego, niezależnie od rodzaju podmiotu prowadzącego te działania.
Šī regula neattiecas uz MI sistēmām, ja un ciktāl tās tiek laistas tirgū, nodotas ekspluatācijā vai izmantotas ar modifikāciju vai bez tās vienīgi militāros, aizsardzības vai valsts drošības nolūkos, neatkarīgi no tā, kāda veida vienība veic minētās darbības.
Niniejszego rozporządzenia nie stosuje się do systemów AI, które nie zostały wprowadzone do obrotu ani oddane do użytku w Unii, a których wyniki są wykorzystywane w Unii wyłącznie do celów wojskowych, obronnych lub de celów bezpieczeństwa narodowego, niezależnie od rodzaju podmiotu prowadzącego te działania.
Šī regula neattiecas uz MI sistēmām, kuras netiek laistas tirgū vai nodotas ekspluatācijā Savienībā, ja iznākumu Savienībā izmanto vienīgi militāros, aizsardzības vai valsts drošības nolūkos, neatkarīgi no tā, kāda veida vienība veic minētās darbības.
4. Niniejszego rozporządzenia nie stosuje się do organów publicznych w państwie trzecim ani do organizacji międzynarodowych objętych zakresem stosowania niniejszego rozporządzenia na podstawie ust. 1, jeżeli te organy lub organizacje wykorzystują systemy AI w ramach współpracy międzynarodowej lub umów międzynarodowych w sprawie ścigania przestępstw i współpracy sądowej zawartych z Unią lub z jednym państwem członkowskim bądź ich większą liczbą, pod warunkiem zapewnienia przez to państwo trzecie lub organizację międzynarodową odpowiednich zabezpieczeń w odniesieniu do ochrony podstawowych praw i wolności osób fizycznych.
4. Šī regula neattiecas ne uz publiskām iestādēm trešā valstī, ne starptautiskām organizācijām, kas ir šīs regulas piemērošanas jomā, ievērojot 1. punktu, ja minētās iestādes vai organizācijas izmanto MI sistēmas starptautiskās sadarbības vai nolīgumu ietvaros par tiesībaizsardzības un tiesu iestāžu sadarbību ar Savienību vai ar vienu vai vairākām dalībvalstīm, ar noteikumu, ka šāda trešā valsts vai starptautiskā organizācija sniedz pietiekamas garantijas attiecībā uz indivīdu pamattiesību un pamatbrīvību aizsardzību.
5. Niniejsze rozporządzenie nie ma wpływu na stosowanie przepisów dotyczących odpowiedzialności dostawców usług pośrednich określonych w rozdziale II rozporządzenia (UE) 2022/2065.
5. Šī regula neietekmē to noteikumu piemērošanu, kuri attiecas uz starpnieku pakalpojumu sniedzēju atbildību, kā paredzēts Regulas (ES) 2022/2065 II nodaļā.
6. Niniejszego rozporządzenia nie stosuje się do systemów AI lub modeli AI, w tym ich wyników, rozwiniętych i oddanych do użytku wyłącznie do celów badań naukowych i rozwojowych.
6. Šī regula neattiecas uz MI sistēmām vai MI modeļiem, tostarp to radīto iznākumu, kas konkrēti izstrādāti un nodoti ekspluatācijā vienīgi zinātniskās pētniecības un izstrādes nolūkā.
7. Prawo Unii w zakresie ochrony danych osobowych, prywatności i poufności komunikacji stosuje się do danych osobowych przetwarzanych w związku z prawami i obowiązkami ustanowionymi w niniejszym rozporządzeniu. Niniejsze rozporządzenie nie ma wpływu na rozporządzenia (UE) 2016/679 lub (UE) 2018/1725, ani na dyrektywy 2002/58/WE lub (UE) 2016/680, bez uszczerbku dla art. 10 ust. 5 i art. 59 niniejszego rozporządzenia.
7. Personas datiem, ko apstrādā saistībā ar šajā regulā noteiktajām tiesībām un pienākumiem, piemēro Savienības tiesību aktus personas datu aizsardzības, privātuma un sakaru konfidencialitātes jomā. Šī regula neietekmē Regulu (ES) 2016/679 vai (ES) 2018/1725, vai Direktīvu 2002/58/EK vai (ES) 2016/680, neskarot šīs regulas 10. panta 5. punktu un 59. pantu.
8. Niniejszego rozporządzenia nie stosuje się do żadnej działalności badawczej, testowej ani rozwojowej dotyczącej systemów AI lub modeli AI przed wprowadzeniem ich do obrotu lub oddaniem ich do użytku. Działalność tego rodzaju prowadzona jest zgodnie z mającym zastosowanie prawem Unii. Niniejsze wyłączenie nie obejmuje testów w warunkach rzeczywistych.
8. Šī regula neattiecas uz pētniecības, testēšanas vai izstrādes darbībām, kas saistītas ar MI sistēmām vai MI modeļiem pirms to laišanas tirgū vai nodošanas ekspluatācijā. Šādas darbības veic saskaņā ar piemērojamiem Savienības tiesību aktiem. Minētā izslēgšana neattiecas uz testēšanu reālos apstākļos.
9. Niniejsze rozporządzenie nie narusza przepisów ustanowionych w innych aktach prawnych Unii dotyczących ochrony konsumentów i bezpieczeństwa produktów.
9. Šī regula neskar noteikumus, kas paredzēti citos Savienības tiesību aktos, kuri saistīti ar patērētāju aizsardzību un produktu drošumu.
10. Niniejsze rozporządzenie nie stosuje się do obowiązków podmiotów stosujących będących osobami fizycznymi, które korzystają z systemów AI w ramach czysto osobistej działalności pozazawodowej.
10. Šī regula neattiecas uz tādu uzturētāju pienākumiem, kuri ir fiziskas personas, kas MI sistēmas izmanto tikai personiskas neprofesionālas darbības veikšanai.
11. Niniejsze rozporządzenie nie uniemożliwia Unii ani państwom członkowskim utrzymywania lub wprowadzania przepisów ustawowych, wykonawczych lub administracyjnych, które są korzystniejsze dla pracowników pod względem ochrony ich praw w odniesieniu do korzystania z systemów AI przez pracodawców, ani zachęcania do stosowania korzystniejszych dla pracowników układów zbiorowych lub zezwalania na ich stosowanie.
11. Šī regula neliedz Savienībai vai dalībvalstīm saglabāt vai ieviest tiesību aktus, noteikumus vai administratīvas normas, kas ir labvēlīgākas pret darba ņēmējiem viņu tiesību aizsardzības ziņā attiecībā uz situācijām, kad darba devējs izmanto MI sistēmas, vai veicināt vai atļaut darba ņēmējiem izdevīgāku koplīgumu piemērošanu.
12. Niniejszego rozporządzenia nie stosuje się do systemów AI udostępnianych na podstawie bezpłatnych licencji otwartego oprogramowania, chyba że systemy te są wprowadzane do obrotu lub oddawane do użytku jako systemy AI wysokiego ryzyka lub jako system AI objęty art. 5 lub 50.
12. Šī regula neattiecas uz MI sistēmām, kas laistas apgrozībā ar bezmaksas un atklātā pirmkoda licencēm, ja vien tās netiek laistas tirgū vai nodotas ekspluatācijā kā augsta riska MI sistēmas vai kā MI sistēma, uz kuru attiecas 5. vai 50. pants.
Zakazane praktyki w zakresie AI
1. Zakazuje się następujących praktyk w zakresie AI:
1. Ir aizliegta šāda MI prakse:
a)
wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemu AI, który stosuje techniki podprogowe będące poza świadomością danej osoby lub celowe techniki manipulacyjne lub wprowadzające w błąd, czego celem lub skutkiem jest dokonanie znaczącej zmiany zachowania danej osoby lub grupy osób poprzez znaczące ograniczenie ich zdolności do podejmowania świadomych decyzji, powodując tym samym podjęcie przez nie decyzji, której inaczej by nie podjęły, w sposób, który wyrządza lub może wyrządzić u niej, u innej osoby lub u grupy osób poważną szkodę;
a)
tādas MI sistēmas laišana tirgū, nodošana ekspluatācijā vai lietošana, kas izmanto cilvēka neapzinātus subliminālus paņēmienus vai tīši manipulatīvus vai maldinošus paņēmienus, kuru mērķis ir būtiski iespaidot personas vai personu grupas uzvedību vai kuriem ir tādas sekas, kas ievērojami pasliktina viņu spēju pieņemt informētu lēmumu, tādējādi liekot tām pieņemt lēmumu, ko tās citādi nebūtu pieņēmušas, tādā veidā, kas šai personai, citai personai vai personu grupai rada vai pamatoti ticami radīs būtisku kaitējumu;
b)
wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemu AI, który wykorzystuje słabości osoby fizycznej lub określonej grupy osób ze względu na ich wiek, niepełnosprawność lub szczególną sytuację społeczną lub ekonomiczną, którego celem lub skutkiem jest dokonanie znaczącej zmiany zachowania danej osoby lub osoby należącej do tej grupy w sposób, który wyrządza lub może z uzasadnionym prawdopodobieństwem wyrządzić u tej osoby lub u innej osoby poważną szkodę;
b)
tādas MI sistēmas laišana tirgū, nodošana ekspluatācijā vai lietošana, kura izmanto kādu no kādas fiziskas personas vai konkrētas personu grupas neaizsargātības iezīmēm viņu vecuma, invaliditātes vai konkrētas sociālās vai ekonomiskās situācijas dēļ un kuras mērķis vai sekas ir minētās personas vai minētajai grupai piederīgas personas uzvedības būtiska iespaidošana tādā veidā, kas attiecīgajai personai vai citai personai rada vai ir saprātīgi iespējams, ka radīs būtisku kaitējumu;
c)
wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemów AI na potrzeby oceny lub klasyfikacji osób fizycznych lub grup osób prowadzonej przez określony czas na podstawie ich zachowania społecznego lub znanych, wywnioskowanych lub przewidywanych cech osobistych lub cech osobowości, kiedy to scoring społeczny prowadzi do jednego lub obu z następujących skutków:
c)
MI sistēmu laišana tirgū, nodošana ekspluatācijā vai lietošana nolūkā izvērtēt vai klasificēt fiziskas personas vai personu grupas noteiktā laikposmā, pamatojoties uz viņu sociālo uzvedību vai zināmām, izsecinātām vai prognozētām personas vai personības īpašībām, ja sociālais novērtējums ved pie viena vai abiem šādiem iznākumiem:
(i)
krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub grup osób w kontekstach społecznych, które nie są związane z kontekstami, w których pierwotnie wygenerowano lub zebrano dane;
i)
kaitējoša vai nelabvēlīga attieksme pret dažām fiziskām personām vai personu grupām sociālos kontekstos, kas nav saistīti ar kontekstiem, kuros dati tika sākotnēji ģenerēti vai savākti;
(ii)
krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub grup osób, które jest nieuzasadnione lub nieproporcjonalne do ich zachowania społecznego lub jego wagi;
ii)
kaitējoša vai nelabvēlīga attieksme pret dažām fiziskām personām vai personu grupām, kas nav pamatota vai nav samērīga ar viņu sociālo uzvedību vai tās smagumu;
d)
wprowadzania do obrotu, oddawania do użytku w tym konkretnym celu lub wykorzystywania systemu AI do przeprowadzania ocen ryzyka w odniesieniu do osób fizycznych, by ocenić lub przewidzieć ryzyko popełnienia przestępstwa przez osobę fizyczną, wyłącznie na podstawie profilowania osoby fizycznej lub oceny jej cech osobowości i cech charakterystycznych; zakaz ten nie ma zastosowania do systemów AI wykorzystywanych do wspierania dokonywanej przez człowieka oceny udziału danej osoby w działalności przestępczej, która to ocena opiera się już na obiektywnych i weryfikowalnych faktach bezpośrednio związanych z działalnością przestępczą;
d)
MI sistēmas laišana tirgū, nodošana ekspluatācijā šim konkrētajam mērķim vai lietošana fizisku personu radītā riska novērtējuma veikšanai, lai novērtētu vai prognozētu risku, ka fiziska persona varētu izdarīt noziedzīgu nodarījumu, kura balstās vienīgi uz fiziskas personas profilēšanu vai uz tās personisko īpašību un rakstura iezīmju novērtēšanu; šo aizliegumu nepiemēro MI sistēmām, kuras izmanto, lai atbalstītu cilvēka veiktu novērtējumu par personas iesaistīšanos noziedzīgā darbībā, kurš jau ir balstīts uz objektīviem un pārbaudāmiem faktiem, kas ir tieši saistīti ar noziedzīgu darbību;
e)
wprowadzania do obrotu, oddawania do użytku w tym konkretnym celu lub wykorzystywania systemów AI, które tworzą lub rozbudowują bazy danych służące rozpoznawaniu twarzy poprzez nieukierunkowane pozyskiwanie (ang. untargeted scraping) wizerunków twarzy z internetu lub nagrań z telewizji przemysłowej;
e)
tādu MI sistēmu laišana tirgū, nodošana ekspluatācijā šim konkrētajam mērķim vai lietošana, kuras izveido vai paplašina sejas atpazīšanas datubāzes, nemērķorientēti rasmojot sejas attēlus no interneta vai videonovērošanas sistēmu video;
f)
wprowadzania do obrotu, oddawania do użytku w tym konkretnym celu lub wykorzystywania systemów AI do wyciągania wniosków na temat emocji osoby fizycznej w miejscu pracy lub instytucjach edukacyjnych, z wyjątkiem przypadków, w których system AI ma zostać wdrożony lub wprowadzony do obrotu ze względów medycznych lub bezpieczeństwa;
f)
MI sistēmu laišana tirgū, nodošana ekspluatācijā šim konkrētajam mērķim vai lietošana fiziskas personas emociju izsecināšanai darbavietā vai izglītības iestādēs, izņemot tad, ja MI sistēmas izmantošanu paredzēts ieviest vai laist tirgū medicīnisku vai drošības iemeslu dēļ;
g)
wprowadzania do obrotu, oddawania do użytku w tym konkretnym celu lub wykorzystywania systemów kategoryzacji biometrycznej, które indywidualnie kategoryzują osoby fizyczne w oparciu o ich dane biometryczne, by wydedukować lub wywnioskować informacje na temat ich rasy, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych lub światopoglądowych, seksualności lub orientacji seksualnej; zakaz ten nie obejmuje przypadków etykietowania ani filtrowania pozyskanych zgodnie z prawem zbiorów danych biometrycznych, takich jak obrazy, w oparciu o dane biometryczne, ani kategoryzacji danych biometrycznych w obszarze ścigania przestępstw;
g)
tādu biometriskās kategorizācijas sistēmu laišana tirgū vai nodošana ekspluatācijā, vai lietošana, kuras individuāli kategorizē fiziskas personas, pamatojoties uz viņu biometriskajiem datiem, lai atvedinātu vai izsecinātu viņu rasi, politiskos uzskatus, dalību arodbiedrībās, reliģiskos vai filozofiskos uzskatus, dzimumdzīvi vai seksuālo orientāciju; šis aizliegums neattiecas uz likumīgi iegūtu biometrisko datu kopu, piemēram, attēlu, marķēšanu vai filtrēšanu, pamatojoties uz biometriskajiem datiem, vai biometrisko datu kategorizēšanu tiesībaizsardzības jomā;
h)
wykorzystywania systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw, chyba że – i w zakresie, w jakim – takie wykorzystanie jest bezwzględnie konieczne do jednego z następujących celów:
h)
reāllaika biometriskās tālidentifikācijas sistēmu izmantošana publiski piekļūstamās vietās tiesībaizsardzības nolūkos, izņemot tad, ja – un tiktāl, cik – tāda izmantošana ir absolūti nepieciešama kādam no šiem mērķiem:
(i)
ukierunkowanego poszukiwania konkretnych ofiar uprowadzeń, handlu ludźmi lub wykorzystywania seksualnego ludzi, a także poszukiwania osób zaginionych;
i)
konkrētu nolaupīšanas, cilvēku tirdzniecības vai cilvēku seksuālas izmantošanas upuru mērķtiecīga meklēšana, kā arī bezvēsts pazudušu personu meklēšana;
(ii)
zapobiegnięcia konkretnemu, istotnemu i bezpośredniemu zagrożeniu życia lub bezpieczeństwa fizycznego osób fizycznych lub rzeczywistemu i aktualnemu lub rzeczywistemu i dającemu się przewidzieć zagrożeniu atakiem terrorystycznym;
ii)
konkrēta, būtiska un nenovēršama apdraudējuma fizisku personu dzīvībai vai fiziskai drošībai vai reālu un pašreizēju vai reālu un paredzamu teroristu uzbrukuma draudu novēršana;
(iii)
lokalizowania lub identyfikowania osoby podejrzanej o popełnienie przestępstwa w celu prowadzenia postępowania przygotowawczego lub ścigania lub wykonania kar w odniesieniu do przestępstw, o których mowa w załączniku II, podlegających w danym państwie członkowskim karze pozbawienia wolności lub środkowi polegającemu na pozbawieniu wolności przez okres, którego górna granica wynosi co najmniej cztery lata.
iii)
par noziedzīga nodarījuma izdarīšanu aizdomās turētas personas atrašanās vietas noteikšana vai personas identificēšana nolūkā veikt kriminālizmeklēšanu vai kriminālvajāšanu vai kriminālsoda izpildi par II pielikumā minētajiem nodarījumiem, par kuriem attiecīgajā dalībvalstī var piemērot brīvības atņemšanas sodu vai ar brīvības atņemšanu saistītu drošības līdzekli, kura maksimālais ilgums ir vismaz četri gadi.
Akapit pierwszy lit. h) pozostaje bez uszczerbku dla art. 9 rozporządzenia (UE) 2016/679 w odniesieniu do przetwarzania danych biometrycznych do celów innych niż ściganie przestępstw.
Pirmās daļas h) punkts neskar Regulas (ES) 2016/679 9. pantu attiecībā uz biometrisko datu apstrādi nolūkos, kas nav tiesībaizsardzība.
2. Systemy zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw w odniesieniu do któregokolwiek z celów, o których mowa w ust. 1 akapit pierwszy lit. h), mogą być wykorzystywane do celów określonych w tej literze, jedynie w celu potwierdzenia tożsamości konkretnej poszukiwanej osoby, z uwzględnieniem przy tym następujących elementów:
2. Reāllaika biometriskās tālidentifikācijas sistēmu lietošanu publiski piekļūstamās vietās tiesībaizsardzības nolūkos ar kādu no 1. punkta pirmās daļas h) apakšpunktā minētajiem mērķiem ievieš minētajā punktā noteiktajos nolūkos, lai apstiprinātu konkrētas personas identitāti, un tajā ņem vērā šādus elementus:
a)
charakter sytuacji powodującej konieczność ewentualnego wykorzystania takiego systemu, w szczególności powagę, prawdopodobieństwo i skalę szkody, która zostałaby wyrządzona w przypadku niewykorzystania tego systemu;
a)
tās situācijas raksturs, kuras dēļ var notikt tāda lietošana, jo īpaši tā kaitējuma smagums, iespējamība un apmērs, kas tiktu radīts, ja sistēma netiktu lietota;
b)
konsekwencje wykorzystania takiego systemu dla praw i wolności wszystkich zainteresowanych osób, w szczególności powagę, prawdopodobieństwo i skalę tych konsekwencji.
b)
sistēmas lietošanas sekas attiecībā uz visu attiecīgo personu tiesībām un brīvībām, jo īpaši minēto seku smagums, iespējamība un apmērs.
Ponadto wykorzystywanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw w odniesieniu do któregokolwiek z celów, o których mowa w ust. 1 akapit pierwszy lit. h) niniejszego artykułu, musi przebiegać z zachowaniem niezbędnych i proporcjonalnych zabezpieczeń i warunków w odniesieniu do takiego wykorzystywania zgodnie z zezwalającym na takie wykorzystanie prawem krajowym, w szczególności w odniesieniu do ograniczeń czasowych, geograficznych i osobowych. Wykorzystanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej jest dozwolone tylko wtedy, gdy organ ścigania przeprowadził ocenę skutków dla praw podstawowych zgodnie z art. 27 oraz zarejestrował system w bazie danych UE zgodnie z przepisami art. 49. W należycie uzasadnionych nadzwyczajnych przypadkach można jednak rozpocząć korzystanie z takich systemów bez rejestracji w bazie danych UE, pod warunkiem że taka rejestracja zostanie dokonana bez zbędnej zwłoki.
Turklāt reāllaika biometriskās tālidentifikācijas sistēmu lietošana publiski piekļūstamās vietās tiesībaizsardzības nolūkos šā panta 1. punkta pirmās daļas h) apakšpunktā minētajiem mērķiem atbilst nepieciešamiem un samērīgiem aizsardzības pasākumiem un nosacījumiem attiecībā uz lietošanu saskaņā ar valsts tiesību aktiem, kuri atļauj to lietošanu, jo īpaši laika, ģeogrāfisku un personisku ierobežojumu ziņā. Reāllaika biometriskās tālidentifikācijas sistēmu lietošanu publiski piekļūstamās vietās atļauj vienīgi tad, ja tiesībaizsardzības iestāde ir pabeigusi 27. pantā paredzēto novērtējumu par ietekmi uz pamattiesībām un ir reģistrējusi sistēmu ES datubāzē saskaņā ar 49. pantu. Tomēr pienācīgi pamatotos steidzamos gadījumos šādu sistēmu lietošanu var sākt bez reģistrācijas ES datubāzē ar noteikumu, ka šāda reģistrācija tiek pabeigta bez liekas kavēšanās.
3. Na potrzeby ust. 1 akapit pierwszy lit. h) i ust. 2, każde wykorzystanie systemu zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw wymaga uzyskania uprzedniego zezwolenia udzielonego przez organ wymiaru sprawiedliwości lub wydający wiążące decyzje niezależny organ administracyjny państwa członkowskiego, w którym ma nastąpić wykorzystanie; zezwolenie to wydawane jest na uzasadniony wniosek i zgodnie ze szczegółowymi przepisami prawa krajowego, o których mowa w ust. 5. W należycie uzasadnionych pilnych przypadkach korzystanie z takiego systemu można jednak rozpocząć bez zezwolenia, pod warunkiem że wniosek o takie zezwolenie zostanie złożony bez zbędnej zwłoki, najpóźniej w ciągu 24 godzin. W przypadku odmowy udzielenia takiego zezwolenia wykorzystywanie systemu wstrzymuje się ze skutkiem natychmiastowym, a wszystkie dane, a także rezultaty i wyniki uzyskane podczas tego wykorzystania musza zostać natychmiast odrzucone i usunięte.
3. Šā panta 1. punkta pirmās daļas h) apakšpunkta un 2. punkta nolūkos katrai reāllaika biometriskās tālidentifikācijas sistēmas lietošanai tiesībaizsardzības nolūkos publiski piekļūstamās vietās ir nepieciešama iepriekšēja atļauja, ko izsniegusi tiesu iestāde vai neatkarīga administratīva iestāde, kuras lēmums ir saistošs, tajā dalībvalstī, kurā šo sistēmu paredzēts lietot, un kas izsniegta pēc pamatota pieprasījuma un saskaņā ar sīki izstrādātiem valsts tiesību aktu noteikumiem, kas minēti 5. punktā. Tomēr pienācīgi pamatotā steidzamā gadījumā šādas sistēmas lietošanu var sākt bez atļaujas ar noteikumu, ka šādu atļauju pieprasa bez liekas kavēšanās ne vēlāk kā 24 stundu laikā. Ja šāda atļauja netiek piešķirta, lietošanu nekavējoties pārtrauc un visus datus, kā arī tādas lietošanas rezultātus un iznākumus nekavējoties atmet un dzēš.
Właściwy organ wymiaru sprawiedliwości lub wydający wiążące decyzje niezależny organ administracyjny udziela zezwolenia tylko wtedy, gdy jest przekonany, na podstawie obiektywnych dowodów lub jasnych przesłanek, które mu przedstawiono, że wykorzystanie danego systemu zdalnej identyfikacji biometrycznej w czasie rzeczywistym jest konieczne i proporcjonalne do osiągnięcia jednego z celów określonych w ust. 1 akapit pierwszy lit. h), wskazanego we wniosku, a w szczególności ogranicza się do tego, co jest bezwzględnie konieczne w odniesieniu do przedziału czasowego, a także zakresu geograficznego i podmiotowego. Podejmując decyzję w sprawie wniosku organ ten bierze pod uwagę elementy, o których mowa w ust. 2. Nie można wydać decyzji wywołującej niepożądane skutki prawne dla danej osoby wyłącznie na podstawie wyników uzyskanych z systemu zdalnej identyfikacji biometrycznej w czasie rzeczywistym.
Kompetentā tiesu iestāde vai neatkarīga administratīvā iestāde, kuras lēmums ir saistošs, piešķir atļauju tikai tad, ja, pamatojoties uz tai iesniegtiem objektīviem pierādījumiem vai skaidrām norādēm, tā atzīst, ka attiecīgās reāllaika biometriskās tālidentifikācijas sistēmas lietošana ir nepieciešama un samērīga, lai sasniegtu vienu no 1. punkta pirmās daļas h) apakšpunktā noteiktajiem mērķiem, kas norādīts pieprasījumā, un jo īpaši tā notiek tikai tiktāl, cik tas absolūti nepieciešams laikposma, kā arī ģeogrāfiskā un personiskā tvēruma ziņā. Lemjot par pieprasījumu, minētā iestāde ņem vērā 2. punktā minētos elementus. Nevienu lēmumu, kas personai rada nelabvēlīgas tiesiskas sekas, nevar pieņemt, balstoties vienīgi uz reāllaika biometriskās tālidentifikācijas sistēmu sniegto iznākumu.
4. Bez uszczerbku dla ust. 3, o każdym wykorzystaniu systemu zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw powiadamia się właściwy organ nadzoru rynku i krajowy organ ochrony danych zgodnie z przepisami prawa krajowego, o których mowa w ust. 5. Powiadomienie zawiera co najmniej informacje określone w ust. 6 i nie może zawierać wrażliwych danych operacyjnych.
4. Neskarot 3. punktu, par katru reāllaika biometriskās tālidentifikācijas sistēmas lietošanu publiski piekļūstamās vietās tiesībaizsardzības nolūkos paziņo attiecīgajai tirgus uzraudzības iestādei un valsts datu aizsardzības iestādei saskaņā ar 5. punktā minētajiem valsts tiesību aktu noteikumiem. Paziņojumā iekļauj vismaz 6. punktā norādīto informāciju, un tajā neiekļauj sensitīvus operatīvos datus.
5. Państwo członkowskie może podjąć decyzję o wprowadzeniu możliwości pełnego lub częściowego zezwolenia na wykorzystywanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw w granicach i na warunkach wymienionych w ust. 1 akapit pierwszy lit. h) i w ust. 2 i 3. Zainteresowane państwa członkowskie ustanawiają w swoim prawie krajowym niezbędne szczegółowe przepisy dotyczące wniosku o udzielenie zezwoleń, o których mowa w ust. 3, wydawanie i wykonywanie tych zezwoleń oraz ich nadzorowanie składanie sprawozdań w ich sprawie. W przepisach tych określa się również, w odniesieniu do których celów wymienionych w ust. 1 akapit pierwszy lit. h) – w tym w odniesieniu do których przestępstw wymienionych w ust. 1 akapit pierwszy lit. h) ppkt (iii) – właściwe organy mogą uzyskać zezwolenie na wykorzystanie tych systemów do celów celu ścigania przestępstw. Państwa członkowskie powiadamiają Komisję o tych przepisach najpóźniej 30 dni po ich przyjęciu. Państwa członkowskie mogą wprowadzić, zgodnie z prawem Unii, bardziej restrykcyjne przepisy dotyczące wykorzystania systemów zdalnej identyfikacji biometrycznej.
5. Dalībvalsts var nolemt paredzēt iespēju pilnīgi vai daļēji atļaut reāllaika biometriskās tālidentifikācijas sistēmu izmantošanu publiski piekļūstamās vietās tiesībaizsardzības nolūkos, ievērojot ierobežojumus un nosacījumus, kas uzskaitīti 1. punkta pirmās daļas h) apakšpunktā un 2. un 3. punktā. Attiecīgās dalībvalstis savos tiesību aktos nosaka vajadzīgos sīki izstrādātos noteikumus par 3. punktā minēto atļauju pieprasīšanu, izsniegšanu un izmantošanu, kā arī ar tām saistīto attiecīgo uzraudzību un ziņošanu. Minētajos noteikumos arī norāda, attiecībā uz kuriem no 1. punkta pirmās daļas h) apakšpunktā uzskaitītajiem mērķiem – tostarp kuru minētā punkta h) apakšpunkta iii) punktā norādīto noziedzīgo nodarījumu gadījumā – kompetentajām iestādēm var atļaut minētās sistēmas lietot tiesībaizsardzības nolūkos. Dalībvalstis minētos noteikumus paziņo Komisijai ne vēlāk kā 30 dienas pēc to pieņemšanas. Dalībvalstis saskaņā ar Savienības tiesību aktiem var ieviest ierobežojošākus tiesību aktus par biometriskās tālidentifikācijas sistēmu lietošanu.
6. Krajowe organy nadzoru rynku i krajowe organy ochrony danych państw członkowskich, które zostały powiadomione o wykorzystaniu systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw zgodnie z ust. 4, przedkładają Komisji roczne sprawozdania z takiego wykorzystania. W tym celu Komisja przekazuje państwom członkowskim i krajowym organom nadzoru rynku i organom ochrony danych wzór formularza zawierającego informacje na temat liczby decyzji podjętych przez właściwe organy wymiaru sprawiedliwości lub wydający wiążące decyzje niezależny organ administracyjny w odniesieniu do wniosków o udzielenie zezwolenia zgodnie z ust. 3 oraz wyników ich rozpatrzenia.
6. Dalībvalstu valsts tirgus uzraudzības iestādes un valsts datu aizsardzības iestādes, kurām ir paziņots par reāllaika biometriskās tālidentifikācijas sistēmas lietošanu publiski piekļūstamās vietās tiesībaizsardzības nolūkos, ievērojot 4. punktu, iesniedz Komisijai gada ziņojumus par šādu lietošanu. Minētajā nolūkā Komisija nodrošina dalībvalstīm un valsts tirgus uzraudzības un datu aizsardzības iestādēm veidni, kurā ietver informāciju par to lēmumu skaitu, kurus attiecībā uz atļaujas pieprasījumiem saskaņā ar 3. punktu pieņēmušas kompetentās tiesu iestādes vai neatkarīga administratīvā iestāde, kuras lēmumi ir saistoši, un par to rezultātiem.
7. Komisja publikuje roczne sprawozdania na temat wykorzystania systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw, oparte na zagregowanych danych w państwach członkowskich przekazanych w sprawozdaniach rocznych, o których mowa w ust. 6. Te sprawozdania roczne nie mogą zawierać wrażliwych danych operacyjnych dotyczących powiązanych działań w zakresie ścigania przestępstw.
7. Komisija publicē gada ziņojumus par reāllaika biometriskās tālidentifikācijas sistēmas lietošanu publiski piekļūstamās vietās tiesībaizsardzības nolūkos, pamatojoties uz dalībvalstīs agregētiem datiem, kas balstīti uz 6. punktā minētajiem gada ziņojumiem. Minētie gada ziņojumi neietver sensitīvus operatīvos datus par saistītajām tiesībaizsardzības darbībām.
8. Niniejszy artykuł nie ma wpływu na zakazy mające zastosowanie w przypadku, gdy praktyka w zakresie AI narusza inne przepisy prawa Unii.
8. Šis pants neietekmē aizliegumus, ko piemēro, ja MI prakse pārkāpj citus Savienības tiesību aktus.
Zasady klasyfikacji systemów AI wysokiego ryzyka
Noteikumi klasificēšanai par augsta riska MI sistēmām
1. Bez względu na to, czy system AI wprowadza się do obrotu lub oddaje do użytku niezależnie od produktów, o których mowa w lit. a) i b), taki system AI uznaje się za system wysokiego ryzyka, jeżeli spełnione są oba poniższe warunki:
1. Neatkarīgi no tā, vai MI sistēmu laiž tirgū vai nodod ekspluatācijā neatkarīgi no a) un b) apakšpunktā minētajiem produktiem, minēto MI sistēmu uzskata par augsta riska sistēmu, ja ir izpildīti abi šie nosacījumi:
a)
system AI jest przeznaczony do wykorzystania jako związany z bezpieczeństwem element produktu objętego unijnym prawodawstwem harmonizacyjnym wymienionym w załączniku I lub sam system AI jest takim produktem;
a)
MI sistēmu paredzēts izmantot kā produkta drošības sastāvdaļu, vai MI sistēma pati par sevi ir produkts, uz kuru attiecas Savienības saskaņošanas tiesību akti, kas uzskaitīti I pielikumā;
b)
produkt, którego związanym z bezpieczeństwem elementem jest zgodnie z lit. a) system AI, lub sam system AI jako produkt podlegają – na podstawie unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I – ocenie zgodności przez stronę trzecią w związku z wprowadzeniem tego produktu do obrotu lub oddaniem go do użytku.
b)
produktam, kura drošības sastāvdaļa, ievērojot a) apakšpunktu, ir MI sistēma, vai pašai MI sistēmai kā produktam ir vajadzīgs trešās personas veikts atbilstības novērtējums, lai to varētu laist tirgū vai nodot ekspluatācijā saskaņā ar Savienības saskaņošanas tiesību aktiem, kas uzskaitīti I pielikumā.
2. Oprócz systemów AI wysokiego ryzyka, o których mowa w ust. 1, za systemy wysokiego ryzyka uznaje się systemy AI, o których mowa w załączniku III.
2. Papildus 1. punktā minētajām augsta riska MI sistēmām par augsta riska sistēmām uzskata III pielikumā minētās MI sistēmas.
3. Na zasadzie odstępstwa od ust. 2 systemu AI, o którym mowa w załączniku III, nie uznaje się za system wysokiego ryzyka, w przypadku gdy nie stwarza on znaczącego ryzyka szkody dla zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych, w tym poprzez brak znaczącego wpływu na wynik procesu decyzyjnego.
3. Atkāpjoties no 2. punkta, III pielikumā minēto MI sistēmu neuzskata par augsta riska sistēmu, ja tā nerada būtisku kaitējuma risku fizisku personu veselībai, drošībai vai pamattiesībām, tostarp būtiski neietekmē lēmumu pieņemšanas iznākumu.
Akapit pierwszy stosuje się w przypadku, gdy spełniony jest którykolwiek z następujących warunków:
Pirmo daļu piemēro, ja ir izpildīts jebkurš no šādiem nosacījumiem:
a)
system AI jest przeznaczony do wykonywania wąsko określonego zadania proceduralnego;
a)
MI sistēma ir paredzēta šaura procedūras uzdevuma veikšanai;
b)
system AI jest przeznaczony do poprawienia wyniku zakończonej uprzednio czynności wykonywanej przez człowieka;
b)
MI sistēma ir paredzēta iepriekš pabeigtas cilvēka darbības rezultāta uzlabošanai;
c)
system AI jest przeznaczony do wykrywania wzorców podejmowania decyzji lub odstępstw od wzorców podjętych uprzednio decyzji i nie ma na celu zastąpienia ani wywarcia wpływu na zakończoną uprzednio ocenę dokonaną przez człowieka – bez odpowiedniej weryfikacji przez człowieka; lub
c)
MI sistēma ir paredzēta lēmumu pieņemšanas modeļu vai noviržu no iepriekšējiem lēmumu pieņemšanas modeļiem atklāšanai, un tā nav paredzēta, lai aizstātu vai ietekmētu iepriekš pabeigtu cilvēka veiktu novērtējumu, bez pienācīgas cilvēka veiktas pārskatīšanas; vai
d)
system AI jest przeznaczony do wykonywania zadań przygotowawczych w kontekście oceny istotnej z punktu widzenia przypadków wykorzystania wymienionych w załączniku III.
d)
MI sistēma ir paredzēta sagatavošanās uzdevuma veikšanai saistībā ar novērtējumu, kas ir būtisks III pielikumā uzskaitīto lietošanas gadījumu nolūkos.
Niezależnie od akapitu pierwszego system AI, o którym mowa w załączniku III, zawsze uznaje się za system wysokiego ryzyka, w przypadku gdy system ten dokonuje profilowania osób fizycznych.
Neatkarīgi no pirmās daļas III pielikumā minētu MI sistēmu vienmēr uzskata par augsta riska MI sistēmu, ja MI sistēma veic fizisku personu profilēšanu.
4. Dostawca, który uważa, że system AI, o którym mowa w załączniku III, nie jest system wysokiego ryzyka, przed wprowadzeniem tego systemu do obrotu lub oddaniem go do użytku dokumentuje swoją ocenę. Taki dostawca podlega obowiązkowi rejestracji określonemu w art. 49 ust. 2. Na wniosek właściwych organów krajowych dostawca przedstawia dokumentację tej oceny.
4. Nodrošinātājs, kas uzskata, ka III pielikumā minēta MI sistēma nav augsta riska sistēma, dokumentē tās novērtējumu pirms minētā sistēma tiek laista tirgū vai nodota ekspluatācijā. Uz šādu nodrošinātāju attiecas 49. panta 2. punktā paredzētais reģistrācijas pienākums. Pēc valsts kompetento iestāžu pieprasījuma nodrošinātājs uzrāda novērtējuma dokumentāciju.
5. Po konsultacji z Europejską Radą ds. Sztucznej Inteligencji (zwaną dalej „Radą ds. AI”), Komisja przedstawi nie później niż w dniu 2 lutego 2026 r. wytyczne określające praktyczne wdrożenie niniejszego artykułu zgodnie z art. 96 wraz z kompleksowym wykazem praktycznych przykładów przypadków wykorzystania systemów AI, które stanowią przypadki wykorzystania wysokiego ryzyka oraz które nie stanowią przypadków takiego wykorzystania.
5. Komisija pēc apspriešanās ar Eiropas Mākslīgā intelekta padomi (MI padomi) un ne vēlāk kā 2026. gada 2. februārī sniedz pamatnostādnes, kurās precizē šā panta praktisko īstenošanu saskaņā ar 96. pantu, kopā ar izsmeļošu sarakstu ar praktiskiem piemēriem par MI sistēmu, kuras ir augsta riska MI sistēmas, un to, kuras nav augsta riska MI sistēmas, lietošanas gadījumiem.
6. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 97 w celu zmiany akapitu drugiego ust. 3 niniejszego artykułu poprzez dodanie nowych warunków do warunków ustanowionych w tym przepisie lub ich zmianę, w przypadku gdy istnieją konkretne i wiarygodne dowody na istnienie systemów AI, które wchodzą w zakres stosowania załącznika III, ale nie stwarzają znaczącego ryzyka szkody dla zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych.
6. Komisija tiek pilnvarota pieņemt deleģētos aktus saskaņā ar 97. pantu, lai grozītu šā panta 3. punkta otro daļu, lai pievienotu jaunus nosacījumus tajā noteiktajiem nosacījumiem, vai grozītu tos, ja ir konkrēti un ticami pierādījumi, ka ir MI sistēmas, kas ietilpst III pielikuma tvērumā, bet nerada būtisku kaitējuma risku fizisku personu veselībai, drošībai vai pamattiesībām.
7. Komisja przyjmuje zgodnie z art 97 akty delegowane w celu zmiany akapitu drugiego ust. 3 niniejszego artykułu poprzez usunięcie któregokolwiek z warunków ustanowionych w tym przepisie, w przypadku gdy istnieją konkretne i wiarygodne dowody na to, że jest to konieczne w celu utrzymania poziomu ochrony zdrowia, bezpieczeństwa i praw podstawowych przewidzianego w niniejszym rozporządzeniu.
7. Komisija pieņem deleģētos aktus saskaņā ar 97. pantu, lai grozītu 3. punkta otro daļu, lai svītrotu jebkuru no tajā noteiktajiem nosacījumiem, ja ir konkrēti un ticami pierādījumi, ka tas ir vajadzīgs, lai uzturētu veselības, drošības un pamattiesību aizsardzības līmeni, ko paredz šī regula.
8. Zmiana warunków ustanowionych w ust. 3 akapit drugi, przyjęta zgodnie z ust. 6 i 7 niniejszego artykułu, nie może prowadzić do obniżenia ogólnego poziomu ochrony zdrowia, bezpieczeństwa i praw podstawowych przewidzianego w niniejszym rozporządzeniu i musi zapewniać spójność z aktami delegowanymi przyjętymi zgodnie z art. 7 ust. 1 oraz uwzględniać rozwój rynku i technologii.
8. Neviens 3. punkta otrajā daļā paredzētais nosacījumu grozījums, kas pieņemts saskaņā ar šā panta 6. un 7. punktu, nemazina veselības, drošības un pamattiesību aizsardzības vispārējo līmeni, ko paredz šī regula un tas nodrošina saskanību ar deleģētajiem aktiem, kas pieņemti, ievērojot 7. panta 1. punktu, un ņem vērā tirgus norises un tehnoloģiju attīstību.
System zarządzania ryzykiem
Riska pārvaldības sistēma
1. Ustanawia się, wdraża, dokumentuje i obsługuje system zarządzania ryzykiem w odniesieniu do systemów AI wysokiego ryzyka.
1. Saistībā ar augsta riska MI sistēmām izveido, ievieš, dokumentē un uztur riska pārvaldības sistēmu.
2. Przez system zarządzania ryzykiem rozumie się ciągły, iteracyjny proces, planowany i realizowany przez cały cykl życia systemu AI wysokiego ryzyka, wymagający regularnego systematycznego przeglądu i aktualizacji. Obejmuje on następujące etapy:
2. Riska pārvaldības sistēmu saprot kā nepārtrauktu iteratīvu procesu, ko plāno un kas norit visā augsta riska MI sistēmas darbmūžā, un tam nepieciešama regulāra sistemātiska pārskatīšana un atjaunināšana. Tajā ietilpst šādi posmi:
a)
identyfikację i analizę znanego i dającego się racjonalnie przewidzieć ryzyka, jakie dany system AI wysokiego ryzyka może stwarzać dla zdrowia, bezpieczeństwa lub praw podstawowych podczas jego stosowania zgodnie z przeznaczeniem;
a)
to zināmo un saprātīgi paredzamo risku apzināšana un analīze, ko augsta riska MI sistēma var radīt veselībai, drošībai vai pamattiesībām, ja augsta riska MI sistēmu lieto saskaņā ar tai paredzēto nolūku;
b)
oszacowanie i ocenę ryzyka, jakie może wystąpić podczas wykorzystywania systemu AI wysokiego ryzyka zgodnie z przeznaczeniem i w warunkach dającego się racjonalnie przewidzieć niewłaściwego wykorzystania;
b)
to risku aplēšana un izvērtēšana, kas var rasties, ja augsta riska MI sistēmu lieto atbilstoši paredzētajam nolūkam, un saprātīgi paredzamas nepareizas lietošanas apstākļos;
c)
ocenę innego mogącego wystąpić ryzyka na podstawie analizy danych zebranych z systemu monitorowania po wprowadzeniu do obrotu, o którym mowa w art. 72;
c)
citu iespējamo risku izvērtēšana, pamatojoties uz to datu analīzi, kas savākti no 72. pantā minētās pēctirgus pārraudzības sistēmas;
d)
przyjęcie odpowiednich i ukierunkowanych środków zarządzania ryzykiem zaprojektowanych w celu przeciwdziałania ryzyku zidentyfikowanemu zgodnie z lit. a).
d)
saskaņā ar šā punkta a) apakšpunktu apzinātu risku novēršanai paredzētu piemērotu un mērķorientētu riska pārvaldības pasākumu pieņemšana.
3. Ryzyko, o którym mowa w niniejszym artykule, oznacza tylko takie rodzaje ryzyka, które można stosownie ograniczyć lub wyeliminować poprzez rozwój lub zaprojektowanie systemu AI wysokiego ryzyka lub poprzez zapewnienie odpowiednich informacji technicznych.
3. Šajā pantā minētie riski attiecas tikai uz tiem riskiem, kurus var saprātīgi mazināt vai novērst, izstrādājot vai projektējot augsta riska MI sistēmu vai sniedzot atbilstīgu tehnisko informāciju.
4. W ramach środków zarządzania ryzykiem, o których mowa w ust. 2 lit. d), należycie uwzględnia się skutki i możliwe interakcje wynikające z łącznego stosowania wymogów ustanowionych w niniejszej sekcji, w celu skuteczniejszego minimalizowania ryzyka przy jednoczesnym osiągnięciu odpowiedniej równowagi we wdrażaniu środków służących spełnieniu tych wymogów.
4. Riska pārvaldības pasākumos, kas minēti 2. punkta d) apakšpunktā, pienācīgi ņem vērā sekas un iespējamo mijiedarbību, ko rada šajā iedaļā noteikto prasību kombinēta piemērošana, lai efektīvāk samazinātu riskus, vienlaikus panākot pienācīgu līdzsvaru minēto prasību izpildei paredzēto pasākumu īstenošanā.
5. Środki zarządzania ryzykiem, o których mowa w ust. 2 lit. d), muszą być takie, aby odpowiednie ryzyko szczątkowe związane z każdym zagrożeniem, jak również ogólne ryzyko szczątkowe systemów AI wysokiego ryzyka, oceniano jako dopuszczalne.
5. Riska pārvaldības pasākumi, kas minēti 2. punkta d) apakšpunktā, ir tādi, ka attiecīgie ar katru apdraudējumu saistītie atlikušie riski, kā arī augsta riska MI sistēmu kopējais atlikušais risks tiek uzskatīti par pieņemamiem.
Przy określaniu najodpowiedniejszych środków zarządzania ryzykiem zapewnia się, co następuje:
Nosakot vispiemērotākos riska pārvaldības pasākumus, nodrošina:
a)
eliminację lub ograniczenie – w zakresie, w jakim jest to technicznie wykonalne – ryzyka zidentyfikowanego i ocenionego zgodnie z ust. 2 poprzez odpowiedni projekt i rozwój systemu AI wysokiego ryzyka;
a)
apzināto un izvērtēto risku likvidēšanu vai samazināšanu, ievērojot 2. punktu, ciktāl tas tehniski iespējams, ar augsta riska MI sistēmas atbilstīgu projektēšanu un izstrādi;
b)
w stosownych przypadkach – wdrożenie odpowiednich środków służących ograniczeniu i kontroli ryzyka, którego nie można wyeliminować;
b)
attiecīgā gadījumā atbilstīgu riska mazināšanas un kontroles pasākumu īstenošanu, ar ko pievēršas riskiem, kurus nevar likvidēt;
c)
dostarczenie informacji wymaganych zgodnie z art. 13 oraz, w stosownych przypadkach, przeszkolenie podmiotów stosujących.
c)
informācijas sniegšanu, kas prasīta, ievērojot 13. pantu, un attiecīgā gadījumā uzturētāju apmācību.
W celu eliminowania lub ograniczania ryzyka związanego z wykorzystaniem systemu AI wysokiego ryzyka należytą uwagę zwraca się na wiedzę techniczną, doświadczenie, wykształcenie i szkolenia, jakich oczekuje się od podmiotu stosującego, oraz zakładany kontekst, w którym ma być stosowany system.
Lai likvidētu vai samazinātu riskus, kas saistīti ar augsta riska MI sistēmas lietošanu, pienācīgi ņem vērā tehniskās zināšanas, pieredzi, izglītību, apmācību, kas tiek gaidīta attiecībā uz uzturētāju, un paredzamo kontekstu, kurā sistēmu paredzēts izmantot.
6. Systemy AI wysokiego ryzyka testuje się w celu określenia najodpowiedniejszych i ukierunkowanych środków zarządzania ryzykiem. Testy zapewniają, by systemy AI wysokiego ryzyka działały zgodnie z ich przeznaczeniem oraz były zgodne z wymogami ustanowionymi w niniejszej sekcji.
6. Augsta riska MI sistēmas testē, lai noteiktu vispiemērotākos un mērķtiecīgākos riska pārvaldības pasākumus. Testēšana nodrošina, ka augsta riska MI sistēmas darbojas konsekventi paredzētajam nolūkam un ka tās atbilst šajā iedaļā noteiktajām prasībām.
7. Procedury testowe mogą obejmować testy w warunkach rzeczywistych zgodnie z art. 60.
7. Testēšanas procedūras var ietvert testēšanu reālos apstākļos saskaņā ar 60. pantu.
8. Testy systemów AI wysokiego ryzyka przeprowadza się, w stosownych przypadkach, w dowolnym momencie procesu rozwoju systemu, a w każdym przypadku przed wprowadzeniem go do obrotu lub oddaniem do użytku. Testy przeprowadza się w odniesieniu do uprzednio określonych wskaźników i progów probabilistycznych, stosownych ze względu na przeznaczenie systemu AI wysokiego ryzyka.
8. Augsta riska MI sistēmu testēšanu pēc vajadzības veic jebkurā brīdī visā izstrādes procesā un jebkurā gadījumā pirms laišanas tirgū vai nodošanas ekspluatācijā. Testēšanu veic, izmantojot iepriekš noteiktus rādītājus un varbūtības sliekšņus, kas atbilst augsta riska MI sistēmai paredzētajam nolūkam.
9. Przy wdrażaniu systemu zarządzania ryzykiem przewidzianego w ust. 1–7 dostawcy zwracają uwagę na to, czy dany system AI wysokiego ryzyka w świetle swojego przeznaczenia może mieć niekorzystny wpływ na osoby poniżej 18 roku życia oraz, w stosownych przypadkach, na inne grupy szczególnie wrażliwe.
9. Īstenojot 1.–7. punktā paredzēto riska pārvaldības sistēmu, nodrošinātāji apsver, vai, ņemot vērā tai paredzēto nolūku, pastāv iespēja, ka augsta riska MI sistēmai būs negatīva ietekme uz personām, kas jaunākas par 18 gadiem, un attiecīgā gadījumā citām neaizsargātām grupām.
10. W odniesieniu do dostawców systemów AI wysokiego ryzyka, którzy podlegają wymogom dotyczącym wewnętrznych procesów zarządzania ryzykiem na podstawie innych odpowiednich przepisów prawa Unii, aspekty przewidziane w ust. 1–9 mogą być częścią procedur zarządzania ryzykiem ustanowionych zgodnie z tym prawem lub łączyć się z tymi procedurami.
10. Attiecībā uz augsta riska MI sistēmu nodrošinātājiem, uz kuriem saskaņā ar citiem attiecīgiem Savienības tiesību aktu noteikumiem attiecas prasības par iekšējiem riska pārvaldības procesiem, 1.–9. punktā paredzētie aspekti var būt daļa no vai apvienoti ar riska pārvaldības procedūrām, kas izveidotas, ievērojot minētos tiesību aktus.
Dane i zarządzanie danymi
1. Systemy AI wysokiego ryzyka, które wykorzystują techniki obejmujące trenowanie modeli AI z wykorzystaniem danych, rozwija się na podstawie zbiorów danych treningowych, walidacyjnych i testowych spełniających kryteria jakości, o których mowa w ust. 2–5, w każdym przypadku gdy takie zbiory danych są wykorzystywane.
1. Augsta riska MI sistēmas, kurās izmanto metodes, kas saistītas ar MI modeļu apmācību ar datiem, izstrādā, pamatojoties uz apmācības, validēšanas un testēšanas datu kopām, kas atbilst 2.–5. punktā minētajiem kvalitātes kritērijiem, ikreiz, kad tiek izmantotas šādas datu kopas.
2. Zbiory danych treningowych, walidacyjnych i testowych podlegają praktykom w zakresie zarządzania danymi stosownym do przeznaczenia danego systemu AI wysokiego ryzyka. Praktyki te dotyczą w szczególności:
2. Apmācības, validēšanas un testēšanas datu kopām piemēro datu pārvaldību un pārvaldības praksi, kas ir piemērota augsta riska MI sistēmai paredzētajam nolūkam. Minētā prakse attiecas jo īpaši uz:
a)
odpowiednich decyzji projektowych;
a)
attiecīgām izstrādes izvēlēm;
b)
procesów zbierania danych i pochodzenia danych oraz, w przypadku danych osobowych, pierwotnego celu zbierania danych;
b)
datu vākšanas procesiem un datu izcelsmi, un personas datu gadījumā – uz datu vākšanas sākotnējo nolūku;
c)
odpowiednich operacji przetwarzania na potrzeby przygotowania danych, takich jak dodawanie komentarzy, etykietowanie, czyszczenie, aktualizacja, wzbogacanie i agregacja;
c)
attiecīgām datu sagatavošanas apstrādes darbībām, piemēram, anotēšanu, marķēšanu, tīrīšanu, atjaunināšanu, bagātināšanu un agregēšanu;
d)
sformułowania założeń, w szczególności w odniesieniu do informacji, do których pomiaru i reprezentowania mają służyć dane;
d)
pieņēmumu formulēšanu, jo īpaši attiecībā uz informāciju, kuru šiem datiem vajadzētu izmērīt un attēlot;
e)
oceny dostępności, ilości i przydatności zbiorów danych, które są potrzebne;
e)
nepieciešamo datu kopu pieejamības, daudzuma un piemērotības novērtējumu;
f)
badania pod kątem ewentualnej stronniczości, która może mieć wpływ na zdrowie i bezpieczeństwo osób, negatywnie wpływać na prawa podstawowe lub prowadzić do dyskryminacji zakazanej na mocy prawa Unii, zwłaszcza w przypadku gdy dane wyjściowe wpływają na dane wejściowe wykorzystywane na potrzeby przyszłych operacji;
f)
tādas iespējamas neobjektivitātes pārbaudi, kas varētu ietekmēt cilvēku veselību un drošību, nelabvēlīgi ietekmēt pamattiesības vai izraisīt diskrimināciju, kura aizliegta ar Savienības tiesību aktiem, jo īpaši, ja izvaddati ietekmē ievaddatus turpmākām darbībām;
g)
odpowiednich środków służących wykrywaniu ewentualnej stronniczości określonej zgodnie z lit. f) oraz zapobieganiu jej i jej ograniczaniu;
g)
pienācīgus pasākumus, lai atklātu, novērstu, mazinātu iespējamu neobjektivitāti, kas identificēta saskaņā ar f) apakšpunktu;
h)
określenia istotnych luk w danych lub braków w danych, które uniemożliwiają zgodność z niniejszym rozporządzeniem, oraz tego, w jaki sposób można zaradzić tym lukom i brakom.
h)
tādu attiecīgu datu trūkumu vai nepilnību identificēšanu, kas liedz ievērot šo regulu, un to, kā šos trūkumus un nepilnības var novērst.
3. Zbiory danych treningowych, walidacyjnych i testowych muszą być adekwatne, wystarczająco reprezentatywne oraz w jak największym stopniu wolne od błędów i kompletne z punktu widzenia przeznaczenia. Muszą się one charakteryzować odpowiednimi właściwościami statystycznymi, w tym, w stosownych przypadkach, w odniesieniu do osób lub grup osób, wobec których ma być stosowany system AI wysokiego ryzyka. Te kryteria zbiorów danych mogą zostać spełnione na poziomie pojedynczych zbiorów danych lub na poziomie ich kombinacji.
3. Apmācības, validēšanas un testēšanas datu kopas ir atbilstošas, pietiekami reprezentatīvas un, cik vien iespējams, bez kļūdām un pilnīgas, ņemot vērā paredzēto nolūku. Tām ir atbilstoši statistiskie raksturlielumi, tostarp vajadzības gadījumā attiecībā uz personām vai personu grupām, attiecībā uz kurām paredzēts izmantot konkrēto augsta riska MI sistēmu. Minētos datu kopu raksturlielumus var izpildīt atsevišķu datu kopu vai to kombinācijas līmenī.
4. Zbiory danych muszą uwzględniać, w zakresie wymaganym z uwagi na ich przeznaczenie, cechy lub elementy, które są specyficzne dla określonego otoczenia geograficznego, kontekstualnego, behawioralnego lub funkcjonalnego, w którym ma być wykorzystywany system AI wysokiego ryzyka.
4. Datu kopās, ciktāl to nosaka paredzētais nolūks, ņem vērā raksturlielumus vai elementus, kas raksturīgi konkrētajai ģeogrāfiskajai, kontekstuālajai, uzvedības vai funkcionālajai videi, kurā paredzēts lietot augsta riska MI sistēmu.
5. W zakresie, w jakim jest to bezwzględnie konieczne do celów zapewnienia zgodnie z ust. 2 lit. f) i g) niniejszego artykułu wykrywania i korygowania stronniczości systemów AI wysokiego ryzyka, dostawcy takich systemów mogą wyjątkowo przetwarzać szczególne kategorie danych osobowych, pod warunkiem stosowania odpowiednich zabezpieczeń w zakresie podstawowych praw i wolności osób fizycznych. Oprócz przepisów określonych w rozporządzeniach (UE) 2016/679 i (UE) 2018/1725 oraz dyrektywie (UE) 2016/680, aby takie przetwarzanie mogło się odbyć, przetwarzanie takie musi spełniać wszystkie następujące warunki:
5. Ciktāl tas ir absolūti nepieciešams, lai nodrošinātu neobjektivitātes atklāšanu un labošanu saistībā ar augsta riska MI sistēmām saskaņā ar šā panta 2. punkta f) un g) apakšpunktu, šādu sistēmu nodrošinātāji var izņēmuma kārtā apstrādāt īpašu kategoriju personas datus, ievērojot atbilstošus fizisku personu pamattiesību un pamatbrīvību aizsardzības pasākumus. Lai notiktu šāda apstrāde, papildus noteikumiem, kas paredzēti Regulās (ES) 2016/679 un (ES) 2018/1725 un Direktīvā (ES) 2016/680, jāievēro visi turpmāk minētie nosacījumi:
a)
nie jest możliwe skuteczne wykrywanie i korygowanie stronniczości poprzez przetwarzanie innych danych, w tym danych syntetycznych lub zanonimizowanych;
a)
neobjektivitātes atklāšanu un labošanu nevar rezultatīvi panākt, apstrādājot citus datus, tostarp sintētiskus vai anonimizētus datus;
b)
szczególne kategorie danych osobowych podlegają ograniczeniom technicznym dotyczącym ponownego wykorzystywania danych osobowych oraz najnowocześniejszym środkom bezpieczeństwa i ochrony prywatności, w tym pseudonimizacji;
b)
uz īpašajām personas datu kategorijām attiecas tehniski ierobežojumi saistībā ar personas datu atkalizmantošanu un jaunākie drošības un privātuma saglabāšanas pasākumi, tostarp pseidonimizācija;
c)
szczególne kategorie danych osobowych podlegają środkom zapewniającym, by przetwarzane dane osobowe były zabezpieczone, chronione, podlegały odpowiednim środkom ochronnym, w tym ścisłym kontrolom i dokumentowaniu dostępu, aby uniknąć nadużyć i zapewnić, by dostęp do tych danych miały wyłącznie osoby upoważnione, zobowiązane do spełnienia odpowiednich obowiązków dotyczących poufności;
c)
uz īpašajām personas datu kategorijām attiecas pasākumi nolūkā nodrošināt, ka apstrādātie personas dati ir droši, aizsargāti, uz tiem attiecas piemēroti aizsardzības pasākumi, tostarp stingra piekļuves kontrole un dokumentācija, lai novērstu ļaunprātīgu izmantošanu, un nodrošinātu, ka piekļuve minētajiem personas datiem ir tikai pilnvarotām personām un ar atbilstīgiem konfidencialitātes pienākumiem;
d)
szczególne kategorie danych osobowych nie są przesyłane, przekazywane ani w inny sposób udostępniane innym podmiotom;
d)
īpašajās kategorijās ietilpstošos personas datus nepārsūta, nenodod vai citādi nedara piekļūstamus citām pusēm;
e)
szczególne kategorie danych osobowych usuwa się po skorygowaniu stronniczości lub po upływie okresu przechowywania danych osobowych, w zależności od tego, co nastąpi wcześniej;
e)
īpašajās kategorijās ietilpstošos personas datus dzēš, tiklīdz neobjektivitāte ir izlabota vai ir pienākušas to glabāšanas perioda beigas – atkarībā no tā, kas notiek vispirms;
f)
rejestry czynności przetwarzania na podstawie rozporządzeń (UE) 2016/679 i (UE) 2018/1725 oraz dyrektywy (UE) 2016/680 zawierają uzasadnienie, dlaczego przetwarzanie szczególnych kategorii danych osobowych było bezwzględnie konieczne do wykrycia i skorygowania stronniczości oraz dlaczego cel ten nie mógł zostać osiągnięty w wyniku przetwarzania innych danych.
f)
ieraksti par apstrādes darbībām, ievērojot Regulām (ES) 2016/679 un (ES) 2018/1725 un Direktīvu (ES) 2016/680, ietver pamatojumu, kāpēc īpašo kategoriju personas datu apstrāde bija absolūti nepieciešama, lai atklātu un izlabotu neobjektivitāti, un kāpēc šo mērķi nevarēja sasniegt, apstrādājot citus datus.
6. W przypadkach rozwoju systemów AI wysokiego ryzyka niewykorzystujących technik obejmujących trenowanie modeli AI ust. 2–5 stosuje się jedynie do zbiorów danych testowych.
6. Attiecībā uz tādu augsta riska MI sistēmu izstrādi, kurās netiek izmantotas metodes, kas paredz MI modeļu apmācību, 2.–5. punktu piemēro tikai testēšanas datu kopām.
1. Dokumentację techniczną dla systemu AI wysokiego ryzyka sporządza się przed wprowadzeniem danego systemu do obrotu lub oddaniem go do użytku oraz dokonuje się jej aktualizacji.
1. Pirms augsta riska MI sistēmas laišanas tirgū vai nodošanas ekspluatācijā sagatavo šīs sistēmas tehnisko dokumentāciju, un to regulāri atjaunina.
Dokumentację techniczną sporządza się w taki sposób, aby wykazać, że system AI wysokiego ryzyka jest zgodny z wymogami ustanowionymi w niniejszej sekcji, oraz aby dostarczyć właściwym organom krajowym i jednostkom notyfikowanym informacji – w jasnej i kompleksowej formie – niezbędnych do oceny zgodności systemu AI z tymi wymogami. Zawiera ona co najmniej elementy określone w załączniku IV. MŚP, w tym przedsiębiorstwa typu start-up, mogą podawać elementy dokumentacji technicznej określone w załączniku IV w formie uproszczonej. W tym celu Komisja ustanawia wzór uproszczonej dokumentacji technicznej ukierunkowany na potrzeby małych przedsiębiorstw i mikroprzedsiębiorstw. W przypadku gdy MŚP, w tym przedsiębiorstwa typu start-up, zdecydują się na podawanie informacji wymaganych w załączniku IV w sposób uproszczony, korzystają z wzoru, o którym mowa w niniejszym ustępie. Jednostki notyfikowane akceptują ten wzór do celów oceny zgodności.
Tehnisko dokumentāciju sagatavo tā, lai apliecinātu, ka attiecīgā augsta riska MI sistēma atbilst šajā iedaļā noteiktajām prasībām, un valstu kompetentajām iestādēm un paziņotajām struktūrām skaidrā un visaptverošā veidā sniedz nepieciešamo informāciju, lai novērtētu MI sistēmas atbilstību minētajām prasībām. Tajā ir vismaz IV pielikumā izklāstītie elementi. MVU, tostarp jaunuzņēmumi, IV pielikumā norādītos tehniskās dokumentācijas elementus var iesniegt vienkāršotā veidā. Minētajā nolūkā Komisija izveido vienkāršotu tehniskās dokumentācijas veidlapu, ņemot vērā mazo uzņēmumu un mikrouzņēmumu vajadzības. Ja MVU, tostarp jaunuzņēmums, izvēlas IV pielikumā prasīto informāciju sniegt vienkāršotā veidā, tas izmanto šajā punktā minēto veidlapu. Paziņotās struktūras pieņem veidlapu atbilstības novērtēšanas nolūkos.
2. W przypadku wprowadzania do obrotu lub oddawania do użytku systemu AI wysokiego ryzyka związanego z produktem, który jest objęty zakresem stosowania unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I sekcja A, sporządza się jeden zestaw dokumentacji technicznych zawierający wszystkie informacje określone w ust. 1, jak również informacje wymagane na podstawie tych aktów prawnych.
2. Ja tiek laista tirgū vai nodota ekspluatācijā augsta riska MI sistēma, kas saistīta ar produktu, uz kuru attiecas I pielikuma A iedaļā uzskaitītie Savienības saskaņošanas tiesību akti, sagatavo vienotu tehniskās dokumentācijas kopumu, kurā ir visa informācija, kas noteikta 1. punktā, kā arī informācija, kas prasīta minētajos tiesību aktos.
3. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 97 w celu zmiany, w razie potrzeby, załącznika IV, aby zagwarantować, by w świetle postępu technicznego dokumentacja techniczna zawierała wszystkie informacje niezbędne do oceny zgodności systemu z wymogami ustanowionymi w niniejszej sekcji.
3. Komisija tiek pilnvarota pieņemt deleģētos aktus saskaņā ar 97. pantu, lai veiktu grozījumus IV pielikumā, vajadzības gadījumā nodrošinot, ka, ņemot vērā tehnikas attīstību, tehniskajā dokumentācijā tiek sniegta visa nepieciešamā informācija, kas vajadzīga, lai novērtētu sistēmas atbilstību šajā iedaļā noteiktajām prasībām.
Nadzór ze strony człowieka
1. Systemy AI wysokiego ryzyka projektuje się i rozwija w taki sposób, w tym poprzez uwzględnienie odpowiednich narzędzi interfejsu człowiek-maszyna, aby w okresie ich wykorzystywania systemu AI mogły być skutecznie nadzorowane przez osoby fizyczne.
1. Augsta riska MI sistēmas projektē un izstrādā, izmantojot arī atbilstošus cilvēka – mašīnas saskarnes rīkus, tā, lai fiziskas personas tās varētu efektīvi virsvadīt laikā, kad tās tiek lietotas.
2. Nadzór ze strony człowieka ma na celu zapobieganie ryzyku dla zdrowia, bezpieczeństwa lub praw podstawowych lub minimalizowanie takiego ryzyka, które może się pojawić, gdy system AI wysokiego ryzyka jest wykorzystywany zgodnie z jego przeznaczeniem lub w warunkach dającego się racjonalnie przewidzieć niewłaściwego wykorzystania, w szczególności gdy takie ryzyko utrzymuje się pomimo stosowania innych wymogów ustanowionych w niniejszej sekcji.
2. Cilvēka virsvadības mērķis ir novērst vai mazināt riskus attiecībā uz veselību, drošību vai pamattiesībām, kuri var rasties, ja augsta riska MI sistēmu lieto atbilstoši paredzētajam nolūkam vai saprātīgi paredzamas nepareizas lietošanas apstākļos, jo īpaši, ja šādi riski arvien pastāv, neraugoties uz citu šajā iedaļā noteikto prasību piemērošanu.
3. Środki nadzoru muszą być współmierne do ryzyka, poziomu autonomii i kontekstu wykorzystywania danego systemu AI wysokiego ryzyka, a nadzór zapewnia się za pomocą co najmniej jednego z następujących rodzajów środków:
3. Virsvadības pasākumi ir samērīgi augsta riska MI sistēmas riskiem, autonomijas līmenim un lietošanas kontekstam, un tos nodrošina, izmantojot vienu vai abus šos pasākumu veidus:
a)
środków określonych i wbudowanych, jeżeli jest to technicznie wykonalne, w system AI wysokiego ryzyka przez dostawcę przed wprowadzeniem systemu do obrotu lub oddaniem do użytku;
a)
pasākumi, kurus nodrošinātājs identificē un integrē augsta riska MI sistēmā, ja tas ir tehniski iespējams, pirms tās laišanas tirgū vai nodošanas ekspluatācijā;
b)
środków określonych przez dostawcę przed wprowadzeniem systemu AI wysokiego ryzyka do obrotu lub oddaniem go do użytku i które to środki nadają się do wdrożenia przez podmiot stosujący.
b)
pasākumi, kurus nodrošinātājs identificē pirms augsta riska MI sistēmas laišanas tirgū vai nodošanas ekspluatācijā un kuri ir atbilstīgi, lai uzturētājs tos īstenotu.
4. Do celów wykonania ust. 1, 2 i 3 system AI wysokiego ryzyka udostępnia się podmiotowi stosującemu w taki sposób, aby umożliwić osobom fizycznym, którym powierzono sprawowanie nadzoru ze strony człowieka, odpowiednio i proporcjonalnie:
4. Šā panta 1., 2. un 3. punkta īstenošanas nolūkā augsta riska MI sistēmu uzturētājam nodrošina tā, lai fiziskās personas, kurām ir uzticēta cilvēka virsvadība, atbilstoši un samērīgi varētu:
a)
należyte zrozumienie odpowiednich możliwości i ograniczeń systemu AI wysokiego ryzyka oraz należyte monitorowanie jego działania, w tym w celu wykrywania anomalii, nieprawidłowego funkcjonowania i nieoczekiwanych wyników działania oraz zaradzeniu im w przypadku ich wystąpienia;
a)
pareizi izprast augsta riska MI sistēmas attiecīgās spējas un ierobežojumus un spēt pienācīgi uzraudzīt tās darbību, tostarp, lai atklātu un novērstu anomālijas, disfunkcijas un neparedzētu veiktspēju;
b)
pozostawanie świadomym potencjalnej tendencji do automatycznego polegania lub nadmiernego polegania na wyniku wytworzonym przez system AI wysokiego ryzyka (tzw. „błąd automatyzacji”), w szczególności w przypadku systemów AI wysokiego ryzyka wykorzystywanych do udzielania informacji lub zaleceń na potrzeby decyzji podejmowanych przez osoby fizyczne;
b)
apzināties iespējamo tendenci automātiski uzticēties vai pārāk uzticēties augsta riska MI sistēmas radītajiem iznākumiem (automatizācijas izraisīta nosliece), jo īpaši attiecībā uz augsta riska MI sistēmām, kuras lieto, lai sniegtu informāciju vai ieteikumus lēmumiem, kas jāpieņem fiziskām personām;
c)
prawidłową interpretację wyniku systemu AI wysokiego ryzyka, biorąc pod uwagę na przykład dostępne narzędzia i metody interpretacji;
c)
pareizi interpretēt augsta riska MI sistēmas radīto iznākumu, ņemot vērā, piemēram, pieejamos interpretācijas rīkus un metodes;
d)
podjęcie decyzji, w każdej konkretnej sytuacji, o niekorzystaniu z systemu AI wysokiego ryzyka lub w inny sposób zignorowanie, unieważnienie lub odwrócenie wyniku systemu AI wysokiego ryzyka;
d)
katrā atsevišķā situācijā izlemt nelietot augsta riska MI sistēmu vai citādi neņemt vērā, aizstāt ar citu vai reversēt augsta riska MI sistēmas darbības iznākumu;
e)
ingerowanie w działanie systemu AI wysokiego ryzyka lub przerwanie działania systemu za pomocą przycisku „stop” lub podobnej procedury, która pozwala na zatrzymanie systemu w stanie bezpiecznym.
e)
iejaukties augsta riska MI sistēmas darbībā vai pārtraukt sistēmu, izmantojot pogu “stop” vai līdzīgu procedūru, kas ļauj sistēmai apstāties drošā stāvoklī.
5. W przypadku systemów AI wysokiego ryzyka, o których mowa w załączniku III pkt 1 lit. a), środki, o których mowa w ust. 3 niniejszego artykułu, muszą ponadto zapewniać, aby podmiot stosujący nie podejmował żadnego działania ani decyzji na podstawie identyfikacji będącej wynikiem działania systemu, jeżeli identyfikacji tej nie zweryfikowały ani nie potwierdziły odrębnie co najmniej dwie osoby fizyczne mające wymagane kompetencje, przeszkolenie i uprawnienia.
5. Attiecībā uz augsta riska MI sistēmām, kas minētas III pielikuma 1. punkta a) apakšpunktā, šā panta 3. punktā minētie pasākumi ir tādi, kas nodrošina, ka uzturētājs papildus neveic nekādas darbības vai nepieņem nekādu lēmumu, pamatojoties uz identifikāciju, kas izriet no attiecīgās sistēmas, ja tādu identifikāciju nav atsevišķi verificējušas un apstiprinājušas vismaz divas fiziskas personas, kurām ir vajadzīgā kompetence, apmācība un pilnvaras.
Wymóg odrębnej weryfikacji przez co najmniej dwie osoby fizyczne nie ma zastosowania do systemów AI wysokiego ryzyka wykorzystywanych do celów ścigania przestępstw, migracji, kontroli granicznej lub azylu, w przypadkach gdy prawo Unii lub prawo krajowe uznaje stosowanie tego wymogu za nieproporcjonalne.
Prasību par vismaz divu fizisku personu veiktu atsevišķu verifikāciju nepiemēro augsta riska MI sistēmām, ko izmanto tiesībaizsardzības, migrācijas, robežkontroles vai patvēruma nolūkos, ja Savienības vai valsts tiesību aktos šīs prasības piemērošana tiek uzskatīta par nesamērīgu.
Dokładność, solidność i cyberbezpieczeństwo
Precizitāte, robustums un kiberdrošība
1. Systemy AI wysokiego ryzyka projektuje się i rozwija w taki sposób, aby osiągały odpowiedni poziom dokładności, solidności i cyberbezpieczeństwa oraz by działały konsekwentnie pod tymi względami w całym cyklu życia.
1. Augsta riska MI sistēmas projektē un izstrādā tā, lai tās sasniegtu pienācīgu precizitātes, robustuma un kiberdrošības līmeni un lai tās minētajos aspektos konsekventi darbotos visu darbmūžu.
2. Aby odnieść się do technicznych aspektów pomiaru odpowiednich poziomów dokładności i solidności określonych w ust. 1 oraz wszelkich innych istotnych wskaźników skuteczności działania, Komisja we współpracy z odpowiednimi zainteresowanymi stronami i organizacjami, takimi jak organy metrologiczne i organy ds. analizy porównawczej, zachęca w stosownych przypadkach do opracowywania poziomów odniesienia i metod pomiarowych.
2. Lai pievērstos tehniskajiem aspektiem saistībā ar to, kā izmērīt 1. punktā noteiktos attiecīgos precizitātes un robustuma līmeņus un jebkādus citus attiecīgus veiktspējas rādītājus, Komisija sadarbībā ar attiecīgajām ieinteresētajām personām un organizācijām, piemēram, metroloģijas un salīdzinošās novērtēšanas iestādēm, attiecīgā gadījumā veicina etalonrādītāju un mērījumu metodiku izstrādi.
3. Poziomy dokładności i odpowiednie wskaźniki dokładności systemów AI wysokiego ryzyka deklaruje się w dołączonych do nich instrukcjach obsługi.
3. Augsta riska MI sistēmu precizitātes līmeni un attiecīgos precizitātes rādītājus norāda tām pievienotajā lietošanas instrukcijā.
4. Systemy AI wysokiego ryzyka muszą być możliwie jak najodporniejsze na błędy, usterki lub niespójności, które mogą wystąpić w systemie lub w środowisku, w którym działa system, w szczególności w wyniku interakcji z osobami fizycznymi lub innymi systemami. W tym zakresie podejmuje się środki techniczne i organizacyjne.
4. Augsta riska MI sistēmas ir cik iespējams noturīgas pret kļūdām, defektiem vai neatbilstībām, kas var rasties pašā sistēmā vai vidē, kurā attiecīgā sistēma darbojas, jo īpaši sistēmas mijiedarbības ar fiziskām personām vai citām sistēmām dēļ. Šajā sakarā veic tehniskus un organizatoriskus pasākumus.
Solidność systemów AI wysokiego ryzyka można osiągnąć dzięki rozwiązaniom technicznym gwarantującym redundancję, które mogą obejmować plany zakładające dostępność systemu zapasowego lub plany zapewniające przejście systemu w stan bezpieczny (tzw. „fail-safe”).
Augsta riska MI sistēmu robustumu var panākt ar tehniskiem redundances risinājumiem, kuru vidū var būt rezerves vai drošatteices plāni.
Systemy AI wysokiego ryzyka, które po wprowadzeniu na rynek lub oddaniu do użytku nadal się uczą, rozwija się w taki sposób, aby w możliwie największym stopniu wyeliminować lub ograniczyć ryzyko potencjalnie stronniczych wyników wpływających na dane wejściowe wykorzystywane na potrzeby przyszłych operacji (sprzężenie zwrotne) oraz aby zapewnić, by wszelkie tego typu sprzężenie zwrotne zostało odpowiednio uwzględnione przy pomocy odpowiednich środków ograniczających ryzyko.
Augsta riska MI sistēmas, kas turpina mācīties pēc to laišanas tirgū vai nodošanas ekspluatācijā, izstrādā tā, lai, cik vien iespējams, likvidētu vai samazinātu iespējamu neobjektīvu iznākumu risku, kas ietekmē ievaddatus nākamās operācijās (atgriezeniskās saites cilpas), un lai nodrošinātu, ka visām šādām atgriezeniskās saites cilpām pienācīgi pievēršas ar atbilstošiem mazināšanas pasākumiem.
5. Systemy AI wysokiego ryzyka muszą być odporne na próby nieupoważnionych osób trzecich mające na celu zmianę ich wykorzystania, wyników lub skuteczności działania poprzez wykorzystanie słabych punktów systemu.
5. Augsta riska MI sistēmas ir noturīgas pret nepilnvarotu trešo personu mēģinājumiem mainīt to lietojumu, iznākumus vai veiktspēju, izmantojot sistēmas ietekmējamību.
Rozwiązania techniczne mające na celu zapewnienie cyberbezpieczeństwa systemów AI wysokiego ryzyka muszą być dostosowane do odpowiednich okoliczności i ryzyka.
Tehniskie risinājumi, kuru mērķis ir nodrošināt augsta riska MI sistēmu kiberdrošību, atbilst attiecīgajiem apstākļiem un riskiem.
Rozwiązania techniczne mające na celu eliminowanie słabych punktów charakterystycznych dla AI obejmują, w stosownych przypadkach, środki służące zapobieganiu atakom mającym na celu manipulowanie zbiorem danych treningowych (zatruwanie danych) lub elementami stosowanymi przy trenowaniu, które zostały poddane pretrenowaniu (zatruwanie modelu), wprowadzaniu danych wejściowych, które mają na celu spowodowanie błędu w modelu AI (przykłady kontradyktoryjne lub omijanie modelu), atakom na poufność lub wadom modelu, a także środki w zakresie wykrywania tych zagrożeń, reagowania na nie, ich rozwiązywania i ich kontrolowania.
Tehniskie risinājumi, kas paredzēti, lai novērstu MI konkrēto ietekmējamību, attiecīgā gadījumā ietver pasākumus, kuru mērķis ir novērst, atklāt, reaģēt uz, atrisināt un kontrolēt uzbrukumus, kuros tiek mēģināts manipulēt ar apmācības datu kopu (datu saindēšana) vai apmācībā izmantotām iepriekš apmācītām sastāvdaļām (modeļa saindēšana), ievaddatiem, kas paredzēti modeļa kļūdas izraisīšanai (pretinieciski piemēri vai modeļa maldināšana), uzbrukumiem konfidencialitātei vai modeļa nepilnībām.
System zarządzania jakością
Kvalitātes vadības sistēma
1. Dostawcy systemów AI wysokiego ryzyka wprowadzają system zarządzania jakością, który zapewnia zgodność z niniejszym rozporządzeniem. System ten dokumentuje się w systematyczny i uporządkowany sposób w formie pisemnych polityk, procedur i instrukcji oraz obejmuje on co najmniej następujące aspekty:
1. Augsta riska MI sistēmu nodrošinātāji izveido kvalitātes vadības sistēmu, kas nodrošina atbilstību šai regulai. Šo sistēmu sistemātiski un pienācīgi dokumentē rakstisku nostādņu, procedūru un instrukciju veidā, un tajā iekļauj vismaz šādus aspektus:
a)
strategię na rzecz zgodności regulacyjnej, w tym zgodności z procedurami oceny zgodności i procedurami zarządzania zmianami w systemie AI wysokiego ryzyka;
a)
normatīvās atbilstības stratēģija, tostarp atbilstības novērtēšanas procedūru un augsta riska MI sistēmas modifikāciju pārvaldības procedūru ievērošana;
b)
techniki, procedury i systematyczne działania, które należy stosować na potrzeby projektowania oraz kontroli i weryfikacji projektu systemu AI wysokiego ryzyka;
b)
metodes, procedūras un sistemātiskas darbības, kas jāizmanto augsta riska MI sistēmas projektēšanai, projekta kontrolei un projekta verificēšanai;
c)
techniki, procedury i systematyczne działania, które należy stosować na potrzeby rozwoju, kontroli jakości i zapewniania jakości systemu AI wysokiego ryzyka;
c)
metodes, procedūras un sistemātiskas darbības, kas jāizmanto augsta riska MI sistēmas izstrādei, kvalitātes kontrolei un kvalitātes nodrošināšanai;
d)
procedury badania, testowania i walidacji, które należy przeprowadzić przed przystąpieniem do rozwoju systemu AI wysokiego ryzyka, w trakcie tego rozwoju i po jego zakończeniu, oraz częstotliwość, z jaką mają być przeprowadzane;
d)
pārbaudes, testēšanas un validēšanas procedūras, kas jāveic pirms augsta riska MI sistēmas izstrādes, tās laikā un pēc tās, un to biežums;
e)
specyfikacje techniczne, w tym normy, które należy zastosować, oraz w przypadkach gdy normy zharmonizowane nie są stosowane w pełni lub nie obejmują wszystkich odpowiednich wymogów ustanowionych w sekcji 2, środki, które należy zastosować do zapewnienia, by system AI wysokiego ryzyka był zgodny z tymi wymogami;
e)
tehniskās specifikācijas, ieskaitot standartus, kas jāpiemēro, un, ja attiecīgie saskaņotie standarti netiek piemēroti pilnībā vai neaptver visas attiecīgās 2. iedaļā paredzētās prasības, līdzekļi, kas jāizmanto, lai nodrošinātu, ka augsta riska MI sistēma atbilst minētajām prasībām;
f)
systemy i procedury zarządzania danymi, w tym dotyczące nabywania danych, zbierania danych, analizy danych, etykietowania danych, przechowywania danych, filtrowania danych, eksploracji danych, agregacji danych, zatrzymywania danych i wszelkich innych operacji dotyczących danych, które przeprowadza się przed wprowadzeniem do obrotu lub oddaniem do użytku systemów AI wysokiego ryzyka i do celu wprowadzenia ich do obrotu lub oddania ich do użytku;
f)
datu pārvaldības sistēmas un procedūras, ietverot datu iegūšanu, datu vākšanu, datu analīzi, datu marķēšanu, datu glabāšanu, datu filtrēšanu, datizraci, datu agregēšanu, datu saglabāšanu un jebkuru citu darbību ar datiem, kas tiek veikta pirms augsta riska MI sistēmu laišanas tirgū vai nodošanas ekspluatācijā un to nolūkā;
g)
system zarządzania ryzykiem, o którym mowa w art. 9;
g)
riska pārvaldības sistēma, kas minēta 9. pantā;
h)
ustanowienie, wdrożenie i obsługa systemu monitorowania po wprowadzeniu do obrotu, zgodnie z art. 72;
h)
pēctirgus pārraudzības sistēmas izveidošana, ieviešana un uzturēšana saskaņā ar 72. pantu;
i)
procedury związane ze zgłaszaniem poważnego incydentu zgodnie z art. 73;
i)
procedūras, kas saistītas ar ziņošanu par nopietnu incidentu saskaņā ar 73. pantu;
j)
porozumiewanie się z właściwymi organami krajowymi, innymi właściwymi organami, w tym organami zapewniającymi lub wspierającymi dostęp do danych, jednostkami notyfikowanymi, innymi operatorami, klientami lub innymi zainteresowanymi stronami;
j)
komunikācijas organizēšana ar valstu kompetentajām iestādēm, citām attiecīgām iestādēm, ieskaitot tās, kas dod vai atbalsta piekļuvi datiem, paziņotajām struktūrām, citiem operatoriem, klientiem vai citām ieinteresētajām personām;
k)
systemy i procedury rejestrowania wszelkiej istotnej dokumentacji i wszelkich istotnych informacji;
k)
sistēmas un procedūras visas attiecīgās dokumentācijas un informācijas uzskaitei;
l)
zarządzanie zasobami, w tym środki związane z bezpieczeństwem dostaw;
l)
resursu pārvaldība, ieskaitot ar piegādes drošību saistītus pasākumus;
m)
ramy odpowiedzialności służące określeniu odpowiedzialności kierownictwa i pozostałego personelu w odniesieniu do wszystkich aspektów wymienionych w niniejszym ustępie.
m)
pārskatatbildības sistēma, kurā noteikti vadības un cita personāla pienākumi, kas attiecas uz visiem šajā punktā uzskaitītajiem aspektiem.
2. Wdrożenie aspektów, o których mowa w ust. 1, musi być proporcjonalne do wielkości organizacji dostawcy. W każdym przypadku dostawcy przestrzegają stopnia rygoryzmu i poziomu ochrony wymaganych do zapewnienia zgodności ich systemów AI wysokiego ryzyka z niniejszym rozporządzeniem.
2. Šā panta 1. punktā minēto aspektu īstenošana ir proporcionāla nodrošinātāja organizācijas lielumam. Nodrošinātāji jebkurā gadījumā ievēro tādu stingrības pakāpi un aizsardzības līmeni, kāds ir vajadzīgs, lai nodrošinātu augsta riska MI sistēmu atbilstību šai regulai.
3. Dostawcy systemów AI wysokiego ryzyka, którzy podlegają obowiązkom dotyczącym systemów zarządzania jakością lub równoważnym obowiązkom na podstawie odpowiednich sektorowych przepisów prawa Unii, mogą uwzględnić aspekty wymienione w ust. 1 jako część systemów zarządzania jakością zgodnie z tymi przepisami.
3. Augsta riska MI sistēmu nodrošinātāji, uz kuriem attiecīgajos Savienības nozaru tiesību aktos attiecas pienākumi, kas saistīti ar kvalitātes vadības sistēmām vai līdzvērtīgu funkciju, var ietvert 1. punktā uzskaitītos aspektus kā daļu no kvalitātes vadības sistēmām, ievērojot minētos tiesību aktus.
4. W odniesieniu do dostawców będących instytucjami finansowymi, które podlegają wymogom dotyczącym ich systemu zarządzania wewnętrznego, uzgodnień lub procedur na podstawie przepisów prawa Unii dotyczących usług finansowych, obowiązek wprowadzenia systemu zarządzania jakością, z wyjątkiem ust. 1 lit. g), h) oraz i) niniejszego artykułu, uznaje się za spełniony w przypadku zapewnienia zgodności z przepisami dotyczącymi zarządzania wewnętrznego, uzgodnień lub procedur zgodnie z odpowiednimi przepisami prawa Unii dotyczącymi usług finansowych. W tym celu uwzględnia się wszelkie normy zharmonizowane, o których mowa w art. 40.
4. Attiecībā uz nodrošinātājiem, kas ir finanšu iestādes, uz kurām attiecas prasības par to iekšējo pārvaldību, kārtību vai procesiem saskaņā ar Savienības tiesību aktiem finanšu pakalpojumu jomā, tiek uzskatīts, ka pienākums ieviest kvalitātes vadības sistēmu, izņemot šā panta 1. punkta g), h) un i) apakšpunktu, ir izpildīts, ja ir izpildīti noteikumi par iekšējās pārvaldes kārtību vai procesiem, ievērojot attiecīgos Savienības tiesību aktus finanšu pakalpojumu jomā. Minētajā nolūkā ņem vērā jebkurus 40. pantā minētos saskaņotos standartus.
Działania naprawcze i obowiązek informacyjny
Korektīvās darbības un informēšanas pienākums
1. Dostawcy systemów AI wysokiego ryzyka, którzy uważają lub mają powody, by uważać, że system AI wysokiego ryzyka, który wprowadzili do obrotu lub oddali do użytku, nie jest zgodny z niniejszym rozporządzeniem, natychmiast podejmują niezbędne działania naprawcze w celu, stosownie do przypadku, zapewnienia zgodności tego systemu, wycofania go z rynku, wyłączenia go lub wycofania go z użytku. Informują oni o tym dystrybutorów danego systemu AI wysokiego ryzyka oraz, w stosownych przypadkach, odpowiednio podmioty stosujące, upoważnionego przedstawiciela i importerów.
1. Augsta riska MI sistēmu nodrošinātāji, kas uzskata vai kam ir iemesls uzskatīt, ka augsta riska MI sistēma, kuru tie ir laiduši tirgū vai nodevuši ekspluatācijā, neatbilst šai regulai, nekavējoties veic nepieciešamās korektīvās darbības, kas vajadzīgas, lai panāktu sistēmas atbilstību vai, attiecīgi, to izņemtu, atspējotu vai atsauktu. Par to viņi informē attiecīgās augsta riska MI sistēmas izplatītājus un, attiecīgā gadījumā, uzturētājus, pilnvaroto pārstāvi un importētājus.
2. W przypadku gdy system AI wysokiego ryzyka stwarza ryzyko w rozumieniu art. 79 ust. 1 i dostawca danego systemu dowie się o tym ryzyku, dostawca ten natychmiast wyjaśnia przyczyny tego ryzyka, w stosownych przypadkach we współpracy ze zgłaszającym podmiotem stosującym, oraz informuje organy nadzoru rynku właściwe w zakresie przedmiotowych systemów AI wysokiego ryzyka, oraz, w stosownych przypadkach, jednostkę notyfikowaną, która zgodnie z art. 44 wydała certyfikat dla danego systemu AI wysokiego ryzyka, w szczególności o charakterze danej niezgodności oraz o wszelkich podjętych działaniach naprawczych.
2. Ja augsta riska MI sistēma rada risku 79. panta 1. punkta nozīmē un minētais risks kļūst zināms nodrošinātājam, tas nekavējoties izmeklē cēloņus, attiecīgā gadījumā sadarbojoties ar ziņojošo uzturētāju, un informē par attiecīgo augsta riska MI sistēmu kompetentās tirgus uzraudzības iestādes, un, ja vajadzīgs, paziņoto struktūru, kas saskaņā ar 44. pantu izdevusi sertifikātu minētajai augsta riska MI sistēmai, jo īpaši par neatbilstības raksturu un visām attiecīgajām korektīvajām darbībām, kas veiktas.
Upoważnieni przedstawiciele dostawców systemów AI wysokiego ryzyka
Augsta riska MI sistēmu nodrošinātāju pilnvarotie pārstāvji
1. Przed udostępnieniem swoich systemów AI wysokiego ryzyka na rynku Unii dostawcy mający miejsce zamieszkania lub siedzibę w państwach trzecich ustanawiają – na podstawie pisemnego pełnomocnictwa – upoważnionego przedstawiciela mającego miejsce zamieszkania lub siedzibę w Unii.
1. Nodrošinātāji, kas iedibināti trešās valstīs, pirms augsta riska sistēmu dara pieejamu Savienības tirgū, ar rakstisku pilnvaru ieceļ pilnvaroto pārstāvi, kurš iedibināts Savienībā.
2. Dostawca umożliwia swojemu upoważnionemu przedstawicielowi wykonywanie zadań powierzonych mu na mocy pełnomocnictwa udzielonego przez dostawcę.
2. Nodrošinātājs ļauj savam pilnvarotajam pārstāvim pildīt uzdevumus, kas norādīti no nodrošinātāja saņemtajā pilnvarojumā.
3. Upoważniony przedstawiciel wykonuje zadania powierzone mu na mocy pełnomocnictwa udzielonego przez dostawcę. Upoważniony przedstawiciel przekazuje organom nadzoru rynku, na wniosek, kopię pełnomocnictwa w jednym z oficjalnych języków instytucji Unii wskazanym przez właściwy organ. Do celów niniejszego rozporządzenia pełnomocnictwo uprawnia upoważnionego przedstawiciela do wykonywania następujących zadań:
3. Pilnvarotais pārstāvis veic uzdevumus, kas norādīti no nodrošinātāja saņemtajā pilnvarojumā. Tas pēc pieprasījuma iesniedz tirgus uzraudzības iestādēm pilnvarojuma kopiju kādā no Savienības iestāžu oficiālajām valodām, kā norāda kompetentā iestāde. Šīs regulas nolūkos pilnvarojums pilnvarotajam pārstāvim dod tiesības veikt šādus uzdevumus:
a)
sprawdzenie, czy zostały sporządzone deklaracja zgodności UE, o której mowa w art. 47, i dokumentacja techniczna, o której mowa w art. 11, oraz czy została przeprowadzona przez dostawcę odpowiednia procedura oceny zgodności;
a)
pārliecināties, ka nodrošinātājs ir sagatavojis 47. pantā minēto ES atbilstības deklarāciju un 11. pantā minēto tehnisko dokumentāciju un ir veicis pienācīgu atbilstības novērtēšanas procedūru;
b)
przechowywanie do dyspozycji właściwych organów i krajowych organów lub jednostek, o których mowa w art. 74 ust. 10, przez okres 10 lat od wprowadzenia systemu AI wysokiego ryzyka do obrotu lub oddania go do użytku, danych kontaktowych dostawcy, który ustanowił upoważnionego przedstawiciela, kopii deklaracji zgodności UE, o której mowa w art. 47, dokumentacji technicznej oraz, w stosownych przypadkach, certyfikatu wydanego przez jednostkę notyfikowaną;
b)
10 gadus pēc augsta riska MI sistēmas laišanas tirgū vai nodošanas ekspluatācijā, glabāt kompetentajām iestādēm un 74. panta 10. punktā minētajām valsts iestādēm vai struktūrām pieejamu tā nodrošinātāja kontaktinformāciju, kurš ir iecēlis pilnvaroto pārstāvi, 47. pantā minētās ES atbilstības deklarācijas kopiju, tehnisko dokumentāciju un, attiecīgā gadījumā, paziņotās struktūras izdoto sertifikātu;
c)
przekazywanie właściwemu organowi, na uzasadniony wniosek, wszelkich informacji i dokumentów, w tym tych, o których mowa w lit. b) niniejszego ustępu, niezbędnych do wykazania zgodności systemu AI wysokiego ryzyka z wymogami ustanowionymi w sekcji 2, w tym zapewnienie temu organowi dostępu do generowanych automatycznie przez system AI wysokiego ryzyka rejestrów zdarzeń, o których mowa w art. 12 ust. 1, w zakresie, w jakim tego rodzaju rejestry zdarzeń znajdują się pod kontrolą dostawcy;
c)
pēc pamatota pieprasījuma sniegt kompetentajai iestādei visu informāciju un dokumentāciju, tostarp to, kas minēta šīs daļas b) apakšpunktā, kas vajadzīga, lai apliecinātu augsta riska MI sistēmas atbilstību 2. iedaļā noteiktajām prasībām, tostarp piekļuvi augsta riska MI sistēmas automātiski ģenerētajām žurnāldatnēm, kā minēts 12. panta 1. punktā, ciktāl šādas žurnāldatnes ir nodrošinātāja pārziņā;
d)
współpraca z właściwymi organami, na uzasadniony wniosek, w zakresie wszelkich działań, które organy te podejmują w odniesieniu do danego systemu AI wysokiego ryzyka, w szczególności, aby zmniejszyć i ograniczyć ryzyko, jakie stwarza ten system AI wysokiego ryzyka;
d)
pēc pamatota pieprasījuma sadarboties ar kompetentajām iestādēm visās darbībās, ko tās veic saistībā ar augsta riska MI sistēmu, jo īpaši, lai ierobežotu un mazinātu riskus, kurus rada augsta riska MI sistēma;
e)
w stosownych przypadkach spełnianie obowiązków rejestracyjnych, o których mowa w art. 49 ust. 1, lub, jeżeli rejestracji dokonuje sam dostawca, zapewnienie, by informacje, o których mowa w załączniku VIII sekcja A pkt 3, były prawidłowe.
e)
attiecīgā gadījumā izpildīt 49. panta 1. punktā minētos reģistrācijas pienākumus vai, ja reģistrāciju veic pats nodrošinātājs, nodrošināt, ka VIII pielikuma A iedaļas 3. punktā minētā informācija ir pareiza.
Pełnomocnictwo daje upoważnionemu przedstawicielowi prawo do tego, aby właściwe organy mogły się zwracać do niego, obok albo zamiast do dostawcy, we wszystkich kwestiach dotyczących zapewnienia zgodności z niniejszym rozporządzeniem.
Pilnvarojums ļauj kompetentajām iestādēm visos jautājumos, kas saistīti ar atbilstības nodrošināšanu šai regulai, vērsties pie pilnvarotā pārstāvja, nevis pie nodrošinātāja, vai papildus nodrošinātājam.
4. Upoważniony przedstawiciel wypowiada pełnomocnictwo, jeśli uważa lub ma powody uważać, że dostawca działa w sposób sprzeczny ze swoimi obowiązkami wynikającymi z niniejszego rozporządzenia. W takim przypadku upoważniony przedstawiciel natychmiast informuje o wypowiedzeniu pełnomocnictwa i jego przyczynach odpowiedni organ nadzoru rynku, a także, w stosownych przypadkach, odpowiednią jednostkę notyfikowaną.
4. Pilnvarotais pārstāvis izbeidz pilnvarojumu, ja tas uzskata vai tam ir pamats uzskatīt, ka nodrošinātājs rīkojas pretēji saviem pienākumiem, kas noteikti šajā regulā. Šādā gadījumā par pilnvarojuma izbeigšanu un tās iemesliem tas nekavējoties informē attiecīgo tirgus uzraudzības iestādi, kā arī, vajadzības gadījumā, attiecīgo paziņoto struktūru.
1. Przed wprowadzeniem do obrotu systemu AI wysokiego ryzyka importerzy zapewniają jego zgodność z niniejszym rozporządzeniem, sprawdzając, czy:
1. Pirms augsta riska MI sistēmas laišanas tirgū šādas sistēmas importētāji nodrošina, ka sistēma atbilst šai regulai, pārliecinoties, ka:
a)
dostawca systemu AI wysokiego ryzyka przeprowadził odpowiednią procedurę oceny zgodności, o której mowa w art. 43;
a)
augsta riska MI sistēmas nodrošinātājs ir veicis attiecīgo atbilstības novērtēšanas procedūru, kas minēta 43. pantā;
b)
dostawca sporządził dokumentację techniczną zgodnie z art. 11 i załącznikiem IV;
b)
nodrošinātājs ir sagatavojis tehnisko dokumentāciju saskaņā ar 11. pantu un IV pielikumu;
c)
system opatrzono wymaganym oznakowaniem CE oraz dołączono do niego deklarację zgodności UE, o której mowa w art. 47, oraz instrukcję obsługi;
c)
sistēmai ir paredzētā CE zīme, un tai ir pievienota 47. pantā minētā ES atbilstības deklarācija un lietošanas instrukcija;
d)
dostawca ustanowił upoważnionego przedstawiciela zgodnie z art. 22 ust. 1.
d)
nodrošinātājs ir iecēlis pilnvaroto pārstāvi saskaņā ar 22. panta 1. punktu.
2. W przypadku gdy importer ma wystarczające powody, aby uważać, że system AI wysokiego ryzyka jest niezgodny z niniejszym rozporządzeniem lub został sfałszowany lub sfałszowana została dołączona do niego dokumentacja, nie wprowadza tego systemu do obrotu, dopóki nie zostanie zapewniona jego zgodność z niniejszym rozporządzeniem. W przypadku gdy system AI wysokiego ryzyka stwarza ryzyko w rozumieniu art. 79 ust. 1, importer informuje o tym dostawcę systemu, upoważnionych przedstawicieli oraz organy nadzoru rynku.
2. Ja importētājam ir pietiekams pamats uzskatīt, ka augsta riska MI sistēma neatbilst šai regulai vai ir falsificēta, vai tai pievienotā dokumentācija ir falsificēta, tas sistēmu nelaiž tirgū, kamēr nav panākts, ka tā ir atbilstoša. Ja augsta riska MI sistēma rada risku 79. panta 1. punkta nozīmē, importētājs par to informē sistēmas nodrošinātāju, pilnvarotos pārstāvjus un tirgus uzraudzības iestādes.
3. Importerzy podają w systemie AI wysokiego ryzyka, na opakowaniu tego systemu lub, w stosownych przypadkach, w dołączonej do niego dokumentacji swoją nazwę, zarejestrowaną nazwę handlową lub zarejestrowany znak towarowy i adres, pod którym można się z nimi skontaktować.
3. Uz augsta riska MI sistēmas un attiecīgā gadījumā uz tās iepakojuma vai tai pievienotajā dokumentācijā importētāji norāda savu nosaukumu/vārdu, reģistrēto tirdzniecības nosaukumu vai reģistrēto preču zīmi un adresi, kādā ar tiem var sazināties par augsta riska MI sistēmu.
4. Importerzy zapewniają, aby w okresie, w którym ponoszą odpowiedzialność za system AI wysokiego ryzyka, warunki jego – stosownie do przypadku – przechowywania lub transportu nie zagrażały jego zgodności z wymogami ustanowionymi w sekcji 2.
4. Importētāji nodrošina, ka laikā, kamēr tie atbild par augsta riska MI sistēmu, tās glabāšanas vai pārvadāšanas apstākļi attiecīgā gadījumā neapdraud tās atbilstību šīs sadaļas 2. nodaļā noteiktajām prasībām.
5. Przez okres 10 lat od wprowadzenia systemu AI wysokiego ryzyka do obrotu lub oddania go do użytku, importerzy przechowują kopię certyfikatu wydanego przez jednostkę notyfikowaną, w stosownych przypadkach, kopię instrukcji obsługi oraz deklaracji zgodności UE, o której mowa w art. 47.
5. Importētāji 10 gadus pēc augsta riska MI sistēmas laišanas tirgū vai nodošanas ekspluatācijā glabā paziņotās struktūras izdotā sertifikāta kopiju un, attiecīgā gadījumā, lietošanas instrukcijas un 47. pantā minētās ES atbilstības deklarācijas kopiju.
6. Na uzasadniony wniosek odpowiednich właściwych organów importerzy przekazują im wszelkie niezbędne informacje i dokumentację, w tym te, o których mowa w ust. 5, w celu wykazania zgodności systemu AI wysokiego ryzyka z wymogami ustanowionymi w sekcji 2, w języku łatwo zrozumiałym dla tych organów. W tym celu importerzy zapewniają również możliwość udostępnienia tym organom dokumentacji technicznej.
6. Importētāji pēc pamatota pieprasījuma sniedz attiecīgajām kompetentajām iestādēm visu informāciju un dokumentāciju – tostarp to, kas minēta 5. punktā –, kas vajadzīga, lai apliecinātu augsta riska MI sistēmas atbilstību 2. iedaļā noteiktajām prasībām; to sniedz valodā, kas tām ir viegli saprotama. Šajā nolūkā tie arī nodrošina, ka minētajām iestādēm var darīt pieejamu tehnisko dokumentāciju.
7. Importerzy współpracują z odpowiednimi właściwymi organami w zakresie wszelkich działań, które organy te podejmują w odniesieniu do systemu AI wysokiego ryzyka wprowadzonego do obrotu przez importerów, w szczególności aby zmniejszyć i ograniczyć stwarzane przez ten system ryzyko.
7. Importētāji sadarbojas ar attiecīgajām kompetentajām iestādēm visās darbībās, ko minētās iestādes veic attiecībā uz augsta riska MI sistēmu, kuru importētāji laiduši tirgū, jo īpaši, lai ierobežotu un mazinātu risku, ko tā rada.
1. Przed udostępnieniem na rynku systemu AI wysokiego ryzyka dystrybutorzy sprawdzają, czy został on opatrzony wymaganym oznakowaniem zgodności CE, czy dołączono do niego kopię deklaracji zgodności UE, o której mowa w art. 47, i instrukcję obsługi oraz czy dostawca oraz – w stosownych przypadkach – importer tego systemu spełnili swoje obowiązki ustanowione w art. 16 lit. b) i c) oraz w art. 23 ust. 3.
1. Pirms augsta riska MI sistēmu dara pieejamu tirgū, izplatītāji pārliecinās, ka augsta riska MI sistēmai ir paredzētā CE zīme vai tai ir pievienota 47. pantā minētās ES atbilstības deklarācijas kopija un lietošanas instrukcija un ka, attiecīgi, minētās sistēmas nodrošinātājs un importētājs ir izpildījuši savus attiecīgos pienākumus, kas noteikti 16. panta b) un c) punktā un 23. panta 3. punktā.
2. W przypadku gdy dystrybutor – na podstawie dostępnych mu informacji – uważa lub ma powód, aby uważać, że system AI wysokiego ryzyka nie jest zgodny z wymogami ustanowionymi w sekcji 2 niniejszego tytułu, nie udostępnia na rynku tego systemu AI wysokiego ryzyka, dopóki nie zostanie zapewniona zgodność systemu z tymi wymogami. Ponadto, jeżeli system AI wysokiego ryzyka stwarza ryzyko w rozumieniu art. 79 ust. 1, dystrybutor informuje o tym stosownie do przypadku dostawcę lub importera systemu.
2. Ja uz tā rīcībā esošas informācijas pamata izplatītājs uzskata vai tam ir pamats uzskatīt, ka augsta riska MI sistēma neatbilst 2. iedaļā norādītajām prasībām, tas augsta riska MI sistēmu nedara pieejamu tirgū, kamēr nav panākta sistēmas atbilstība minētajām prasībām. Turklāt, ja augsta riska sistēma rada risku 79. panta 1. punkta nozīmē, izplatītājs par to attiecīgi informē sistēmas nodrošinātāju vai importētāju.
3. Dystrybutorzy zapewniają, aby w okresie, w którym ponoszą odpowiedzialność za system AI wysokiego ryzyka, warunki jego przechowywania lub transportu – stosownie do przypadku – nie zagrażały zgodności systemu z wymogami ustanowionymi w sekcji 2.
3. Izplatītāji nodrošina, ka laikā, kad tie atbild par augsta riska MI sistēmu, tās glabāšanas vai pārvadāšanas apstākļi attiecīgā gadījumā neapdraud tās atbilstību 2. iedaļā noteiktajām prasībām.
4. Dystrybutor, który uważa lub ma powód, aby – na podstawie dostępnych mu informacji – uważać, że system AI wysokiego ryzyka udostępniony przez niego na rynku jest niezgodny z wymogami ustanowionymi w sekcji 2, podejmuje działania naprawcze konieczne do zapewnienia zgodności tego systemu z tymi wymogami, do wycofania go z rynku lub wycofania go z użytku lub zapewnia podjęcie takich działań naprawczych przez, stosownie do przypadku, dostawcę, importera lub odpowiedniego operatora. W przypadku gdy system AI wysokiego ryzyka stwarza ryzyko w rozumieniu art. 79 ust. 1, dystrybutor natychmiast informuje o tym dostawcę lub importera systemu oraz organy właściwe w zakresie przedmiotowego system AI wysokiego ryzyka, przekazując szczegółowe informacje w szczególności na temat niezgodności systemu z wymogami i wszelkich podjętych działań naprawczych.
4. Izplatītājs, kas, ņemot vērā tā rīcībā esošo informāciju, uzskata vai kam ir pamats uzskatīt, ka augsta riska MI sistēma, kuru tas darījis pieejamu tirgū, neatbilst 2. iedaļā noteiktajām prasībām, veic korektīvas darbības, kas vajadzīgas, lai panāktu šīs sistēmas atbilstību šīm prasībām, izņem vai atsauc to no tirgus vai nodrošina, ka minētās korektīvās darbības veic nodrošinātājs, importētājs vai attiecīgā gadījumā jebkurš attiecīgs operators. Ja augsta riska MI sistēma rada risku 79. panta 1. punkta nozīmē, izplatītājs nekavējoties par to informē sistēmas nodrošinātāju vai importētāju un par attiecīgo augsta riska MI sistēmu kompetentās iestādes, norādot sīku informāciju, jo īpaši par neatbilstību un veiktajām korektīvajām darbībām.
5. Na uzasadniony wniosek odpowiedniego organu dystrybutorzy systemów AI wysokiego ryzyka przekazują temu organowi wszelkie informacje i dokumentację dotyczące ich działań zgodnie z ust. 1–4, niezbędne do wykazania zgodności tego systemu z wymogami określonymi w sekcji 2.
5. Pēc pamatota attiecīgās kompetentās iestādes pieprasījuma augsta riska MI sistēmas izplatītāji šai iestādei sniedz visu uz 1.–4. punktā paredzētajām to darbībām attiecīgu informāciju un dokumentāciju, kas vajadzīga, lai apliecinātu augsta riska sistēmas atbilstību šīs 2. iedaļā noteiktajām prasībām.
6. Dystrybutorzy współpracują z odpowiednimi organami krajowymi w zakresie wszelkich działań, które organy te podejmują w odniesieniu do systemu AI wysokiego ryzyka udostępnionego na rynku przez dystrybutorów, w szczególności aby zmniejszyć lub ograniczyć stwarzane przez ten system ryzyko.
6. Izplatītāji sadarbojas ar attiecīgajām kompetentajām iestādēm visās darbībās, ko minētās iestādes veic attiecībā uz augsta riska MI sistēmu, kuru izplatītāji darījuši pieejamu tirgū, jo īpaši, lai ierobežotu vai mazinātu risku, ko tā rada.
Odpowiedzialność w całym łańcuchu wartości AI
Pienākumi MI vērtības ķēdē
1. Do celów niniejszego rozporządzenia za dostawcę systemu AI wysokiego ryzyka uznaje się i obejmuje obowiązkami dostawcy ustanowionymi w art. 16 każdego dystrybutora, importera, podmiot stosujący lub inną stronę trzecią, jeżeli zachodzi którakolwiek z następujących okoliczności:
1. Katru izplatītāju, importētāju, uzturētāju vai citu trešo personu šajā regulā uzskata par augsta riska MI sistēmas nodrošinātāju, un uz to attiecas 16. pantā paredzētie nodrošinātāja pienākumi jebkuros no šiem apstākļiem:
a)
umieszczają oni swoją nazwę lub znak towarowy w systemie AI wysokiego ryzyka, który został już wprowadzony do obrotu lub oddany do użytku, bez uszczerbku dla ustaleń umownych przewidujących, że podział obowiązków następuje w inny sposób;
a)
tie uzliek savu nosaukumu/vārdu vai preču zīmi augsta riska MI sistēmai, kura jau laista tirgū vai nodota ekspluatācijā, neskarot līgumiskas vienošanās, kas paredz, ka pienākumi tiek sadalīti citādi;
b)
we wprowadzonym już do obrotu lub oddanym do użytku systemie AI wysokiego ryzyka dokonują oni istotnej zmiany w taki sposób, że pozostaje on systemem AI wysokiego ryzyka zgodnie z art. 6;
b)
tie veic būtisku modifikāciju augsta riska MI sistēmā, kura jau ir laista tirgū vai jau ir nodota ekspluatācijā, tādā veidā, ka tā joprojām paliek augsta riska MI sistēma, ievērojot 6. pantu;
c)
zmieniają oni przeznaczenie systemu AI, w tym systemu AI ogólnego przeznaczenia, który nie został zaklasyfikowany jako system AI wysokiego ryzyka i który został już wprowadzony do obrotu lub oddany do użytku, w taki sposób, że dany system AI staje się systemem AI wysokiego ryzyka zgodnie z art. 6.
c)
tie veic modifikāciju MI sistēmai paredzētajā nolūkā, tostarp vispārīga lietojuma MI sistēmai, kas nav klasificēta kā augsta riska sistēma un kas jau ir laista tirgū vai nodota ekspluatācijā, tādā veidā, ka attiecīgā MI sistēma kļūst par augsta riska MI sistēmu saskaņā ar 6. pantu.
2. W przypadku zaistnienia okoliczności, o których mowa w ust. 1, dostawcy, który pierwotnie wprowadził do obrotu lub oddał do użytku ten system AI, nie uznaje się już do celów niniejszego rozporządzenia za dostawcę tego konkretnego systemu AI. Ten pierwotny dostawca ściśle współpracuje z nowymi dostawcami i udostępnia niezbędne informacje oraz udziela racjonalnie oczekiwanego dostępu technicznego i innego wsparcia niezbędnych do spełnienia obowiązków określonych w niniejszym rozporządzeniu, w szczególności w odniesieniu do zgodności z kryteriami oceny zgodności systemów AI wysokiego ryzyka. Niniejszego ustępu nie stosuje się w przypadkach, gdy pierwotny dostawca wyraźnie określił, że jego system AI nie może zostać zmieniony w system AI wysokiego ryzyka, a zatem nie dotyczy go obowiązek przekazania dokumentacji.
2. Ja ir 1. punktā minētie apstākļi, nodrošinātājs, kas MI sistēmu sākotnēji laidis tirgū vai nodevis ekspluatācijā, vairs netiek uzskatīts par minētās konkrētās MI sistēmas nodrošinātāju šīs regulas nolūkos. Minētais sākotnējais nodrošinātājs cieši sadarbojas ar jauniem nodrošinātājiem un dara pieejamu nepieciešamo informāciju un nodrošina saprātīgi sagaidāmu tehnisko piekļuvi un citu palīdzību, kas vajadzīga, lai pildītu šajā regulā paredzētās prasības, jo īpaši attiecībā uz atbilstību augsta riska MI sistēmu atbilstības novērtējumam. Šo punktu nepiemēro gadījumos, kad sākotnējais nodrošinātājs ir skaidri norādījis, ka tā MI sistēma nav maināma uz augsta riska MI sistēmu un tādējādi uz to neattiecas pienākums nodot dokumentāciju.
3. W przypadku systemów AI wysokiego ryzyka, które stanowią związane z bezpieczeństwem elementy produktów objętych zakresem unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I sekcja A, producenta produktów uznaje się za dostawcę systemu AI wysokiego ryzyka i podlega on obowiązkom ustanowionym w art. 16, jeżeli zachodzi którakolwiek z następujących okoliczności:
3. Gadījumos, kad augsta riska MI sistēmas ir tādu produktu drošības sastāvdaļas, uz kuriem attiecas I pielikuma A iedaļā uzskaitītie Savienības saskaņošanas tiesību akti, produkta ražotāju uzskata par augsta riska MI sistēmas nodrošinātāju un uz to attiecas 16. pantā noteiktie pienākumi kādos no šādiem apstākļiem:
a)
system AI wysokiego ryzyka jest wprowadzany do obrotu wraz z produktem pod nazwą lub znakiem towarowym producenta produktu;
a)
augsta riska MI sistēma tiek laista tirgū kopā ar produktu ar produkta ražotāja nosaukumu/vārdu vai preču zīmi;
b)
system AI wysokiego ryzyka jest oddawany do użytku pod nazwą lub znakiem towarowym producenta produktu po wprowadzeniu produktu do obrotu.
b)
augsta riska MI sistēma tiek nodota ekspluatācijā ar produkta ražotāja nosaukumu/vārdu vai preču zīmi pēc produkta laišanas tirgū.
4. Dostawca systemu AI wysokiego ryzyka i osoba trzecia dostarczająca system AI, narzędzia, usługi, komponenty lub procesy, które są wykorzystywane w systemie AI wysokiego ryzyka lub z nim zintegrowane, wskazują, w drodze pisemnej umowy, informacje, zdolności, dostęp techniczny i innego rodzaju pomoc opartą na powszechnie uznanym stanie wiedzy technicznej wymagane, aby umożliwić dostawcy systemu AI wysokiego ryzyka pełne spełnienie obowiązków ustanowionych w niniejszym rozporządzeniu. Niniejszego ustępu nie stosuje się do osób trzecich udostępniających publicznie na podstawie bezpłatnej licencji otwartego oprogramowania narzędzia, usługi, procesy lub komponenty inne niż modele AI ogólnego przeznaczenia.
4. Augsta riska MI sistēmas nodrošinātājs un trešā persona, kas piegādā MI sistēmu, rīkus, pakalpojumus, sastāvdaļas vai procesus, kuri tiek izmantoti vai integrēti augsta riska MI sistēmā, ar rakstisku vienošanos precizē, pamatojoties uz vispāratzītiem jaunākajiem sasniegumiem, nepieciešamo informāciju, spējas, tehnisko piekļuvi un citu palīdzību, lai augsta riska MI sistēmas nodrošinātājs varētu pilnībā izpildīt šajā regulā noteiktos pienākumus. Šo punktu nepiemēro trešām personām, kas dara pieejamus publiskus rīkus, pakalpojumus, procesus vai sastāvdaļas, kas nav vispārīga lietojuma MI modeļi ar bezmaksas un atvērtas piekļuves licenci.
Urząd ds. AI może opracować i zalecić dobrowolne wzorcowe postanowienia umowne dla umów zawieranych między dostawcami systemów AI wysokiego ryzyka a osobami trzecimi dostarczającymi narzędzia, usługi, komponenty lub procesy, które są wykorzystywane na potrzeby systemów AI wysokiego ryzyka lub zintegrowane z tymi systemami. Przy opracowywaniu dobrowolnych wzorcowych postanowień umownych, Urząd ds. AI bierze również pod uwagę ewentualne wymogi umowne mające zastosowanie w określonych sektorach lub przypadkach biznesowych. Dobrowolne wzorcowe postanowienia umowne są publikowane i udostępniane bezpłatnie w łatwym w użyciu formacie elektronicznym.
MI birojs var izstrādāt un ieteikt brīvprātīgus paraugnoteikumus līgumiem starp augsta riska MI sistēmu nodrošinātājiem un trešām personām, kuras piegādā rīkus, pakalpojumus, sastāvdaļas vai procesus, ko izmanto vai integrē augsta riska MI sistēmās. Izstrādājot minētos brīvprātīgos līguma paraugnoteikumus, MI birojs ņem vērā iespējamās līgumiskās prasības, kas piemērojamas konkrētās nozarēs vai uzņēmējdarbības gadījumos. Brīvprātīgos paraugnoteikumus publicē, un tie ir bez maksas pieejami viegli lietojamā elektroniskā formātā.
5. Ust. 2 i 3 pozostają bez uszczerbku dla konieczności przestrzegania i ochrony praw własności intelektualnej, poufnych informacji handlowych i tajemnic przedsiębiorstwa zgodnie z prawem Unii i prawem krajowym.
5. Šā panta 2. un 3. punkts neskar nepieciešamību ievērot un aizsargāt intelektuālā īpašuma tiesības, konfidenciālu uzņēmējdarbības informāciju un komercnoslēpumus saskaņā ar Savienības un valsts tiesību aktiem.
Obowiązki podmiotów stosujących systemy AI wysokiego ryzyka
Augsta riska MI sistēmu uzturētāju pienākumi
1. Podmioty stosujące systemy AI wysokiego ryzyka podejmują – na podstawie ust. 3 i 6 – odpowiednie środki techniczne i organizacyjne w celu zapewnienia, aby systemy takie były wykorzystywane zgodnie z dołączoną do nich instrukcją obsługi.
1. Augsta riska MI sistēmu uzturētāji veic pienācīgus tehniskos un organizatoriskos pasākumus, lai nodrošinātu, ka viņi šādas sistēmas lieto saskaņā ar sistēmām pievienoto lietošanas instrukciju, ievērojot 3. un 6. punktu.
2. Podmioty stosujące powierzają sprawowanie nadzoru ze strony człowieka osobom fizycznym, które mają niezbędne kompetencje, przeszkolenie i uprawnienia, a także niezbędne wsparcie.
2. Uzturētāji uztic cilvēka virsvadību fiziskām personām, kurām ir vajadzīgā kompetence, apmācība un pilnvaras, kā arī nepieciešamais atbalsts.
3. Obowiązki ustanowione w ust. 1 i 2 pozostają bez uszczerbku dla innych obowiązków podmiotu stosującego wynikających z prawa Unii lub prawa krajowego oraz dla przysługującej podmiotowi stosującemu swobody organizowania swoich zasobów własnych i działań w celu wdrożenia wskazanych przez dostawcę środków nadzoru ze strony człowieka.
3. Šā panta 1. un 2. punktā noteiktie pienākumi neskar citus uzturētāju pienākumus, kas noteikti Savienības vai valsts tiesību aktos, un uzturētāja brīvību organizēt savus resursus un darbības, lai īstenotu nodrošinātāja norādītos cilvēka virsvadības pasākumus.
4. Bez uszczerbku dla ust. 1 i 2 podmiot stosujący zapewnia, w zakresie, w jakim sprawuje on kontrolę nad danymi wejściowymi, adekwatność i wystarczającą reprezentatywność danych wejściowych w odniesieniu do przeznaczenia systemu AI wysokiego ryzyka.
4. Neskarot 1. un 2. punktu, ciktāl uzturētājs īsteno kontroli pār ievaddatiem, minētais uzturētājs nodrošina, ka ievaddati ir attiecīgi un pietiekami reprezentatīvi, ņemot vērā augsta riska MI sistēmai paredzēto nolūku.
5. Podmioty stosujące monitorują działanie systemu AI wysokiego ryzyka w oparciu o instrukcję obsługi i w stosownych przypadkach informują dostawców zgodnie z art. 72. W przypadku gdy podmioty stosujące mają powody uważać, że wykorzystanie systemu AI wysokiego ryzyka zgodnie z instrukcją obsługi może powodować, że ten system AI będzie stwarzał ryzyko w rozumieniu art. 79 ust. 1, bez zbędnej zwłoki informują o tym dostawcę lub dystrybutora oraz odpowiedni organ nadzoru rynku i zawieszają wykorzystywanie systemu. W przypadku gdy podmioty stosujące stwierdziły wystąpienie poważnego incydentu, natychmiast informują o tym incydencie najpierw dostawcę, a następnie importera lub dystrybutora oraz odpowiednie organy nadzoru rynku. Jeżeli podmiot stosujący nie jest w stanie skontaktować się z dostawcą, art. 73 stosuje się odpowiednio. Obowiązek ten nie obejmuje wrażliwych danych operacyjnych podmiotów stosujących systemy AI będących organami ścigania.
5. Uzturētāji pārrauga augsta riska MI sistēmas darbību, pamatojoties uz lietošanas instrukciju, un attiecīgā gadījumā informē nodrošinātājus saskaņā ar 72. pantu. Ja uzturētājiem ir pamats uzskatīt, ka augsta riska MI sistēmas lietošana saskaņā ar instrukciju var radīt risku 79. panta 1. punkta nozīmē, viņi bez liekas kavēšanās informē nodrošinātāju vai izplatītāju un attiecīgo tirgus uzraudzības iestādi un aptur minētās sistēmas lietošanu. Ja uzturētāji ir identificējuši nopietnu incidentu, viņi par minēto incidentu arī nekavējoties informē vispirms nodrošinātāju un pēc tam importētāju vai izplatītāju un attiecīgās tirgus uzraudzības iestādes. Ja uzturētājs nevar sazināties ar nodrošinātāju, mutatis mutandis piemēro 73. pantu. Šis pienākums neattiecas uz MI sistēmu uzturētāju, kas ir tiesībaizsardzības iestādes, sensitīviem operatīvajiem datiem.
W odniesieniu do podmiotów stosujących będących instytucjami finansowymi, które podlegają wymogom dotyczącym ich systemu zarządzania wewnętrznego, uzgodnień lub procedur na podstawie przepisów prawa Unii dotyczących usług finansowych, obowiązek w zakresie monitorowania, o którym mowa w akapicie pierwszym, uznaje się za spełniony w przypadku zapewnienia zgodności z przepisami dotyczącymi uzgodnień, procedur i mechanizmów zarządzania wewnętrznego na podstawie odpowiednich przepisów dotyczących usług finansowych.
Attiecībā uz uzturētājiem, kas ir finanšu iestādes, uz kurām attiecas Savienības finanšu pakalpojumu jomas tiesību aktos paredzētās prasības par to iekšējo pārvaldību, kārtību vai procesiem, pirmajā daļā noteikto pārraudzības pienākumu uzskata par izpildītu, ja ir izpildīti noteikumi par iekšējās pārvaldības kārtību, procesiem un mehānismiem, ievērojot attiecīgos tiesību aktus finanšu pakalpojumu jomā.
6. Podmioty stosujące systemy AI wysokiego ryzyka przechowują generowane automatycznie przez system AI wysokiego ryzyka rejestry zdarzeń – w zakresie, w jakim rejestry te znajdują się pod ich kontrolą – przez stosowny ze względu na przeznaczenie danego systemu AI wysokiego ryzyka okres, wynoszący co najmniej sześć miesięcy, o ile mające zastosowanie prawo Unii lub prawo krajowe, w szczególności prawo Unii dotyczące ochrony danych osobowych, nie stanowi inaczej.
6. Augsta riska MI sistēmu uzturētāji glabā minētās augsta riska MI sistēmas ģenerētās žurnāldatnes, ciktāl šādas žurnāldatnes ir viņu pārziņā, tādu laikposmu, kas atbilst augsta riska MI sistēmai paredzētajam nolūkam – vismaz sešus mēnešus, ja vien piemērojamajos Savienības vai valsts tiesību aktos, jo īpaši Savienības tiesību aktos par personas datu aizsardzību, nav noteikts citādi.
Podmioty stosujące będące instytucjami finansowymi, które podlegają wymogom dotyczącym ich systemu zarządzania wewnętrznego, uzgodnień lub procedur na podstawie przepisów prawa Unii dotyczących usług finansowych, prowadzą rejestry zdarzeń jako część dokumentacji prowadzonej na podstawie odpowiednich unijnych przepisów dotyczących usług finansowych.
Uzturētāji, kas ir finanšu iestādes, uz kurām attiecas Savienības finanšu pakalpojumu jomas tiesību aktos paredzētās prasības par to iekšējo pārvaldību, kārtību vai procesiem, žurnāldatnes uztur kā daļu no dokumentācijas, kuru glabā, ievērojot attiecīgos Savienības tiesību aktus finanšu pakalpojumu jomā.
7. Przed oddaniem do użytku lub wykorzystaniem systemu AI wysokiego ryzyka w miejscu pracy podmioty stosujące będące pracodawcami informują przedstawicieli pracowników i pracowników, których to dotyczy, że będzie w stosunku do nich wykorzystywany system AI wysokiego ryzyka. Informacje te przekazuje się, w stosownych przypadkach, zgodnie z zasadami i procedurami ustanowionymi w prawie Unii i prawie krajowym oraz praktyką w zakresie informowania pracowników i ich przedstawicieli.
7. Pirms augsta riska MI sistēmas nodošanas ekspluatācijā vai lietošanas darbavietā uzturētāji, kas ir darba devēji, informē darba ņēmēju pārstāvjus un skartos darba ņēmējus par to, ka uz viņiem attieksies augsta riska MI sistēmas lietošana. Šo informāciju attiecīgā gadījumā sniedz saskaņā ar noteikumiem un procedūrām, kas paredzētas Savienības un valsts tiesību aktos un praksē attiecībā uz darba ņēmēju un viņu pārstāvju informēšanu.
8. Podmioty stosujące systemy AI wysokiego ryzyka, będące publicznymi organami lub instytucjami, organami i jednostkami organizacyjnymi Unii, spełniają obowiązki rejestracji, o których mowa w art. 49. Jeżeli takie podmioty stosujące ustalą, że system AI wysokiego ryzyka, który zamierzają wykorzystywać, nie został zarejestrowany w bazie danych UE, o której mowa w art. 71, nie stosują tego systemu i informują o tym dostawcę lub dystrybutora.
8. Augsta riska MI sistēmu uzturētāji, kas ir publiskas iestādes, vai Savienības iestādes, struktūras, biroji vai aģentūras pilda 49. pantā minētos reģistrācijas pienākumus. Ja šādi uzturētāji konstatē, ka augsta riska MI sistēma, kuru viņi plāno lietot, nav reģistrēta 71. pantā minētajā ES datubāzē, viņi minēto sistēmu nelieto un informē nodrošinātāju vai izplatītāju.
9. W stosownych przypadkach, podmioty stosujące systemy AI wysokiego ryzyka korzystają z informacji przekazanych na podstawie art. 13 niniejszego rozporządzenia, aby spełnić spoczywając na nich obowiązki przeprowadzenia oceny skutków dla ochrony danych zgodnie z art. 35 rozporządzenia (UE) 2016/679 lub art. 27 dyrektywy (UE) 2016/680.
9. Attiecīgā gadījumā augsta riska MI sistēmu uzturētāji izmanto saskaņā ar šīs regulas 13. pantu sniegto informāciju, lai izpildītu pienākumu veikt novērtējumu par ietekmi uz datu aizsardzību, kā paredzēts Regulas (ES) 2016/679 35. pantā vai Direktīvas (ES) 2016/680 27. pantā.
10. Bez uszczerbku dla dyrektywy (UE) 2016/680, w ramach postępowania przygotowawczego dotyczącego ukierunkowanego poszukiwania osoby podejrzanej o popełnienie przestępstwa lub skazanej za popełnienie przestępstwa podmiot stosujący system AI wysokiego ryzyka do celów zdalnej identyfikacji biometrycznej post factum zwraca się – ex ante lub bez zbędnej zwłoki, nie później jednak niż w ciągu 48 godzin – do organu wymiaru sprawiedliwości lub organu administracyjnego, którego decyzja jest wiążąca i podlega kontroli sądowej, z wnioskiem o zezwolenie na wykorzystanie tego systemu, z wyjątkiem sytuacji, gdy jest on wykorzystywany do wstępnej identyfikacji potencjalnego podejrzanego w oparciu o obiektywne i możliwe do zweryfikowania fakty bezpośrednio związane z przestępstwem. Każde wykorzystanie takiego systemu musi być ograniczone do tego, co jest bezwzględnie konieczne do prowadzenia postępowań przygotowawczych w sprawie konkretnego przestępstwa.
10. Neskarot Direktīvu (ES) 2016/680, lai izmeklēšanas ietvaros veiktu personas, kas tiek turēta aizdomās vai ir notiesāta par noziedzīga nodarījuma izdarīšanu, mērķtiecīgu meklēšanu, vēlāklaika biometriskās identifikācijai paredzētas augsta riska MI sistēmas uzturētājs ex-ante vai bez liekas kavēšanās un ne vēlāk kā 48 stundu laikā lūdz tiesu iestādei vai administratīvai iestādei, kuras lēmums ir saistošs un uz ko attiecas tiesas pārbaude, atļauju lietot minēto sistēmu, izņemot gadījumus, kad tā tiek lietota potenciāla aizdomās turamā sākotnējai identifikācijai, pamatojoties uz objektīviem un pārbaudāmiem faktiem, kas ir tieši saistīti ar nodarījumu. Katra lietošana ir ierobežota un attiecas tikai uz to, kas ir absolūti nepieciešams konkrēta noziedzīga nodarījuma izmeklēšanai.
W przypadku gdy wniosek o zezwolenie, o którym mowa w akapicie pierwszym, zostanie odrzucony, korzystanie z systemu zdalnej identyfikacji biometrycznej post factum, będące przedmiotem wniosku o zezwolenie, zostaje wstrzymane ze skutkiem natychmiastowym, a dane osobowe związane z wykorzystaniem systemu AI wysokiego ryzyka, w odniesieniu do którego złożono wniosek o zezwolenie, zostają usunięte.
Ja atļauja, kas pieprasīta, ievērojot pirmo daļu, netiek piešķirta, ar minēto pieprasīto atļauju saistīto vēlāklaika biometriskās identifikācijas sistēmas lietošanu nekavējoties pārtrauc un personas datus, kas saistīti ar tādu augsta riska MI sistēmas lietošanu, par kuru tika lūgta atļauja, dzēš.
W żadnym przypadku taki system AI wysokiego ryzyka służący do zdalnej identyfikacji biometrycznej post factum nie może być wykorzystywany do celów ścigania przestępstw w sposób nieukierunkowany, bez związku z przestępstwem, postępowaniem karnym, rzeczywistym i obecnym lub rzeczywistym i dającym się przewidzieć zagrożeniem popełnieniem przestępstwa lub poszukiwaniem konkretnej osoby zaginionej. Zapewnia się, aby organy ścigania mogły wydać żadnej decyzji wywołującej niepożądane skutki prawne dla danej osoby wyłącznie na podstawie wyników uzyskanych z systemu zdalnej identyfikacji biometrycznej post factum.
Nekādā gadījumā šādu vēlāklaika biometriskās identifikācijai paredzētu augsta riska MI sistēmu nelieto tiesībaizsardzības nolūkos nemērķorientētā veidā, bez kādas saistības ar noziedzīgu nodarījumu, kriminālprocesu, reāliem un pašreizējiem vai reāliem un paredzamiem noziedzīga nodarījuma draudiem vai konkrētas pazudušas personas meklēšanu. Nodrošina, ka lēmumu, kas personai rada nelabvēlīgas tiesiskas sekas, tiesībaizsardzības iestādes nevar pieņemt, balstoties vienīgi uz šādu vēlāklaika biometriskās tālidentifikācijas sistēmu sniegto iznākumu.
Niniejszy ustęp pozostaje bez uszczerbku dla art. 9 rozporządzenia (UE) 2016/679 i art. 10 dyrektywy (UE) 2016/680 w odniesieniu do przetwarzania danych biometrycznych.
Šis punkts neskar Regulas (ES) 2016/679 9. pantu un Direktīvas (ES) 2016/680 10. pantu attiecībā uz biometrisko datu apstrādi.
Niezależnie od celu lub podmiotu stosującego każde wykorzystanie takich systemów AI wysokiego ryzyka musi zostać udokumentowane w odpowiednich aktach policyjnych i udostępnione na wniosek właściwego organu nadzoru rynku i krajowemu organowi ochrony danych, z wyłączeniem ujawniania wrażliwych danych operacyjnych związanych ze ściganiem przestępstw. Niniejszy akapit pozostaje bez uszczerbku dla uprawnień powierzonych organom nadzorczym dyrektywą (UE) 2016/680.
Neatkarīgi no nolūka vai uzturētāja katru šādu augsta riska MI sistēmu lietošanu dokumentē attiecīgā policijas datnē un pēc pieprasījuma dara pieejamu attiecīgajai tirgus uzraudzības iestādei un valsts datu aizsardzības iestādei, izņemot ar tiesībaizsardzību saistītu sensitīvu operatīvo datu izpaušanu. Šī daļa neskar pilnvaras, kas ar Direktīvu (ES) 2016/680 piešķirtas uzraudzības iestādēm.
Podmioty stosujące przedkładają właściwym organom nadzoru rynku i krajowym organom ochrony danych roczne sprawozdania dotyczące wykorzystania przez nie systemów zdalnej identyfikacji biometrycznej post factum, z wyłączeniem ujawniania wrażliwych danych operacyjnych związanych ze ściganiem przestępstw. Sprawozdania te mogą zostać zagregowane w celu uwzględnienia stosowania więcej niż jednego systemu.
Uzturētāji iesniedz attiecīgajai tirgus uzraudzības iestādei un valsts datu aizsardzības iestādei gada ziņojumus par gadījumiem, kad tie lietojuši vēlāklaika biometriskās tālidentifikācijas sistēmas, izņemot ar tiesībaizsardzību saistītu sensitīvu operatīvo datu izpaušanu. Ziņojumus var agregēt, lai vienā operācijā aptvertu vairāk nekā vienu ieviešanu.
Państwa członkowskie mogą wprowadzić, zgodnie z prawem Unii, bardziej restrykcyjne przepisy dotyczące korzystania z systemów zdalnej identyfikacji biometrycznej post factum.
Dalībvalstis saskaņā ar Savienības tiesību aktiem var ieviest ierobežojošākus tiesību aktus par vēlāklaika biometriskās tālidentifikācijas sistēmu lietošanu.
11. Bez uszczerbku dla art. 50 niniejszego rozporządzenia podmioty stosujące systemy wysokiego ryzyka, o których mowa w załączniku III, które to podmioty podejmują decyzje lub uczestniczą w podejmowaniu decyzji dotyczących osób fizycznych, informują osoby fizyczne o tym, że jest w stosunku do nich wykorzystywany system AI wysokiego ryzyka. W przypadku systemów AI wysokiego ryzyka wykorzystywanych do celów ścigania przestępstw stosuje się art. 13 dyrektywy (UE) 2016/680.
11. Neskarot šīs regulas 50. pantu, III pielikumā minēto augsta riska MI sistēmu uzturētāji, kas pieņem lēmumus vai palīdz pieņemt lēmumus saistībā ar fiziskām personām, informē fiziskas personas, ka uz tām attiecas augsta riska MI sistēmas lietošana. Augsta riska MI sistēmām, ko izmanto tiesībaizsardzības nolūkos, piemēro Direktīvas (ES) 2016/680 13. pantu.
12. Podmioty stosujące współpracują z odpowiednimi właściwymi organami przy wszelkich działaniach, które organy te podejmują w odniesieniu do systemu AI wysokiego ryzyka, w celu wykonywania niniejszego rozporządzenia.
12. Uzturētāji sadarbojas ar attiecīgajām kompetentajām iestādēm visās darbībās, ko minētās iestādes šīs regulas īstenošanas nolūkā veic saistībā ar augsta riska MI sistēmu.
Ocena skutków systemów AI wysokiego ryzyka dla praw podstawowych
Augsta riska MI sistēmu ietekmes uz pamattiesībām novērtējums
1. Przed wdrożeniem systemu AI wysokiego ryzyka, o którym mowa w art. 6 ust. 2, z wyjątkiem systemów AI wysokiego ryzyka przeznaczonych do stosowania w obszarze wymienionym w załączniku III pkt 2, podmioty stosujące będące podmiotami prawa publicznego lub podmiotami prywatnymi świadczącymi usługi publiczne, oraz podmioty stosujące systemy AI wysokiego ryzyka, o których mowa w załączniku III pkt 5 lit. b) i c), przeprowadzają ocenę skutków w zakresie praw podstawowych, jakie może wywołać wykorzystanie takiego systemu. W tym celu podmioty stosujące przeprowadzają ocenę obejmującą:
1. Pirms tiek lietota augsta riska MI sistēma, kas minēta 6. panta 2. punktā, izņemot augsta riska MI sistēmas, ko paredzēts lietot III pielikuma 2. punktā uzskaitītā jomā, uzturētāji, kas ir publisko tiesību subjekti vai privātas vienības, kas sniedz sabiedriskos pakalpojumus, un III pielikuma 5. punkta b) un c) apakšpunktos minēto augsta riska MI sistēmu uzturētāji, veic novērtējumu par ietekmi uz pamattiesībām, kādu var radīt šādas sistēmas lietošana. Minētajā nolūkā uzturētāji veic novērtējumu, kurā ietver
a)
opis procesów podmiotu stosującego, w których system AI wysokiego ryzyka będzie wykorzystywany zgodnie z jego przeznaczeniem;
a)
to uzturētāja procesu aprakstu, kuros augsta riska MI sistēma tiks lietota saskaņā ar tai paredzēto nolūku;
b)
opis okresu, w którym każdy system AI wysokiego ryzyka ma być wykorzystywany i opis częstotliwości tego wykorzystywania;
b)
laikposma un biežuma aprakstu, kādā paredzēts lietot katru augsta riska MI sistēmu;
c)
kategorie osób fizycznych i grup, na które może mieć wpływ wykorzystywanie systemu;
c)
to fizisku personu un grupu kategorijas, kuras, iespējams, skartu sistēmas izmantošana konkrētā kontekstā;
d)
szczególne ryzyko szkody, które może mieć wpływ na kategorie osób fizycznych lub grupy osób zidentyfikowane zgodnie z lit. c) niniejszego ustępu, z uwzględnieniem informacji przekazanych przez dostawcę zgodnie z art. 13;
d)
konkrētus kaitējuma riskus, kam, iespējams, būtu ietekme uz to fizisku personu vai personu grupu kategorijām, kas noteiktas, ievērojot šā punkta c) apakšpunktu, ņemot vērā informāciju, ko nodrošinātājs sniedzis, ievērojot 13. pantu;
e)
opis wdrożenia środków nadzoru ze strony człowieka, zgodnie z instrukcją obsługi;
e)
aprakstu par cilvēka virsvadības pasākumu īstenošanu saskaņā ar lietošanas instrukciju;
f)
środki, jakie należy podjąć w przypadku urzeczywistnienia się tego ryzyka, w tym ustalenia dotyczące zarządzania wewnętrznego i mechanizmów rozpatrywania skarg.
f)
pasākumus, kas veicami, ja minētie riski materializējas, tostarp iekšējās pārvaldības kārtību un sūdzību mehānismus.
2. Obowiązek ustanowiony w ust. 1 ma zastosowanie do wykorzystania systemu AI wysokiego ryzyka po raz pierwszy. W podobnych przypadkach podmiot stosujący może polegać na wcześniej przeprowadzonych ocenach skutków dla praw podstawowych lub na istniejących ocenach skutków przeprowadzonych przez dostawcę. Jeżeli w trakcie wykorzystania systemu AI wysokiego ryzyka podmiot stosujący uzna, że którykolwiek z elementów wymienionych w ust. 1 uległ zmianie lub nie jest już aktualny, podmiot ten podejmuje niezbędne kroki w celu aktualizacji informacji.
2. Šā panta 1. punktā paredzētais pienākums attiecas uz augsta riska MI sistēmas pirmo lietošanu. Uzturētājs līdzīgos gadījumos var izmantot iepriekš veiktus novērtējumus par ietekmi uz pamattiesībām vai esošu novērtējumu, ko veicis nodrošinātājs. Ja augsta riska MI sistēmas lietošanas laikā uzturētājs uzskata, ka kāds no 1. punktā uzskaitītajiem elementiem ir mainījies vai ir novecojis, uzturētājs veic nepieciešamos pasākumus, lai atjauninātu informāciju.
3. Po przeprowadzeniu oceny, o której mowa w ust. 1 niniejszego artykułu, podmiot stosujący powiadamia organ nadzoru rynku o jej wynikach, przedkładając jako element tego powiadomienia wypełniony wzór, o którym mowa w ust. 5 niniejszego artykułu. W przypadku, o którym mowa w art. 46 ust. 1, podmioty stosujące mogą zostać zwolnione z obowiązku dokonania powiadomienia.
3. Pēc tam, kad ir veikts šā panta 1. punktā minētais novērtējums, uzturētājs paziņo tirgus uzraudzības iestādei tā rezultātus, iesniedz kā paziņojuma daļu aizpildīto veidni, kas minēta šā panta 5. punktā. Gadījumā, kas minēts 46. panta 1. punktā, uzturētāji var tikt atbrīvoti no minētā paziņošanas pienākuma.
4. Jeżeli którykolwiek z obowiązków ustanowionych w niniejszym artykule został już spełniony w wyniku oceny skutków dla ochrony danych przeprowadzonej zgodnie z art. 35 rozporządzenia (UE) 2016/679 lub art. 27 dyrektywy (UE) 2016/680, ocena skutków w zakresie praw podstawowych, o której mowa w ust. 1 niniejszego artykułu, stanowi uzupełnieniem tej oceny skutków dla ochrony danych.
4. Ja kāds no šajā pantā paredzētajiem pienākumiem jau ir izpildīts ar novērtējumu par ietekmi uz datu aizsardzību, ko veic, ievērojot Regulas (ES) 2016/679 35. pantu vai Direktīvas (ES) 2016/680 27. pantu, šā panta 1. punktā minētais novērtējums par ietekmi uz pamattiesībām papildina šo novērtējumu par ietekmi uz datu aizsardzību.
5. Urząd ds. AI opracowuje wzór kwestionariusza, w tym za pomocą zautomatyzowanego narzędzia, aby ułatwić podmiotom stosującym spełnianie ich obowiązków wynikających z niniejszego artykułu w sposób uproszczony.
5. MI birojs izstrādā anketas veidni, tostarp, izmantojot automatizētu rīku, lai atvieglotu uzturētājiem šajā pantā paredzēto pienākumu pildīšanu vienkāršotā veidā.
1. Każde państwo członkowskie wyznacza lub ustanawia przynajmniej jeden organ notyfikujący odpowiedzialny za opracowanie i stosowanie procedur koniecznych do oceny, wyznaczania i notyfikowania jednostek oceniających zgodność oraz za ich monitorowanie. Procedury te są przygotowywane wspólnie przez organy notyfikujące wszystkich państw członkowskich.
1. Katra dalībvalsts izraugās vai izveido vismaz vienu paziņojošo iestādi, kas atbild par vajadzīgo procedūru izveidi un izpildi atbilstības novērtēšanas struktūru novērtēšanai, izraudzīšanai un paziņošanai, kā arī to pārraudzībai. Minētās procedūras izstrādā, sadarbojoties visu dalībvalstu paziņojošajām iestādēm.
2. Państwa członkowskie mogą zdecydować, że ocena oraz monitorowanie, o których mowa w ust. 1, są prowadzone przez krajową jednostkę akredytującą w rozumieniu rozporządzenia (WE) nr 765/2008 oraz zgodnie z tym rozporządzeniem.
2. Dalībvalstis var nolemt, ka 1. punktā minēto novērtēšanu un pārraudzību jāveic valsts akreditācijas struktūrai Regulas (EK) Nr. 765/2008 nozīmē un saskaņā ar to.
3. Organy notyfikujące ustanawia się, organizuje się i zarządza się nimi w taki sposób, aby nie dopuścić do wystąpienia konfliktu interesów z jednostkami oceniającymi zgodność i aby zapewnić obiektywny i bezstronny charakter ich działalności.
3. Paziņojošās iestādes tiek izveidotas, organizētas un darbojas tā, lai nerastos interešu konflikts ar atbilstības novērtēšanas struktūrām un tiktu garantēta to darbību objektivitāte un neitralitāte.
4. Działalność organów notyfikujących organizuje się w taki sposób, aby decyzje dotyczące notyfikacji jednostek oceniających zgodność podejmowały kompetentne osoby, które nie przeprowadzały oceny tych jednostek.
4. Paziņojošās iestādes tiek organizētas tā, lai lēmumus saistībā ar atbilstības novērtēšanas struktūru paziņošanu pieņemtu kompetentās personas, kas nav tās pašas, kuras veikušas minēto struktūru novērtēšanu.
5. Organy notyfikujące nie mogą oferować ani podejmować żadnych działań realizowanych przez jednostki oceniające zgodność ani świadczyć żadnych usług doradztwa na zasadzie komercyjnej lub konkurencyjnej.
5. Paziņojošās iestādes nepiedāvā un neveic darbības, ko veic atbilstības novērtēšanas struktūras, vai komerciālus vai uz konkurenci balstītus konsultāciju pakalpojumus.
6. Organy notyfikujące zapewniają poufność otrzymywanych informacji zgodnie z art. 78.
6. Paziņojošās iestādes nodrošina to iegūtās informācijas konfidencialitāti saskaņā ar 78. pantu.
7. Organy notyfikujące muszą dysponować odpowiednią liczbą kompetentnych pracowników, aby należycie wykonywać powierzone im zadania. Kompetentni pracownicy muszą posiadać, w odpowiednich przypadkach, wiedzę fachową niezbędną do pełnienia ich funkcji w dziedzinach, takich jak technologie informacyjne, AI i prawo, w tym nadzór nad prawami podstawowymi.
7. To uzdevumu pienācīgai izpildei paziņojošo iestāžu rīcībā ir pietiekams skaits kompetentu darbinieku. Kompetentajam personālam attiecīgā gadījumā ir to funkcijai nepieciešamās speciālās zināšanas tādās jomās kā informācijas tehnoloģijas, MI un tiesības, tostarp pamattiesību uzraudzība.
Wniosek jednostki oceniającej zgodność o notyfikację
Atbilstības novērtēšanas struktūras pieteikums paziņošanai
1. Jednostki oceniające zgodność przekazują wniosek o notyfikację organowi notyfikującemu państwa członkowskiego, w którym znajduje się ich siedziba.
1. Atbilstības novērtēšanas struktūras iesniedz paziņošanas pieteikumu paziņojošajai iestādei tajā dalībvalstī, kurā tās izveidotas.
2. Do wniosku o notyfikację załącza się opis czynności z zakresu oceny zgodności, modułu lub modułów oceny zgodności i rodzajów systemów AI, w odniesieniu do których jednostka oceniająca zgodność uważa się za kompetentną, a także wydany przez krajową jednostkę akredytującą certyfikat akredytacji (o ile takowy istnieje) poświadczający, że jednostka oceniająca zgodność spełnia wymogi ustanowione w art. 31.
2. Paziņošanas pieteikumam pievieno aprakstu par atbilstības novērtēšanas darbībām, atbilstības novērtēšanas moduli vai moduļiem un MI sistēmu veidiem, attiecībā uz kuriem atbilstības novērtēšanas struktūra apliecina savu kompetenci, kā arī valsts akreditācijas struktūras izsniegtu akreditācijas sertifikātu, ja tāds ir, kas apliecina, ka atbilstības novērtēšanas struktūra atbilst 31. pantā noteiktajām prasībām.
Do wniosku załącza się również wszelkie ważne dokumenty dotyczące obowiązującego wyznaczenia – na podstawie innego unijnego prawodawstwa harmonizacyjnego – występującej z wnioskiem jednostki notyfikowanej.
Pievieno derīgus dokumentus, kas saistīti ar pieteikuma iesniedzējas paziņotās struktūras esošu izraudzīšanos saskaņā ar citiem Savienības saskaņošanas tiesību aktiem.
3. Jeżeli dana jednostka oceniająca zgodność nie jest w stanie przedstawić certyfikatu akredytacji, przekazuje organowi notyfikującemu wszystkie dowody w postaci dokumentów niezbędne do zweryfikowania, potwierdzenia i regularnego monitorowania spełnienia przez tę jednostkę wymogów ustanowionych w art. 31.
3. Ja attiecīgā atbilstības novērtēšanas struktūra nevar iesniegt akreditācijas sertifikātu, tā iesniedz paziņojošajai iestādei visus dokumentāros pierādījumus, kas vajadzīgi, lai pārbaudītu, atzītu un regulāri pārraudzītu tās atbilstību 31. pantā noteiktajām prasībām.
4. W odniesieniu do jednostek notyfikowanych wyznaczonych na podstawie innego unijnego prawodawstwa harmonizacyjnego w stosownych przypadkach dopuszcza się możliwość wykorzystania wszelkich dokumentów i certyfikatów dotyczących takiego wyznaczenia w charakterze dowodów w toku procedury wyznaczania przeprowadzanej zgodnie z niniejszym rozporządzeniem. Jednostka notyfikowana aktualizuje dokumentację, o której mowa w ust. 2 i 3 niniejszego artykułu, w każdym przypadku gdy wystąpią istotne zmiany, aby umożliwić organowi odpowiedzialnemu za jednostki notyfikowane monitorowanie i weryfikowanie, czy zapewniona jest ciągła zgodność ze wszystkimi wymogami ustanowionymi w art. 31.
4. Attiecībā uz paziņotajām struktūrām, kuras ir izraudzītas saskaņā ar citiem Savienības saskaņošanas tiesību aktiem, visus dokumentus un sertifikātus, kas saistīti ar minēto izraudzīšanos, var izmantot, lai vajadzības gadījumā atbalstītu to izraudzīšanās procedūru, kura paredzēta šajā regulā. Paziņotā struktūra atjaunina šā panta 2. un 3. punktā minēto dokumentāciju katru reizi, kad notiek attiecīgas izmaiņas, lai par paziņotajām struktūrām atbildīgā iestāde varētu pārraudzīt un pārbaudīt, vai tiek pastāvīgi nodrošināta atbilstība visām 31. pantā norādītajām prasībām.
1. Organy notyfikujące mogą dokonywać notyfikacji wyłącznie w odniesieniu do tych jednostek oceniających zgodność, które spełniają wymogi ustanowione w art. 31.
1. Paziņojošās iestādes var paziņot tikai tādas atbilstības novērtēšanas struktūras, kas atbilst 31. pantā noteiktajām prasībām.
2. Organy notyfikujące dokonują notyfikacji Komisji i pozostałym państwom członkowskim za pomocą narzędzia do notyfikacji elektronicznej opracowanego i obsługiwanego przez Komisję, o każdej jednostce oceniającej zgodność, o której mowa w ust. 1.
2. Paziņojošās iestādes paziņošanu Komisijai un pārējām dalībvalstīm veic, izmantojot Komisijas izstrādāto un pārvaldīto elektronisko paziņošanas rīku, par katru 1. punktā minēto atbilstības novērtēšanas struktūru.
3. Notyfikacja, o której mowa w ust. 2 niniejszego artykułu, zawiera wyczerpujące informacje na temat czynności z zakresu oceny zgodności, modułu lub modułów oceny zgodności i przedmiotowych rodzajów systemów AI oraz odpowiednie poświadczenie kompetencji. W przypadku gdy podstawą notyfikacji nie jest certyfikat akredytacji, o którym mowa w art. 29 ust. 2, organ notyfikujący przedkłada Komisji i pozostałym państwom członkowskim dowody w postaci dokumentów potwierdzające kompetencje jednostki oceniającej zgodność oraz wdrożone rozwiązania zapewniające regularne monitorowanie tej jednostki i nieustanne spełnianie przez nią wymagań ustanowionych w art. 31.
3. Šā panta 2. punktā minētajā paziņojumā iekļauj sīkas ziņas par atbilstības novērtēšanas darbībām, atbilstības novērtēšanas moduli vai moduļiem, attiecīgajiem MI sistēmu veidiem, kā arī attiecīgo kompetences apliecinājumu. Ja paziņošana netiek balstīta uz 29. panta 2. punktā minēto akreditācijas sertifikātu, paziņojošā iestāde iesniedz Komisijai un pārējām dalībvalstīm dokumentārus pierādījumus, kuri apliecina atbilstības novērtēšanas struktūras kompetenci un ieviestos pasākumus, ar ko nodrošina, ka minētā struktūra tiks regulāri pārraudzīta un ka tā pastāvīgi atbildīs 31. pantā noteiktajām prasībām.
4. Dana jednostka oceniająca zgodność może wykonywać czynności jednostki notyfikowanej tylko wówczas, gdy Komisja lub pozostałe państwa członkowskie nie zgłosiły sprzeciwu w terminie dwóch tygodni od notyfikacji przez organ notyfikujący, w przypadku gdy notyfikacja ta obejmuje certyfikat akredytacji, o którym mowa w art. 29 ust. 2, lub w terminie dwóch miesięcy od notyfikacji przez organ notyfikujący, w przypadku gdy notyfikacja ta obejmuje dowody w postaci dokumentów, o których mowa w art. 29 ust. 3.
4. Attiecīgā atbilstības novērtēšanas struktūra var veikt paziņotās struktūras darbības tikai tad, ja Komisija vai pārējās dalībvalstis nav paudušas iebildumus divu nedēļu laikā no paziņojošās iestādes iesniegta paziņojuma, ja tajā ir iekļauts 29. panta 2. punktā minētais akreditācijas sertifikāts, vai divu mēnešu laikā no paziņojošās iestādes iesniegta paziņojuma, ja tajā ir iekļauti 29. panta 3. punktā minētie dokumentārie pierādījumi.
5. W przypadku zgłoszenia sprzeciwu Komisja niezwłocznie przystępuje do konsultacji z odpowiednimi państwami członkowskimi i jednostką oceniającą zgodność. Na podstawie tych konsultacji Komisja podejmuje decyzję, czy dane zezwolenie jest uzasadnione. Komisja kieruje swoją decyzję do zainteresowanego państwa członkowskiego i odpowiedniej jednostki oceniającej zgodność.
5. Ja tiek celti iebildumi, Komisija nekavējoties sāk apspriešanos ar attiecīgajām dalībvalstīm un atbilstības novērtēšanas struktūru. To ņemot vērā, Komisija lemj, vai atļauja ir pamatota. Komisija savu lēmumu adresē attiecīgajai dalībvalstij un attiecīgajai atbilstības novērtēšanas struktūrai.
Wymogi dotyczące jednostek notyfikowanych
Prasības attiecībā uz paziņotajām struktūrām
1. Jednostkę notyfikowaną ustanawia się zgodnie z prawem krajowym danego państwa członkowskiego i ma ona osobowość prawną.
1. Paziņoto struktūru izveido saskaņā ar dalībvalsts valsts tiesību aktiem, un tā ir juridiska persona.
2. Jednostki notyfikowane muszą spełniać wymogi organizacyjne, wymogi w zakresie zarządzania jakością oraz wymogi dotyczące zasobów i procesów niezbędne do tego, aby mogły wykonywać powierzone im zadania, jak również odpowiednie wymogi w zakresie cyberbezpieczeństwa.
2. Paziņotās struktūras atbilst organizatoriskajām, kvalitātes vadības, resursu un procesa prasībām, kas nepieciešamas to uzdevumu veikšanai, kā arī atbilstīgām kiberdrošības prasībām.
3. Struktura organizacyjna jednostek notyfikowanych, podział obowiązków w tych jednostkach, obowiązująca w nich hierarchia służbowa oraz ich funkcjonowanie zapewniają, by działalność jednostek notyfikowanych oraz wyniki czynności z zakresu oceny zgodności prowadzonych przez te jednostki nie budziły żadnych wątpliwości.
3. Paziņoto struktūru uzbūve, pienākumu sadalījums, pārskatu sniegšanas kārtība un darbība nodrošina uzticēšanos paziņoto struktūru sniegumam un veikto atbilstības novērtēšanas darbību rezultātiem.
4. Jednostki notyfikowane muszą być niezależne od dostawcy systemu AI wysokiego ryzyka, wobec którego podejmują czynności z zakresu oceny zgodności. Jednostki notyfikowane muszą być również niezależne od wszelkich innych operatorów, których interes gospodarczy wiąże się z systemami AI wysokiego ryzyka będącymi przedmiotem oceny, a także od wszelkich innych konkurentów dostawcy. Nie wyklucza to wykorzystania będących przedmiotem oceny systemów AI wysokiego ryzyka, które są niezbędne do prowadzenia działalności jednostki oceniającej zgodność, ani wykorzystania takich systemów AI wysokiego ryzyka do celów prywatnych.
4. Paziņotās struktūras ir neatkarīgas no augsta riska MI sistēmas nodrošinātāja, attiecībā uz kuru tās veic atbilstības novērtēšanas darbības. Paziņotās struktūras ir neatkarīgas arī no citiem operatoriem, kuriem ir ekonomiskā ieinteresētība novērtējamajās augsta riska MI sistēmās, kā arī no visiem nodrošinātāja konkurentiem. Tas neliedz lietot novērtētās augsta riska MI sistēmas, kas ir vajadzīgas atbilstības novērtēšanas struktūras darbībām, vai lietot šādas augsta riska MI sistēmas personīgām vajadzībām.
5. Jednostka oceniająca zgodność, jej kierownictwo najwyższego szczebla ani pracownicy odpowiedzialni za realizację zadań związanych z oceną zgodności nie mogą być bezpośrednio zaangażowani w projektowanie, rozwój, sprzedaż ani wykorzystywanie systemów AI wysokiego ryzyka, nie mogą też reprezentować stron zaangażowanych w taką działalność. Nie angażują się oni w żadną działalność, która może zagrozić niezależności ich osądów i wiarygodności w związku z czynnościami z zakresu oceny zgodności, do której zostali notyfikowani. Dotyczy to w szczególności usług konsultingowych.
5. Ne atbilstības novērtēšanas struktūra, tās augstākā līmeņa vadība, ne darbinieki, kas atbild par tai paredzēto atbilstības novērtēšanas uzdevumu veikšanu, nav tieši iesaistīti augsta riska MI sistēmu projektēšanā, izstrādē, tirdzniecībā vai lietošanā un nepārstāv minētajās darbībās iesaistītas personas. Viņi neiesaistās darbībās, kas varētu būt konfliktā ar viņu spriedumu neatkarību vai godprātību saistībā ar atbilstības novērtēšanas darbībām, attiecībā uz kurām viņi ir paziņotā struktūra. Tas jo īpaši attiecas uz konsultāciju pakalpojumiem.
6. Jednostki notyfikowane organizuje się i zarządza się nimi w sposób gwarantujący niezależność, obiektywizm i bezstronność podejmowanych przez nie czynności. Jednostki notyfikowane dokumentują i wdrażają strukturę i procedury służące zagwarantowaniu ich bezstronności oraz propagowaniu i stosowaniu zasad bezstronności we wszystkich podejmowanych przez nie czynnościach organizacyjnych i kadrowych oraz we wszystkich ich czynnościach związanych z oceną.
6. Paziņotās struktūras ir organizētas un darbojas tā, lai nodrošinātu savu darbību neatkarību, objektivitāti un neitralitāti. Paziņotās struktūras dokumentē un ievieš struktūru un procedūras, kas vajadzīgas, lai garantētu objektivitāti un veicinātu un piemērotu objektivitātes principus attiecībā uz visu to organizāciju, personālu un novērtēšanas darbībām.
7. Jednostki notyfikowane dysponują udokumentowanymi procedurami, które zapewniają zachowanie poufności informacji – zgodnie z art. 78 – przez ich personel, komitety, jednostki zależne, podwykonawców oraz wszelkie stowarzyszone z nimi jednostki lub pracowników podmiotów zewnętrznych, które to informacje znalazły się w ich posiadaniu w toku czynności z zakresu oceny zgodności, chyba że ujawnienie takich informacji jest wymagane na mocy obowiązującego prawa. Personel jednostek notyfikowanych pozostaje związany tajemnicą zawodową w kwestii wszystkich informacji pozyskiwanych w toku wykonywania zadań powierzonych mu zgodnie z niniejszym rozporządzeniem, jednak nie w stosunku do organów notyfikujących państwa członkowskiego, w którym jednostki notyfikowane podejmują czynności.
7. Paziņotās struktūras ievieš dokumentētas procedūras, lai nodrošinātu, ka to personāls, komitejas, meitasuzņēmumi, apakšuzņēmēji un jebkura saistītā struktūra vai ārējo struktūru darbinieki saskaņā ar 78. pantu ievēro tās informācijas konfidencialitāti, kas nonāk viņu rīcībā, veicot atbilstības novērtēšanas darbības, izņemot gadījumus, kad tās izpaušana tiek prasīta tiesību aktos. Paziņoto struktūru personālam ir pienākums ievērot dienesta noslēpumu attiecībā uz visu informāciju, kas iegūta, veicot šajā regulā paredzētos uzdevumus, izņemot attiecībā uz tās dalībvalsts paziņojošajām iestādēm, kurā tiek veiktas viņu darbības.
8. Jednostki notyfikowane dysponują procedurami prowadzenia czynności z uwzględnieniem rozmiaru dostawcy, sektora, w którym prowadzi on działalność, jego struktury oraz stopnia złożoności danego systemu AI.
8. Paziņotajām struktūrām ir procedūras darbību veikšanai, kurās pienācīgi ņem vērā nodrošinātāja lielumu, nozari, kurā tas darbojas, struktūru un attiecīgās MI sistēmas sarežģītības pakāpi.
9. Jednostki notyfikowane zawierają odpowiednie umowy ubezpieczenia od odpowiedzialności cywilnej w odniesieniu do podejmowanych przez siebie czynności z zakresu oceny zgodności, chyba że państwo członkowskie, w którym mają siedzibę, bierze na siebie odpowiedzialność z tego tytułu zgodnie z prawem krajowym lub bezpośrednia odpowiedzialność za ocenę zgodności spoczywa na danym państwie członkowskim.
9. Paziņotajām struktūrām ir pienācīgi apdrošināta civiltiesiskā atbildība attiecībā uz savām atbilstības novērtēšanas darbībām, ja vien dalībvalsts, kurā tās ir iedibinātas, neuzņemas atbildību saskaņā ar šīs valsts tiesību aktiem vai ja dalībvalsts pati tieši neatbild par atbilstības novērtēšanu.
10. Jednostki notyfikowane posiadają zdolność wykonywania wszystkich zadań wynikających z niniejszego rozporządzenia z zachowaniem najwyższego poziomu uczciwości zawodowej i wymaganych kompetencji w danej dziedzinie, niezależnie od tego, czy zadania te są wykonywane przez nie samodzielnie, czy też w ich imieniu i na ich odpowiedzialność.
10. Paziņotās struktūras spēj veikt visus uzdevumus, kas tām noteikti šajā regulā, ar visaugstāko profesionālo godaprātu un nepieciešamo kompetenci konkrētajā jomā, neatkarīgi no tā, vai šos uzdevumus veic paziņotās struktūras pašas vai cita persona to uzdevumā un atbildībā.
11. Jednostki notyfikowane dysponują wystarczającymi kompetencjami wewnętrznymi pozwalającymi im skutecznie oceniać zadania wykonywane w ich imieniu przez podmioty zewnętrzne. Jednostka notyfikowana dysponuje stałą dostępnością wystarczającej liczby pracowników odpowiedzialnych za aspekty administracyjne, techniczne, prawne i naukowe dysponujących doświadczeniem i wiedzą w zakresie odnośnych rodzajów systemów AI, danych i metod przetwarzania danych oraz w zakresie wymogów ustanowionych w sekcji 2.
11. Paziņotajām struktūrām ir pietiekamas iekšējās kompetences, lai tās varētu efektīvi izvērtēt uzdevumus, ko to vārdā veic ārējās personas. Paziņotajai struktūrai ir pastāvīgi pieejams pietiekams administratīvais, tehniskais, juridiskais un zinātniskais personāls, kam ir pieredze un zināšanas par attiecīgajiem MI sistēmu veidiem, datiem un datošanu, kā arī par 2. iedaļā noteiktajām prasībām.
12. Jednostki notyfikowane biorą udział w działaniach koordynacyjnych, o których mowa w art. 38. Angażują się także w działalność europejskich organizacji normalizacyjnych bezpośrednio lub za pośrednictwem swoich przedstawicieli lub zapewniają, by same posiadały znajomość odpowiednich norm i dysponowały zawsze aktualną wiedzą na ich temat.
12. Paziņotās struktūras piedalās 38. pantā minētajās koordinācijas darbībās. Tās arī tiešā veidā piedalās vai ir pārstāvētas Eiropas standartizācijas organizācijās, vai nodrošina, ka ir informētas un regulāri atjaunina zināšanas par attiecīgajiem standartiem.
1. Organ notyfikujący powiadamia Komisję i pozostałe państwa członkowskie za pomocą systemu notyfikacji elektronicznej, o którym mowa w art. 30 ust. 2, o wszelkich istotnych zmianach w notyfikacji danej jednostki notyfikowanej.
1. Paziņojošā iestāde, izmantojot 30. panta 2. punktā minēto elektronisko paziņošanas rīku, paziņo Komisijai un pārējām dalībvalstīm par visām attiecīgām izmaiņām paziņojumā par paziņoto struktūru.
2. Procedury ustanowione w art. 29 i 30 stosuje się do rozszerzenia zakresu notyfikacji.
2. Procedūras, kas noteiktas 29. un 30. pantā, piemēro gadījumos, kad tiek paplašināts paziņojuma tvērums.
W przypadku zmian w notyfikacji innych niż rozszerzenie jej zakresu stosuje się procedury ustanowione w ust. 3-9.
Ja paziņojumā tiek izdarītas citas izmaiņas, kuras nav tā tvēruma paplašināšana, piemēro 3. līdz 9. punktos noteiktās procedūras.
3. W przypadku gdy jednostka notyfikowana podejmie decyzję o zaprzestaniu prowadzenia czynności z zakresu oceny zgodności, jak najszybciej informuje o tym organ notyfikujący i zainteresowanych dostawców, a w przypadku planowanego zaprzestania działalności – na co najmniej rok przed zaprzestaniem działalności. Certyfikaty wydane przez jednostkę notyfikowaną mogą pozostać ważne przez okres dziewięciu miesięcy po zaprzestaniu działalności jednostki notyfikowanej, pod warunkiem że inna jednostka notyfikowana potwierdzi na piśmie, że przejmie odpowiedzialność za objęte tymi certyfikatami systemy AI wysokiego ryzyka. Przed upływem tego okresu dziewięciu miesięcy ta inna jednostka notyfikowana przeprowadza pełną ocenę odnośnych systemów AI wysokiego ryzyka, zanim wyda nowe certyfikaty dla tych systemów. W przypadku gdy jednostka notyfikowana zaprzestała działalności, organ notyfikujący cofa jej wyznaczenie.
3. Ja paziņotā struktūra nolemj pārtraukt savas atbilstības novērtēšanas darbības, tā pēc iespējas drīz un plānotas pārtraukšanas gadījumā – vismaz vienu gadu pirms savu darbību pārtraukšanas informē paziņojošo iestādi un attiecīgos nodrošinātājus. Paziņotās struktūras sertifikāti var palikt derīgi deviņus mēnešus ilgu laikposmu pēc paziņotās struktūras darbību pārtraukšanas ar nosacījumu, ka kāda cita paziņotā struktūra ir rakstiski apliecinājusi, ka tā uzņemsies pienākumus attiecībā uz augsta riska MI sistēmām, uz kurām attiecas minētie sertifikāti. Pēdējā minētā paziņotā struktūra līdz tāda deviņu mēnešu laikposma beigām pabeidz skarto augsta riska MI sistēmu pilnīgu novērtēšanu pirms jaunu sertifikātu izdošanas minētajām sistēmām. Ja paziņotā struktūra savu darbību ir pārtraukusi, paziņojošā iestāde izraudzīšanos atsauc.
4. W przypadku gdy organ notyfikujący ma wystarczające powody, by uważać, że jednostka notyfikowana przestała spełniać wymogi określone w art. 31 lub nie spełnia swoich obowiązków, organ notyfikujący niezwłocznie wszczyna postępowanie wyjaśniające w tej sprawie z zachowaniem największej staranności. W takim przypadku organ notyfikujący informuje daną jednostkę notyfikowaną o zgłoszonym sprzeciwu i zapewnia jej możliwość ustosunkowania się do tego sprzeciwu. Jeżeli organ notyfikujący dojdzie do wniosku, że jednostka notyfikowana przestała spełniać wymogi ustanowione w art. 31 lub nie spełnia swoich obowiązków, organ ten, stosownie do przypadku, ogranicza, zawiesza lub cofa wyznaczenie, w zależności od powagi niespełnienia tych wymogów lub tych obowiązków. Informuje on o tym natychmiast Komisję i pozostałe państwa członkowskie.
4. Ja paziņojošajai iestādei ir pietiekams pamats uzskatīt, ka paziņotā struktūra vairs neatbilst 31. pantā noteiktajām prasībām vai ka tā nepilda savus pienākumus, paziņojošā iestāde nekavējoties ar vislielāko rūpību izskata šo jautājumu. Šajā sakarā tā informē attiecīgo paziņoto struktūru par celtajiem iebildumiem un dod tai iespēju darīt zināmu savu viedokli. Ja paziņojošā iestāde secina, ka paziņotā struktūra vairs neatbilst 31. pantā noteiktajām prasībām vai ka tā nepilda savus pienākumus, paziņojošā iestāde attiecīgi ierobežo, aptur vai atsauc izraudzīšanos, atkarībā no tā, cik nopietna ir neatbilstība minētajām prasībām vai minēto pienākumu nepildīšana. Tā nekavējoties attiecīgi informē Komisiju un pārējās dalībvalstis.
5. W przypadku gdy wyznaczenie zostało zawieszone, ograniczone lub całkowicie lub częściowo cofnięte, jednostka notyfikowana informuje o tym zainteresowanych dostawców w terminie 10 dni.
5. Ja paziņotās struktūras izraudzīšanās ir apturēta, ierobežota vai pilnīgi vai daļēji atsaukta, tā 10 dienu laikā informē attiecīgos nodrošinātājus.
6. W przypadku ograniczenia, zawieszenia lub cofnięcia wyznaczenia organ notyfikujący podejmuje odpowiednie kroki w celu zapewnienia, by zachowana została dokumentacja danej jednostki notyfikowanej i była ona udostępniana organom notyfikującym w pozostałych państwach członkowskich oraz organom nadzoru rynku na ich wniosek.
6. Ja izraudzīšanās tiek ierobežota, apturēta vai atsaukta, paziņojošā iestāde veic attiecīgos pasākumus, lai nodrošinātu, ka attiecīgās paziņotās struktūras datnes tiek glabātas, un pēc pieprasījuma darītu tās pieejamas paziņojošajām iestādēm citās dalībvalstīs un tirgus uzraudzības iestādēm.
7. W przypadku ograniczenia, zawieszenia lub cofnięcia wyznaczenia organ notyfikujący:
7. Ja izraudzīšanos ierobežo, aptur vai atsauc, paziņojošā iestāde:
a)
ocenia skutki dla certyfikatów wydanych przez daną jednostkę notyfikowaną;
a)
novērtē ietekmi uz sertifikātiem, ko izdevusi paziņotā struktūra;
b)
przedkłada Komisji i pozostałym państwom członkowskim sprawozdanie ze swoich ustaleń w terminie trzech miesięcy od powiadomienia o zmianach w wyznaczeniu;
b)
triju mēnešu laikā pēc tam, kad tā ir paziņojusi par izmaiņām saistībā ar izraudzīšanos, Komisijai un pārējām dalībvalstīm iesniedz ziņojumu par saviem konstatējumiem;
c)
zwraca się do jednostki notyfikowanej z żądaniem, by w celu zapewnienia ciągłości zgodności systemów AI wysokiego ryzyka na rynku zawiesiła lub cofnęła, w rozsądnym terminie ustalonym przez ten organ, wszelkie certyfikaty, które zostały nienależnie wydane;
c)
prasa paziņotajai struktūrai saprātīgā laikposmā, kuru nosaka iestāde, apturēt vai atsaukt jebkādus neatbilstīgi izdotus sertifikātus, lai nodrošinātu tirgū esošo augsta riska MI sistēmu nepārtrauktu atbilstību;
d)
informuje Komisję i państwa członkowskie o certyfikatach, których zawieszenia lub cofnięcia zażądał;
d)
informē Komisiju un dalībvalstis par sertifikātiem, kurus tā ir pieprasījusi apturēt vai atsaukt;
e)
przekazuje właściwym organom krajowym państwa członkowskiego, w którym dostawca ma zarejestrowane miejsce prowadzenia działalności, wszelkie istotne informacje na temat certyfikatów, których zawieszenia lub cofnięcia zażądał; organy te podejmują w stosownych przypadkach odpowiednie środki w celu uniknięcia potencjalnego ryzyka dla zdrowia, bezpieczeństwa lub praw podstawowych.
e)
sniedz tās dalībvalsts valsts kompetentajām iestādēm, kurā ir nodrošinātāja juridiskā adrese, visu attiecīgo informāciju par sertifikātiem, kurus tā ir pieprasījusi apturēt vai atsaukt; minētā iestāde vajadzības gadījumā veic pienācīgos pasākumus, lai izvairītos no potenciāla riska veselībai, drošībai vai pamattiesībām.
8. Z wyjątkiem certyfikatów nienależnie wydanych, w przypadkach, w których wyznaczenie zostało zawieszone lub ograniczone, certyfikaty pozostają ważne, jeżeli zachodzi którakolwiek z następujących okoliczności:
8. Izņemot neatbilstīgi izdotus sertifikātus un gadījumus, kad izraudzīšanās ir apturēta vai ierobežota, sertifikāti paliek derīgi kādos no šādiem apstākļiem:
a)
organ notyfikujący potwierdził, w terminie jednego miesiąca od zawieszenia lub ograniczenia, że w odniesieniu do certyfikatów, których dotyczy zawieszenie lub ograniczenie, nie występuje ryzyko dla zdrowia, bezpieczeństwa lub praw podstawowych i określił czas działań służących temu, by znieść zawieszenie lub ograniczenie; lub
a)
paziņojošā iestāde viena mēneša laikā pēc apturēšanas vai ierobežošanas ir apliecinājusi, ka saistībā ar sertifikātiem, kurus skar apturēšana vai ierobežošana, nepastāv risks veselībai, drošībai vai pamattiesībām, un paziņojošā iestāde ir izstrādājusi grafiku darbībām, ar kurām labot apturēšanas vai ierobežošanas iemeslus; vai
b)
organ notyfikujący potwierdził, że w czasie trwania zawieszenia lub ograniczenia nie będą wydawane, zmieniane ani wydawane ponownie żadne certyfikaty powiązane z danym zawieszeniem, oraz stwierdza, czy dana jednostka notyfikowana jest zdolna do dalszego monitorowania i bycia odpowiedzialną za wydane już certyfikaty obowiązujące w okresie pokrywającym się z tym zawieszeniem lub ograniczeniem; w przypadku gdy organ notyfikujący ustali, że jednostka notyfikowana nie posiada zdolności do obsługi wydanych certyfikatów, dostawca systemu objętego danym certyfikatem – w terminie trzech miesięcy od zawieszenia lub ograniczenia – przekazuje właściwym organom krajowym w państwie członkowskim, w którym ma zarejestrowane miejsce prowadzenia działalności, potwierdzenie na piśmie, że inna wykwalifikowana jednostka notyfikowana tymczasowo przejmuje funkcje jednostki notyfikowanej w zakresie monitorowania certyfikatów i pozostanie ona odpowiedzialna za te certyfikaty w okresie zawieszenia lub ograniczenia wyznaczenia.
b)
paziņojošā iestāde ir apliecinājusi, ka apturēšanas vai ierobežošanas laikā netiks izdoti, grozīti vai atkārtoti izdoti nekādi ar apturēšanu saistīti sertifikāti, un tā norāda, vai paziņotajai struktūrai ir spējas turpināt pārraudzību un saglabāt atbildību par spēkā esošajiem izdotajiem sertifikātiem apturēšanas vai ierobežošanas laikposmā; ja paziņojošā iestāde lemj, ka paziņotajai struktūrai nav spēju uzturēt spēkā esošos izdotos sertifikātus, tās sistēmas nodrošinātājs, uz kuru attiecas sertifikāts, trīs mēnešu laikā pēc apturēšanas vai ierobežošanas rakstiski apliecina tās dalībvalsts valsts kompetentajām iestādēm, kurā ir tā juridiskā adrese, ka cita kvalificēta paziņotā struktūra pagaidu kārtā uzņemas paziņotās struktūras funkcijas, lai pārraudzītu un saglabātu atbildību par sertifikātiem apturēšanas vai ierobežošanas laikposmā.
9. Z wyjątkiem certyfikatów nienależnie wydanych, w przypadkach, w których wyznaczenie zostało cofnięte, certyfikaty pozostają ważne przez okres dziewięciu miesięcy w następujących okolicznościach:
9. Izņemot neatbilstīgi izdotus sertifikātus un gadījumus, kad izraudzīšanās ir atsaukta, sertifikāti paliek derīgi uz deviņu mēnešu laikposmu šādos apstākļos:
a)
właściwy organ krajowy w państwie członkowskim, w którym dostawca systemu AI wysokiego ryzyka objętego certyfikatem ma zarejestrowane miejsce prowadzenia działalności, potwierdził, że nie występuje ryzyko dla zdrowia, bezpieczeństwa lub praw podstawowych związane z danymi systemami AI wysokiego ryzyka; oraz
a)
tās dalībvalsts valsts kompetentā iestāde, kurā ir sertifikātā aptvertās augsta riska MI sistēmas nodrošinātāja juridiskā adrese, ir apliecinājusi, ka saistībā ar attiecīgajām augsta riska MI sistēmām nepastāv risks veselībai, drošībai vai pamattiesībām; un
b)
inna jednostka notyfikowana potwierdziła na piśmie, że przejmie bezpośrednią odpowiedzialność za te systemy AI i zakończy swoją ocenę w terminie dwunastu miesięcy od cofnięcia wyznaczenia.
b)
cita paziņotā struktūra ir rakstiski apliecinājusi, ka tā nekavējoties uzņemsies atbildību par minēto MI sistēmu novērtēšanu, un pabeidz novērtēšanu divpadsmit mēnešu laikā pēc izraudzīšanās atsaukšanas.
W okolicznościach, o których mowa w akapicie pierwszym, właściwy organ krajowy w państwie członkowskim, w którym dostawca systemu objętego certyfikatem ma zarejestrowane miejsce prowadzenia działalności, może przedłużyć tymczasową ważność tych certyfikatów o dodatkowe trzymiesięczne okresy, które łącznie nie mogą przekraczać dwunastu miesięcy.
Pirmajā daļā minētajos apstākļos tās dalībvalsts valsts kompetentā iestāde, kurā ir sertifikātā aptvertās sistēmas nodrošinātāja juridiskā adrese, var pagarināt sertifikātu pagaidu derīgumu uz papildu trīs mēnešu laikposmiem, kuri kopumā nepārsniedz 12 mēnešus.
Właściwy organ krajowy lub jednostka notyfikowana przejmująca funkcje jednostki notyfikowanej, której dotyczy zmiana wyznaczenia, natychmiast powiadamiają o tym Komisję, pozostałe państwa członkowskie i pozostałe jednostki notyfikowane.
Valsts kompetentā iestāde vai paziņotā struktūra, kas uzņemas tās paziņotās struktūras funkcijas, kuru skar izraudzīšanās izmaiņas, par to nekavējoties informē Komisiju, pārējās dalībvalstis un citas paziņotās struktūras.
Normy zharmonizowane i dokumenty normalizacyjne
Saskaņoti standarti un standartizācijas nodevumi
1. W przypadku systemów AI wysokiego ryzyka oraz systemów AI ogólnego przeznaczenia spełniających normy zharmonizowane lub części tych norm, do których odniesienia opublikowano w Dzienniku Urzędowym Unii Europejskiej zgodnie z rozporządzeniem (UE) nr 1025/2012, domniemuje się, że spełniają one wymogi ustanowione w sekcji 2 niniejszego rozdziału lub, w stosownych przypadkach, obowiązki ustanowione w rozdziale V sekcja 2 i 3 niniejszego rozporządzenia, w zakresie, w jakim normy te obejmują te wymogi lub obowiązki.
1. Tiek uzskatīts, ka augsta riska MI sistēmas, kas atbilst saskaņotiem standartiem vai to daļām, kuru atsauces ir publicētas Eiropas Savienības Oficiālajā Vēstnesī saskaņā ar Regulu (ES) Nr. 1025/2012, izpilda šīs nodaļas 2. iedaļā izklāstītās prasības vai – attiecīgā gadījumā – šīs regulas V nodaļas 2. un 3. iedaļā noteiktos pienākumus, ciktāl minētie standarti aptver minētās prasības vai pienākumus.
2. Zgodnie z art. 10 rozporządzenia (UE) nr 1025/2012 Komisja wydaje bez zbędnej zwłoki wnioski o normalizację obejmujące wszystkie wymogi ustanowione w sekcji 2 niniejszego rozdziału oraz, w stosownych przypadkach, wnioski o normalizację obejmujące obowiązki ustanowione w rozdziale V sekcja 2 i 3 niniejszego rozporządzenia. We wniosku o normalizację zwraca się również o przedstawienie wyników sprawozdawczości i procesów dokumentowania w celu poprawy skuteczności działania zasobów systemów AI, takich jak zmniejszenie zużycia energii i innych zasobów przez system AI wysokiego ryzyka w jego cyklu życia, oraz wyników dotyczących efektywnego energetycznie rozwoju modeli AI ogólnego przeznaczenia. Przygotowując wniosek o normalizację, Komisja konsultuje się z Radą ds. AI i odpowiednimi zainteresowanymi stronami, w tym z forum doradczym.
2. Komisija bez liekas kavēšanās saskaņā ar Regulas (ES) Nr. 1025/2012 10. pantu izdod standartizācijas pieprasījumus, kas aptver visas šīs nodaļas 2. iedaļā noteiktās prasības, un attiecīgā gadījumā standartizācijas pieprasījumus, kas aptver šīs regulas V nodaļas 2. un 3. iedaļā noteiktos pienākumus. Standartizācijas pieprasījumos pieprasa arī nodevumus par ziņošanas un dokumentēšanas procesiem nolūkā panākt lielāku MI sistēmu resursefektivitāti, piemēram, augsta riska MI sistēmas enerģijas patēriņa un citu resursu patēriņa samazināšanu tās darbmūža laikā, un par vispārīga lietojuma MI modeļu energoefektīvu izstrādi. Sagatavojot standartizācijas pieprasījumu, Komisija apspriežas ar MI padomi un attiecīgām ieinteresētajām personām, tostarp konsultatīvo forumu.
Wydając wniosek o normalizację do europejskich organizacji normalizacyjnych, Komisja określa, że normy muszą być jasne, spójne, w tym z normami opracowanymi w poszczególnych sektorach dla produktów objętych zakresem stosowania obowiązującego unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I, i mieć na celu zapewnienie, by systemy AI wysokiego ryzyka lub modele AI ogólnego przeznaczenia wprowadzane do obrotu lub oddawane do użytku w Unii spełniały odpowiednie wymogi lub obowiązki ustanowione w niniejszym rozporządzeniu.
Izdodot standartizācijas pieprasījumu Eiropas standartizācijas organizācijām, Komisija konkrēti norāda, ka standartiem ir jābūt skaidriem, saskaņotiem, tostarp ar standartiem, kas izstrādāti dažādās nozarēs produktiem, uz kuriem attiecas I pielikumā uzskaitītie esošie Savienības saskaņošanas tiesību akti, un tiem jābūt vērstiem uz to, lai nodrošinātu, ka augsta riska MI sistēmas vai vispārīga lietojuma MI modeļi, kas laisti tirgū vai nodoti ekspluatācijā Savienībā, atbilst attiecīgajām šajā regulā noteiktajām prasībām vai pienākumiem.
Komisja zwraca się do europejskich organizacji normalizacyjnych o przedstawienie dowodów, że dokładają wszelkich starań, aby osiągnąć cele, o których mowa w akapicie pierwszym i drugim niniejszego ustępu, zgodnie z art. 24 rozporządzenia (UE) nr 1025/2012.
Komisija pieprasa Eiropas standartizācijas organizācijām saskaņā ar Regulas (ES) Nr. 1025/2012 24. pantu sniegt pierādījumus par to, ka tās dara visu iespējamo, lai sasniegtu šā punkta pirmajā un otrajā daļā minētos mērķus.
3. Uczestnicy procesu normalizacji dążą do promowania inwestycji i innowacji w dziedzinie AI, w tym poprzez zwiększenie pewności prawa, a także konkurencyjności i wzrostu rynku Unii, do przyczynienia się do wzmocnienia globalnej współpracy w zakresie normalizacji, z uwzględnieniem istniejących w dziedzinie AI norm międzynarodowych zgodnych z wartościami Unii, prawami podstawowymi i interesem Unii, a także do poprawy zarządzania wielostronnego, zapewniając wyważoną reprezentację interesów i skuteczny udział wszystkich odpowiednich zainteresowanych stron zgodnie z art. 5, 6 i 7 rozporządzenia (UE) nr 1025/2012.
3. Standartizācijas procesa dalībnieki cenšas sekmēt investīcijas un inovāciju MI jomā, tostarp uzlabojot juridisko noteiktību, kā arī Savienības tirgus konkurētspēju un izaugsmi, un sekmē globālās sadarbības standartizācijas jomā stiprināšanu un to, ka tiek ņemti vērā pastāvošie starptautiskie standarti MI jomā, kas atbilst Savienības vērtībām, pamattiesībām un interesēm, un stiprina daudzpusēju ieinteresēto personu pārvaldību, nodrošinot līdzsvarotu interešu pārstāvību un visu attiecīgo ieinteresēto personu efektīvu līdzdalību saskaņā ar Regulas (ES) Nr. 1025/2012 5., 6. un 7. pantu.
1. Komisja może przyjmować akty wykonawcze ustanawiające wspólne specyfikacje w odniesieniu do wymogów ustanowionych w sekcji 2 niniejszego rozdziału lub, w stosownych przypadkach, obowiązków ustanowionych w rozdziale V sekcja 2 i 3, w przypadku gdy spełnione są następujące warunki:
1. Komisija var pieņemt īstenošanas aktus, ar kuriem nosaka kopīgās specifikācijas šīs nodaļas 2. iedaļā noteiktajām prasībām vai – attiecīgā gadījumā – V nodaļas 2. un 3. iedaļā noteiktajiem pienākumiem, ja ir izpildīti šādi nosacījumi:
a)
Komisja wystąpiła zgodnie z art. 10 ust. 1 rozporządzenia (UE) nr 1025/2012 do jednej lub kilku europejskich organizacji normalizacyjnych z wnioskiem o opracowanie normy zharmonizowanej w odniesieniu do wymogów określonych w sekcji 2 niniejszego rozdziału, lub, w stosownych przypadkach, w odniesieniu do obowiązków ustanowionych w rozdziale V sekcja 2 i 3, oraz:
a)
Komisija, ievērojot Regulas (ES) Nr. 1025/2012 10. panta 1. punktu, ir pieprasījusi vienai vai vairākām Eiropas standartizācijas organizācijām izstrādāt saskaņota standarta projektu attiecībā uz šīs nodaļas 2. iedaļā noteiktajām prasībām, vai attiecīgā gadījumā attiecībā uz V nodaļas 2. un 3. iedaļā noteiktajiem pienākumiem un:
(i)
wniosek ten nie został przyjęty przez żadną z europejskich organizacji normalizacyjnych; lub
i)
pieprasījumu nav akceptējusi neviena Eiropas standartizācijas organizācija; vai
(ii)
normy zharmonizowane stanowiące odpowiedź na ten wniosek nie zostały wydane w terminie określonym zgodnie z art. 10 ust. 1 rozporządzenia (UE) nr 1025/2012; lub
ii)
saskaņotie standarti, reaģējot uz minēto pieprasījumu, nav iesniegti termiņā, kas noteikts saskaņā ar Regulas (ES) Nr. 1025/2012 10. panta 1. punktu; vai
(iii)
odpowiednie normy zharmonizowane w niewystarczającym stopniu uwzględniają obawy dotyczące praw podstawowych; lub
iii)
attiecīgie saskaņotie standarti nepietiekami risina problemātiskos pamattiesību jautājumus; vai
(iv)
normy zharmonizowane nie są zgodne z wnioskiem; oraz
iv)
saskaņotie standarti neatbilst pieprasījumam; un
b)
w Dzienniku Urzędowym Unii Europejskiej nie opublikowano odniesienia do zharmonizowanych norm obejmujących wymogi, o których mowa w sekcji 2 niniejszego rozdziału, lub, w stosownych przypadkach, obowiązki, o których mowa w rozdziale V sekcja 2 i 3, zgodnie z przepisami rozporządzenia (UE) nr 1025/2012 i nie przewiduje się opublikowania takiego odniesienia w rozsądnym terminie.
b)
Eiropas Savienības Oficiālajā Vēstnesī nav publicēta atsauce saskaņā ar Regulu (ES) Nr. 1025/2012 uz saskaņotiem standartiem, kuri attiecas uz šīs nodaļas 2. iedaļā minētajām prasībām, vai attiecīgā gadījumā uz V nodaļas 2. un 3. iedaļā minētajiem pienākumiem, un nav sagaidāms, ka šāda atsauce tiks publicēta saprātīgā laikposmā.
Przygotowując projekt wspólnych specyfikacji, Komisja konsultuje się z forum doradczym, o którym mowa w art. 67.
Izstrādājot kopīgās specifikācijas, Komisija apspriežas ar 67. pantā minēto konsultatīvo forumu.
Akty wykonawcze, o których mowa w akapicie pierwszym niniejszego ustępu, przyjmuje się zgodnie z procedurą sprawdzającą, o której mowa w art. 98 ust. 2.
Šā punkta pirmajā daļā minētos īstenošanas aktus pieņem saskaņā ar pārbaudes procedūru, kas minēta 98. panta 2. punktā.
2. Przed przygotowaniem projektu aktu wykonawczego Komisja informuje komitet, o którym mowa w art. 22 rozporządzenia (UE) nr 1025/2012, że uważa za spełnione warunki ustanowione w ust. 1 niniejszego artykułu.
2. Pirms īstenošanas akta projekta sagatavošanas Komisija informē Regulas (ES) Nr. 1025/2012 22. pantā minēto komiteju, ka tās ieskatā šā panta 1. punkta nosacījumi ir izpildīti.
3. W przypadku systemów AI wysokiego ryzyka lub modeli AI ogólnego przeznaczenia zgodnych ze wspólnymi specyfikacjami, o których mowa w ust. 1, lub z częściami tych specyfikacji domniemuje się, że są one zgodne z wymogami ustanowionymi w sekcji 2 niniejszego rozdziału lub, w stosownych przypadkach, spełniają obowiązki ustanowione w rozdziale V sekcja 2 i 3, w zakresie, w jakim te wspólne specyfikacje obejmują te wymogi i te obowiązki.
3. Pieņem, ka augsta riska MI sistēmas vai vispārīga lietojuma MI modeļi, kas atbilst 1. punktā minētajām kopīgajām specifikācijām vai minēto specifikāciju daļām, atbilst 2. iedaļā noteiktajām prasībām vai attiecīgā gadījumā atbilst V nodaļas 2. un 3. iedaļā minētajiem pienākumiem, ciktāl uz minētajām prasībām vai pienākumiem attiecas minētās kopīgās specifikācijas vai minētie pienākumi.
4. W przypadku gdy europejska organizacja normalizacyjna przyjmuje normę zharmonizowaną i proponuje Komisji opublikowanie odniesienia do niej w Dzienniku Urzędowym Unii Europejskiej, Komisja ocenia normę zharmonizowaną zgodnie z rozporządzeniem (UE) nr 1025/2012. W przypadku opublikowania odniesienia do normy zharmonizowanej w Dzienniku Urzędowym Unii Europejskiej Komisja uchyla akty wykonawcze, o których mowa w ust. 1, lub ich części, które obejmują te same wymogi ustanowione w sekcji 2 niniejszego rozdziału lub, w stosownych przypadkach, te same obowiązki ustanowione w rozdziale V sekcja 2 i 3.
4. Ja saskaņotu standartu ir pieņēmusi kāda Eiropas standartizācijas organizācija, un Komisijai ir ierosināts atsauci uz to publicēt Eiropas Savienības Oficiālajā Vēstnesī, Komisija saskaņoto standartu novērtē saskaņā ar Regulu (ES) Nr. 1025/2012. Kad atsauci uz saskaņoto standartu publicē Eiropas Savienības Oficiālajā Vēstnesī, Komisija atceļ 1. punktā minētos īstenošanas aktus vai to daļas, kas attiecas uz tām pašām prasībām, kuras minētas šīs nodaļas 2. iedaļā vai attiecīgā gadījumā tiem pašiem pienākumiem, kas minēti V nodaļas 2. un 3. iedaļā.
5. W przypadku gdy dostawcy systemów AI wysokiego ryzyka lub modeli AI ogólnego przeznaczenia nie zapewnią zgodności ze wspólnymi specyfikacjami, o których mowa w ust. 1, należycie wykazują oni, że przyjęli rozwiązania techniczne, które są zgodne z wymogami, o których mowa w rozdziale I sekcja 2, lub, w stosownych przypadkach, spełniają obowiązki ustanowione w rozdziale V sekcja 2 i 3, na poziomie co najmniej równoważnym tym wspólnym specyfikacjom.
5. Ja augsta riska MI sistēmu vai vispārīga lietojuma MI modeļu nodrošinātāji neatbilst 1. punktā minētajām kopīgajām specifikācijām, tie pienācīgi pamato, ka viņi ir pieņēmuši tehniskos risinājumus, kas atbilst šīs nodaļas 2. iedaļā minētajām prasībām vai attiecīgā gadījumā atbilst V nodaļas 2. un 3. iedaļā minētajiem pienākumiem vismaz tām līdzvērtīgā līmenī.
6. W przypadku gdy państwo członkowskie uważa, że wspólna specyfikacja nie jest całkowicie zgodna z wymogami ustanowionymi w sekcji 2 lub, w stosownych przypadkach, nie spełnia całkowicie obowiązków ustanowionych w rozdziale V sekcja 2 i 3, informuje o tym Komisję, przedstawiając szczegółowe wyjaśnienie. Komisja ocenia te informacje i w stosownym przypadku zmienia akt wykonawczy ustanawiający daną wspólną specyfikację.
6. Ja dalībvalsts uzskata, ka kopīgā specifikācija pilnībā neatbilst 2. iedaļā noteiktajām prasībām vai attiecīgā gadījumā atbilst V nodaļas 2. un 3. iedaļā minētajiem pienākumiem, tā par to informē Komisiju, iesniedzot detalizētu skaidrojumu. Komisija minēto informāciju novērtē un attiecīgā gadījumā groza īstenošanas aktu, ar ko nosaka attiecīgo kopīgo specifikāciju.
1. W odniesieniu do systemów AI wysokiego ryzyka wymienionych w załączniku III pkt 1, w przypadku gdy do wykazania zgodności systemu AI wysokiego ryzyka z wymogami ustanowionymi w sekcji 2 dostawca zastosował normy zharmonizowane, o których mowa w art. 40, lub, w stosownych przypadkach, wspólne specyfikacje, o których mowa w art. 41, dostawca wybiera jedną z następujących procedur oceny zgodności w oparciu o:
1. Attiecībā uz augsta riska MI sistēmām, kas uzskaitītas III pielikuma 1. punktā, ja nodrošinātājs, apliecinot augsta riska MI sistēmas atbilstību 2. iedaļā noteiktajām prasībām, ir piemērojis 40. pantā minētos saskaņotos standartus vai, attiecīgā gadījumā, 41. pantā minētās kopīgās specifikācijas, nodrošinātājs izvēlas vienu no šīm atbilstības novērtēšanas procedūrām, kas balstītas uz:
a)
kontrolę wewnętrzną, o której mowa w załączniku VI; lub
a)
VI pielikumā minēto iekšējo kontroli; vai
b)
ocenę systemu zarządzania jakością i ocenę dokumentacji technicznej przeprowadzaną z udziałem jednostki notyfikowanej, o której to procedurze mowa w załączniku VII.
b)
VII pielikumā minēto kvalitātes vadības sistēmas un tehniskās dokumentācijas novērtēšanu, iesaistot paziņoto struktūru.
Przy wykazywaniu zgodności systemu AI wysokiego ryzyka z wymogami ustanowionymi w sekcji 2 dostawca postępuje zgodnie z procedurą oceny zgodności ustanowioną w załączniku VII, w przypadku gdy:
Apliecinot augsta riska MI sistēmas atbilstību 2. iedaļā noteiktajām prasībām, nodrošinātājs ievēro VII pielikumā noteikto atbilstības novērtēšanas procedūru, ja:
a)
normy zharmonizowane, o których mowa w art. 40, nie istnieją, a wspólne specyfikacje, o których mowa w art. 41, nie są dostępne;
a)
40. pantā minētie saskaņotie standarti nepastāv un 41. pantā minētās kopīgās specifikācijas nav pieejamas;
b)
dostawca nie zastosował normy zharmonizowanej lub zastosował jedynie jej część;
b)
nodrošinātājs saskaņoto standartu nav piemērojis vai ir piemērojis tikai tā daļu;
c)
wspólne specyfikacje, o których mowa w lit. a), istnieją, ale dostawca ich nie zastosował;
c)
a) apakšpunktā minētās kopīgās specifikācijas pastāv, bet nodrošinātājs tās nav piemērojis;
d)
co najmniej jedna z norm zharmonizowanych, o których mowa w lit. a), została opublikowana z ograniczeniem i jedynie w odniesieniu do tej części normy, której dotyczy ograniczenie.
d)
viens vai vairāki no a) apakšpunktā minētajiem saskaņotajiem standartiem ir publicēti ar ierobežojumu, un tikai attiecībā uz to standarta daļu, uz kuru attiecas ierobežojums.
Na potrzeby procedury oceny zgodności, o której mowa w załączniku VII, dostawca może wybrać dowolną jednostkę notyfikowaną. Jednak w przypadku gdy system ma zostać oddany do użytku przez organy ścigania, organy imigracyjne lub organy azylowe lub przez instytucje, organy i jednostki organizacyjne Unii, funkcję jednostki notyfikowanej pełni organ nadzoru rynku, o którym mowa odpowiednio w art. 74 ust. 8 lub ust. 9.
VII pielikumā minētās atbilstības novērtēšanas procedūras nolūkos nodrošinātājs var izvēlēties jebkuru no paziņotajām struktūrām. Tomēr, ja augsta riska MI sistēmu paredzēts nodot ekspluatācijā tiesībaizsardzības, imigrācijas vai patvēruma iestādēm vai Savienības iestādēm, struktūrām, birojiem vai aģentūrām, kā paziņotā struktūra darbojas tirgus uzraudzības iestāde, kas minēta, attiecīgi, 74. panta 8. vai 9. punktā.
2. W przypadku systemów AI wysokiego ryzyka, o których mowa w załączniku III pkt 2–8, dostawcy postępują zgodnie z procedurą oceny zgodności opierającą się na kontroli wewnętrznej, o której mowa w załączniku VI i która nie przewiduje udziału jednostki notyfikowanej.
2. Attiecībā uz augsta riska MI sistēmām, kas minētas III pielikuma 2. līdz 8. punktā, nodrošinātāji ievēro VI pielikumā minēto atbilstības novērtēšanas procedūru uz iekšējās kontroles pamata, kas neparedz paziņotās struktūras iesaistīšanos.
3. W przypadku systemów AI wysokiego ryzyka objętych zakresem stosowania unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I sekcja A, dostawca postępuje zgodnie z odpowiednią procedurą oceny zgodności wymaganą na podstawie tych aktów prawnych. W odniesieniu do tego rodzaju systemów AI wysokiego ryzyka zastosowanie mają wymogi ustanowione w sekcji 2 niniejszego rozdziału i stanowią one jeden z elementów tej oceny. Zastosowanie mają również przepisy załącznika VII pkt 4.3, pkt 4.4, pkt 4.5 i pkt 4.6 akapit piąty.
3. Attiecībā uz augsta riska MI sistēmām, uz kurām attiecas I pielikuma A iedaļā uzskaitītie Savienības saskaņošanas tiesību akti, nodrošinātājs ievēro attiecīgu atbilstības novērtēšanas procedūru, kā prasīts minētajos tiesību aktos. Uz minētajām augsta riska MI sistēmām attiecas šīs nodaļas 2. iedaļā noteiktās prasības, un tās ir daļa no minētās novērtēšanas. Piemēro arī VII pielikuma 4.3., 4.4., 4.5. punktu un 4.6. punkta piekto daļu.
Na potrzeby tej oceny jednostki notyfikowane, które notyfikowano zgodnie z tymi aktami prawnymi, są uprawnione do przeprowadzania kontroli zgodności systemów AI wysokiego ryzyka z wymogami ustanowionymi w sekcji 2, o ile zgodność tych jednostek notyfikowanych z wymogami ustanowionymi w art. 31 ust. 4, 5, 10 i 11 została oceniona w kontekście procedury notyfikacyjnej przewidzianej w tych aktach prawnych.
Paziņotajām struktūrām, kuras paziņotas, kā paredzēts minētajos tiesību aktos, tādas novērtēšanas nolūkos ir tiesības kontrolēt augsta riska MI sistēmu atbilstību 2. iedaļā noteiktajām prasībām, ar noteikumu, ka minēto paziņoto struktūru atbilstība prasībām, kuras noteiktas 31. panta 4., 5., 10. un 11. punktā, ir novērtēta saistībā ar paziņošanas procedūru, kas paredzēta minētajos tiesību aktos.
W przypadku gdy akt prawny wymieniony w załączniku I sekcja A zapewnia producentowi produktu możliwość zrezygnowania z oceny zgodności przeprowadzanej przez stronę trzecią, pod warunkiem że producent ten zapewnił zgodność ze wszystkimi normami zharmonizowanymi obejmującymi wszystkie stosowne wymogi, taki producent może skorzystać z tej możliwości wyłącznie w przypadku, gdy zapewnił również zgodność z normami zharmonizowanymi lub – w stosownych przypadkach – wspólnymi specyfikacjami, o których mowa w art. 41, obejmującymi wszystkie wymogi ustanowione w sekcji 2 niniejszego rozdziału.
Ja tiesību akts, kas uzskaitīts I pielikuma A iedaļā, ļauj produkta ražotājam atteikties no trešās personas veiktas atbilstības novērtēšanas, ar noteikumu, ka šis ražotājs ir piemērojis visus saskaņotos standartus, kas aptver visas attiecīgās prasības, minētais ražotājs var izmantot šo iespēju tikai tad, ja tas ir piemērojis arī saskaņotos standartus vai, attiecīgā gadījumā, 41. pantā minētās kopīgās specifikācijas, kas attiecas uz šīs nodaļas 2. iedaļā noteiktajām prasībām.
4. Systemy AI wysokiego ryzyka, które poddano już procedurze oceny zgodności, poddaje się nowej procedurze oceny zgodności w przypadku gdy wprowadza się w nich istotne zmiany, niezależnie od tego, czy zmieniony system jest przeznaczony do dalszej dystrybucji lub czy ma być nadal wykorzystywany przez obecny podmiot stosujący.
4. Augsta riska MI sistēmas, kam jau ir veikta atbilstības novērtēšanas procedūra, pakļauj jaunai atbilstības novērtēšanas procedūrai būtiskas modifikācijas gadījumā neatkarīgi no tā, vai modificēto sistēmu paredzēts izplatīt tālāk jeb vai to turpinās lietot pašreizējais uzturētājs.
W przypadku systemów AI wysokiego ryzyka, które nadal uczą się po wprowadzeniu ich do obrotu lub po oddaniu ich do użytku, istotnej zmiany nie stanowią zmiany w systemie AI wysokiego ryzyka i jego skuteczności działania, które dostawca z góry zaplanował w chwili przeprowadzania początkowej oceny zgodności i które są częścią informacji zawartych w dokumentacji technicznej, o której mowa w pkt 2 lit. f) załącznika IV.
Attiecībā uz augsta riska MI sistēmām, kuras pēc laišanas tirgū vai nodošanas ekspluatācijā turpina mācīties, tādas izmaiņas augsta riska MI sistēmā un tās veiktspējā, ko sākotnējās atbilstības novērtēšanas brīdī ir iepriekš noteicis nodrošinātājs un kas ir norādītas informācijā, kura ietverta tehniskajā dokumentācijā, kas minēta IV pielikuma 2. punkta f) apakšpunktā, nav būtiskas modifikācijas.
5. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 97 w celu zmiany załączników VI i VII poprzez ich zmianę w świetle postępu technicznego.
5. Komisija tiek pilnvarota pieņemt deleģētos aktus saskaņā ar 97. pantu, lai grozītu VI un VII pielikumu, tos atjauninot, ņemot vērā tehnikas attīstību.
6. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 97 w celu zmiany ust. 1 i 2 niniejszego artykułu, aby objąć systemy AI wysokiego ryzyka, o których mowa w załączniku III pkt 2–8, procedurą oceny zgodności, o której mowa w załączniku VII, lub elementami tej procedury. Komisja przyjmuje takie akty delegowane, biorąc pod uwagę skuteczność procedury oceny zgodności opierającej się na kontroli wewnętrznej, o której mowa w załączniku VI, w zapobieganiu ryzyku dla zdrowia i bezpieczeństwa oraz ryzyku związanemu z ochroną praw podstawowych stwarzanemu przez takie systemy lub minimalizowaniu takiego ryzyka, a także uwzględniając dostępność odpowiednich zdolności i zasobów wśród jednostek notyfikowanych.
6. Komisija tiek pilnvarota pieņemt deleģētos aktus saskaņā ar 97. pantu, lai grozītu šā panta 1. un 2. punktu nolūkā uz III pielikuma 2. līdz 8. punktā minētajām augsta riska MI sistēmām attiecināt VII pielikumā minēto atbilstības novērtēšanas procedūru vai tās daļas. Komisija pieņem šādus deleģētos aktus, ņemot vērā tādas atbilstības novērtēšanas procedūras efektivitāti, kuras pamatā ir VI pielikumā minētā iekšējā kontrole, lai novērstu vai samazinātu šādu sistēmu radītos riskus attiecībā uz veselību un drošību, un pamattiesību aizsardzība, kā arī pienācīgu spēju un resursu pieejamība paziņoto struktūru starpā.
1. Certyfikaty wydane przez jednostki notyfikowane zgodnie z załącznikiem VII są sporządzane w języku łatwo zrozumiałym dla odpowiednich organów w państwie członkowskim, w którym jednostka notyfikowana ma siedzibę.
1. Sertifikātus, ko saskaņā ar VII pielikumu izdod paziņotās struktūras, sagatavo valodā, kas ir viegli saprotama attiecīgajām iestādēm dalībvalstī, kurā ir izveidota paziņotā struktūra.
2. Certyfikaty zachowują ważność przez wskazany w nich okres, który nie może przekraczać pięciu lat – w odniesieniu do systemów AI objętych zakresem stosowania załącznika I oraz czterech lat – w odniesieniu do systemów AI objętych zakresem stosowania załącznika III. Na wniosek dostawcy ważność certyfikatu można przedłużyć na kolejne okresy, które nie mogą każdorazowo przekraczać pięciu lat – w odniesieniu do systemów AI objętych zakresem stosowania załącznika I oraz czterech lat – w odniesieniu do systemów AI objętych zakresem stosowania załącznika III, w oparciu o wyniki ponownej oceny przeprowadzonej zgodnie z mającymi zastosowanie procedurami oceny zgodności. Wszelkie uzupełnienia do certyfikatu pozostają ważne, pod warunkiem, że uzupełniany certyfikat jest ważny.
2. Sertifikāti ir derīgi tajos norādītajā laikposmā, kas nepārsniedz piecus gadus MI sistēmām, uz kurām attiecas I pielikums, un četrus gadus MI sistēmām, uz kurām attiecas III pielikums. Pēc nodrošinātāja pieteikuma sertifikāta derīgumu var pagarināt uz turpmākiem laikposmiem, kas katrs nepārsniedz piecus gadus MI sistēmām, uz kurām attiecas I pielikums, un četrus gadus MI sistēmām, uz kurām attiecas III pielikums, pamatojoties uz atkārtotu novērtēšanu saskaņā ar piemērojamām atbilstības novērtēšanas procedūrām. Jebkurš sertifikāta papildinājums ir joprojām derīgs ar noteikumu, ka derīgs ir sertifikāts, kuru tas papildina.
3. Jeżeli jednostka notyfikowana ustali, że system AI przestał spełniać wymogi ustanowione w sekcji 2, zawiesza lub cofa wydany certyfikat lub nakłada na niego ograniczenia, biorąc pod uwagę zasadę proporcjonalności, chyba że dostawca systemu zapewni zgodność z tymi wymogami poprzez podjęcie odpowiedniego działania naprawczego w stosownym terminie wyznaczonym przez jednostkę notyfikowaną. Jednostka notyfikowana uzasadnia swoją decyzję.
3. Ja paziņotā struktūra konstatē, ka MI sistēma vairs neatbilst 2. iedaļā noteiktajām prasībām, tā, ņemot vērā samērīguma principu, aptur vai atsauc izdoto sertifikātu vai uzliek tam ierobežojumus, ja vien atbilstība šīm prasībām nav nodrošināta ar pienācīgu korektīvu darbību, ko sistēmas nodrošinātājs veic paziņotās struktūras noteiktajā termiņā. Paziņotā struktūra savu lēmumu pamato.
Od decyzji jednostek notyfikowanych, w tym dotyczących wydanych certyfikatów zgodności, przysługuje odwołanie.
Ir pieejama paziņoto struktūru lēmumu pārsūdzēšanas procedūra, tostarp par izdotiem atbilstības sertifikātiem.
Odstępstwo od procedury oceny zgodności
Atkāpe no atbilstības novērtēšanas procedūras
1. Na zasadzie odstępstwa od art. 43 i na należycie uzasadniony wniosek organ nadzoru rynku może wydać zezwolenie na wprowadzenie do obrotu lub oddanie do użytku konkretnych systemów AI wysokiego ryzyka na terytorium danego państwa członkowskiego w związku z wystąpieniem nadzwyczajnych względów dotyczących bezpieczeństwa publicznego lub ochrony zdrowia i życia osób, ochrony środowiska lub ochrony kluczowych aktywów przemysłowych i infrastrukturalnych. Zezwolenie to wydaje się tymczasowo na okres przeprowadzenia niezbędnych procedur oceny zgodności, uwzględniając nadzwyczajne względy uzasadniające przedmiotowe odstępstwo. Dokłada się starań, aby procedury te ukończono bez zbędnej zwłoki.
1. Atkāpjoties no 43. panta un pēc pienācīgi pamatota pieprasījuma tirgus uzraudzības iestāde var atļaut konkrētu augsta riska MI sistēmu laišanu tirgū vai nodošanu ekspluatācijā attiecīgās dalībvalsts teritorijā ārkārtēju sabiedriskās drošības iemeslu dēļ vai personu dzīvības un veselības aizsardzības, vides aizsardzības vai svarīgu rūpniecības un infrastruktūras aktīvu aizsardzības iemeslu dēļ. Minētā atļauja ir uz ierobežotu laikposmu, kamēr tiek veiktas nepieciešamās atbilstības novērtēšanas procedūras, ņemot vērā ārkārtējos apstākļus, kas pamato atkāpi. Šīs procedūras pabeidz bez liekas kavēšanās.
2. W należycie uzasadnionych pilnych przypadkach w związku z wystąpieniem nadzwyczajnych względów bezpieczeństwa publicznego lub w przypadku konkretnego, istotnego i bezpośredniego zagrożenia życia lub bezpieczeństwa fizycznego osób fizycznych, organy ścigania lub organy ochrony ludności mogą oddać do użytku określony system AI wysokiego ryzyka bez zezwolenia, o którym mowa w ust. 1, pod warunkiem że wniosek o takie zezwolenie zostanie bez zbędnej zwłoki złożony w trakcie wykorzystywania tego systemu lub tuż po nim. W przypadku odmowy wydania zezwolenia, o którym mowa w ust. 1, wykorzystywanie tego systemu AI wysokiego ryzyka wstrzymuje się ze skutkiem natychmiastowym, a wszystkie rezultaty i wyniki tego wykorzystania muszą zostać natychmiast odrzucone.
2. Pienācīgi pamatotā steidzamā situācijā ārkārtēju sabiedriskās drošības iemeslu dēļ vai konkrēta, būtiska un nenovēršama apdraudējuma fizisku personu dzīvībai vai fiziskai drošībai gadījumā tiesībaizsardzības iestādes vai civilās aizsardzības iestādes var nodot ekspluatācijā konkrētu augsta riska MI sistēmu bez 1. punktā minētās atļaujas ar noteikumu, ka šāda atļauja bez liekas kavēšanās tiek pieprasīta lietošanas laikā vai pēc tās. Ja 1. punktā minētā atļauja tiek atteikta, šādas augsta riska MI sistēmas lietošanu nekavējoties aptur un visus šādas lietošanas rezultātus un iznākumus nekavējoties atmet.
3. Zezwolenie, o którym mowa w ust. 1, wydaje się wyłącznie wówczas, gdy organ nadzoru rynku stwierdzi, że system AI wysokiego ryzyka jest zgodny z wymogami ustanowionymi w sekcji 2. Organ nadzoru rynku informuje Komisję i pozostałe państwa członkowskie o zezwoleniach wydanych zgodnie z ust. 1 i 2. Obowiązek ten nie obejmuje wrażliwych danych operacyjnych dotyczących działań organów ścigania.
3. Atļauju, kas minēta 1. punktā, izsniedz tikai tad, ja tirgus uzraudzības iestāde secina, ka augsta riska MI sistēma atbilst 2. iedaļas prasībām. Par visām atļaujām, kas izsniegtas, ievērojot 1. un 2. punktu, tirgus uzraudzības iestāde nekavējoties informē Komisiju un pārējās dalībvalstis. Šis pienākums neattiecas uz sensitīviem operatīvajiem datiem saistībā ar tiesībaizsardzības iestāžu darbībām.
4. Jeżeli w terminie 15 dni kalendarzowych od dnia otrzymania informacji, o której mowa w ust. 3, ani żadne państwo członkowskie, ani Komisja nie zgłoszą sprzeciwu dotyczącego zezwolenia wydanego przez organ nadzoru rynku państwa członkowskiego zgodnie z ust. 1, takie zezwolenie uznaje się za uzasadnione.
4. Ja 15 kalendāro dienu laikā pēc 3. punktā minētās informācijas saņemšanas neviena dalībvalsts vai Komisija nav cēlusi iebildumus par atļauju, ko saskaņā ar 1. punktu izdevusi dalībvalstu tirgus uzraudzības iestāde, minēto atļauju uzskata par pamatotu.
5. Jeżeli w terminie 15 dni kalendarzowych od dnia otrzymania informacji, o której mowa w ust. 3, państwo członkowskie zgłosi sprzeciw dotyczący zezwolenia wydanego przez organ nadzoru rynku innego państwa członkowskiego lub w przypadku gdy Komisja uzna zezwolenie za sprzeczne z prawem Unii lub uzna za bezpodstawne dokonane przez państwo członkowskie stwierdzenie zgodności systemu, o czym mowa w ust. 3, Komisja niezwłocznie przystępuje do konsultacji z odpowiednim państwem członkowskim. W takim przypadku zasięga się opinii zainteresowanych operatorów i zapewnia się im możliwość przedstawienia ich stanowiska. Na tej podstawie Komisja podejmuje decyzję, czy dane zezwolenie jest uzasadnione. Komisja kieruje swoją decyzję do zainteresowanego państwa członkowskiego i odpowiednich operatorów.
5. Ja 15 kalendāro dienu laikā pēc 3. punktā minētā paziņojuma saņemšanas kāda dalībvalsts ceļ iebildumus pret citas dalībvalsts tirgus uzraudzības iestādes izdoto atļauju vai Komisija uzskata, ka atļauja ir pretrunā Savienības tiesību aktiem vai 3. punktā minētais dalībvalstu secinājums par attiecīgās sistēmas atbilstību nav pamatots, Komisija nekavējoties sāk apspriešanos ar attiecīgo dalībvalsti. Notiek apspriešanās ar attiecīgajiem operatoriem, un viņiem ir iespēja izklāstīt savu viedokli. To ņemot vērā, Komisija lemj, vai atļauja ir pamatota. Komisija savu lēmumu adresē attiecīgajai dalībvalstij un attiecīgiem operatoriem.
6. W przypadku gdy Komisja uzna zezwolenie za bezpodstawne, organ nadzoru rynku zainteresowanego państwa członkowskiego cofa je.
6. Ja Komisija atļauju uzskata par nepamatotu, attiecīgās dalībvalsts tirgus uzraudzības iestāde to atsauc.
7. W przypadku systemów AI wysokiego ryzyka powiązanych z produktami objętymi zakresem stosowania unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I sekcja A stosuje się wyłącznie odstępstwa od oceny zgodności ustanowione w tym unijnym prawodawstwie harmonizacyjnym.
7. Augsta riska MI sistēmām, kas saistītas ar produktiem, uz kuriem attiecas I pielikuma A iedaļā minētie Savienības saskaņošanas tiesību akti, piemēro tikai minētajos Savienības saskaņošanas tiesību aktos noteiktās atkāpes no atbilstības novērtēšanas.
ES atbilstības deklarācija
1. Dostawca sporządza pisemną i nadającą się do odczytu maszynowego, podpisaną fizycznie lub elektronicznie, deklarację zgodności UE dla każdego systemu AI wysokiego ryzyka i przechowuje ją do dyspozycji właściwych organów krajowych przez okres 10 lat od dnia wprowadzenia systemu AI wysokiego ryzyka do obrotu lub oddania go do użytku. W deklaracji zgodności UE wskazuje się system AI wysokiego ryzyka, dla którego ją sporządzono. Kopię deklaracji zgodności UE przedkłada się odpowiednim właściwym organom krajowym na ich wniosek.
1. Nodrošinātājs sagatavo rakstisku, mašīnlasāmu, fiziski vai elektroniski parakstītu ES atbilstības deklarāciju katrai augsta riska MI sistēmai un glabā to valsts kompetentajām iestādēm pieejamu 10 gadus pēc augsta riska MI sistēmas laišanas tirgū vai nodošanas ekspluatācijā. ES atbilstības deklarācijā norāda tās augsta riska MI sistēmas identitāti, kurai deklarācija ir sagatavota. ES atbilstības deklarācijas kopiju pēc pieprasījuma iesniedz attiecīgajām valsts kompetentajām iestādēm.
2. W deklaracji zgodności UE stwierdza się, że dany system AI wysokiego ryzyka spełnia wymogi ustanowione w sekcji 2. Deklaracja zgodności UE zawiera informacje określone w załączniku V i musi zostać przetłumaczona na język łatwo zrozumiały dla właściwych organów krajowych państw członkowskich, w których dany system AI wysokiego ryzyka jest wprowadzany do obrotu lub udostępniany.
2. ES atbilstības deklarācijā norāda, ka attiecīgā augsta riska MI sistēma atbilst 2. iedaļā noteiktajām prasībām. ES atbilstības deklarācijā iekļauj V pielikumā noteikto informāciju, un to tulko valodā, kura ir viegli saprotama valsts kompetentajām iestādēm dalībvalstīs, kurās attiecīgā augsta riska MI sistēma ir laista tirgū vai darīta pieejama.
3. W przypadku gdy systemy AI wysokiego ryzyka podlegają innemu unijnemu prawodawstwu harmonizacyjnemu, w którym również ustanowiono wymóg sporządzenia deklaracji zgodności UE, na potrzeby wszystkich przepisów prawa Unii mających zastosowanie do systemu AI wysokiego ryzyka sporządza się jedną deklarację zgodności UE. W deklaracji zamieszcza się wszystkie informacje niezbędne do zidentyfikowania unijnego prawodawstwa harmonizacyjnego, do którego się ona odnosi.
3. Ja uz augsta riska MI sistēmām attiecas citi Savienības saskaņošanas tiesību akti, kuriem arī vajadzīga ES atbilstības deklarācija, par visiem Savienības tiesību aktiem, kas piemērojami augsta riska MI sistēmai, sagatavo vienotu ES atbilstības deklarāciju. Deklarācijā iekļauj visu informāciju, kas vajadzīga, lai identificētu Savienības saskaņošanas tiesību aktus, uz kuriem attiecas šī deklarācija.
4. Sporządzając deklarację zgodności UE, dostawca bierze na siebie odpowiedzialność za zgodność z wymogami ustanowionymi w sekcji 2. Dostawca odpowiednio zapewnia aktualność deklaracji zgodności UE.
4. Sagatavojot ES atbilstības deklarāciju, nodrošinātājs uzņemas atbildību par atbilstību 2. iedaļā noteiktajām prasībām. Vajadzības gadījumā nodrošinātājs ES atbilstības deklarāciju regulāri atjaunina.
5. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 97 w celu zmiany załącznika V poprzez zaktualizowanie treści deklaracji zgodności UE określonej w tym załączniku w celu wprowadzenia elementów, które stały się konieczne w świetle postępu technicznego.
5. Komisija tiek pilnvarota pieņemt deleģētos aktus saskaņā ar 97. pantu, lai atjauninātu V pielikumā noteiktās ES atbilstības deklarācijas saturu ar mērķi ieviest elementus, kas kļūst nepieciešami, ņemot vērā tehnikas attīstību.
1. Oznakowanie CE podlega ogólnym zasadom określonym w art. 30 rozporządzenia (WE) nr 765/2008.
1. Uz CE zīmi attiecas vispārīgie principi, kas paredzēti Regulas (EK) Nr. 765/2008 30. pantā.
2. W przypadku systemów AI wysokiego ryzyka dostarczanych w formie cyfrowej cyfrowe oznakowanie CE stosuje się wyłącznie wtedy, gdy można do niego łatwo dotrzeć za pośrednictwem interfejsu, poprzez który uzyskuje się dostęp do tego systemu, lub za pomocą łatwo dostępnego kodu nadającego się do odczytu maszynowego lub innych środków elektronicznych.
2. Digitāli nodrošinātām augsta riska MI sistēmām digitālu CE zīmi izmanto tikai tad, ja tai var viegli piekļūt, izmantojot minētās sistēmas piekļuves saskarni vai viegli pieejamu mašīnlasāmu kodu, vai citus elektroniskus līdzekļus.
3. Oznakowanie CE umieszcza się na systemie AI wysokiego ryzyka w sposób widoczny, czytelny i trwały. W przypadku gdy z uwagi na charakter systemu AI wysokiego ryzyka oznakowanie systemu w taki sposób nie jest możliwe lub zasadne, oznakowanie to umieszcza się na opakowaniu lub – w stosownych przypadkach – w dołączonej do systemu dokumentacji.
3. CE zīmi augsta riska MI sistēmām uzliek tā, lai tā būtu redzama, salasāma un neizdzēšama. Ja augsta riska MI sistēmas specifikas dēļ tas nav iespējams vai netiek prasīts, zīmi uzliek uz iepakojuma vai, attiecīgā gadījumā, uz pievienotās dokumentācijas.
4. W stosownych przypadkach oznakowaniu CE towarzyszy również numer identyfikacyjny jednostki notyfikowanej odpowiedzialnej za przeprowadzenie procedur oceny zgodności ustanowionych w art. 43. Numer identyfikacyjny jednostki notyfikowanej umieszcza sama jednostka lub, według wskazówek jednostki notyfikowanej, dostawca lub jego upoważniony przedstawiciel. Numer identyfikacyjny umieszcza się również na wszelkich materiałach promocyjnych zawierających informacje o tym, że system AI wysokiego ryzyka spełnia wymogi konieczne do opatrzenia go oznakowaniem CE.
4. Attiecīgā gadījumā CE zīmei seko tās paziņotās struktūras identifikācijas numurs, kura ir atbildīga par 43. pantā noteikto atbilstības novērtēšanas procedūru. Paziņotās struktūras identifikācijas numuru uzliek pati struktūra, vai arī pēc tās norādījumiem to uzliek nodrošinātājs vai nodrošinātāja pilnvarotais pārstāvis. Identifikācijas numuru norāda arī visos reklāmas materiālos, kuros minēts, ka augsta riska MI sistēma atbilst CE zīmes prasībām.
5. W przypadku gdy systemy AI wysokiego ryzyka podlegają innym przepisom Unii, które również przewidują umieszczenie oznakowania CE, oznakowanie CE wskazuje, że dany system AI wysokiego ryzyka spełnia także wymogi zawarte w tych innych przepisach.
5. Ja augsta riska MI sistēmas reglamentē arī citi Savienības tiesību akti, kas arī paredz CE zīmes uzlikšanu, CE zīme norāda, ka šī augsta riska MI sistēma atbilst arī šo citu tiesību aktu prasībām.
1. Przed wprowadzeniem do obrotu lub oddaniem do użytku systemu AI wysokiego ryzyka wymienionego w załączniku III, z wyjątkiem systemów AI wysokiego ryzyka, o których mowa w załączniku III pkt 2, dostawca lub – w stosownych przypadkach – jego upoważniony przedstawiciel rejestrują się i swój system w bazie danych UE, o której mowa w art. 71.
1. Pirms tiek laista tirgū vai nodota ekspluatācijā augsta riska MI sistēma, kas uzskaitīta III pielikumā, izņemot augsta riska MI sistēmas, kas minētas III pielikuma 2. punktā, nodrošinātājs vai, attiecīgā gadījumā, pilnvarotais pārstāvis reģistrējas pats un reģistrē savu sistēmu 71. pantā minētajā ES datubāzē.
2. Przed wprowadzeniem do obrotu lub oddaniem do użytku systemu AI, co do którego dostawca stwierdził, że nie jest systemem wysokiego ryzyka zgodnie z art. 6 ust. 3, dostawca ten lub – w stosownych przypadkach – jego upoważniony przedstawiciel rejestrują się i swój system w bazie danych UE, o której mowa w art. 71.
2. Pirms tiek laista tirgū vai nodota ekspluatācijā MI sistēma, par kuru nodrošinātājs saskaņā ar 6. panta 3. punktu ir secinājis, ka tā nav augsta riska MI sistēma, minētais nodrošinātājs vai, attiecīgā gadījumā, pilnvarotais pārstāvis reģistrējas pats un reģistrē savu sistēmu 71. pantā minētajā ES datubāzē.
3. Przed oddaniem do użytku lub wykorzystaniem systemu AI wysokiego ryzyka wymienionego w załączniku III, z wyjątkiem systemów AI wysokiego ryzyka wymienionych w załączniku III pkt 2, podmioty stosujące będące publicznymi organami, instytucjami, organami lub jednostkami organizacyjnymi Unii lub osobami działającymi w ich imieniu rejestrują się, wybierają system i rejestrują jego wykorzystanie w bazie danych UE, o której mowa w art. 71.
3. Pirms tiek nodota ekspluatācijā vai lietota augsta riska MI sistēma, kas uzskaitīta III pielikumā, izņemot augsta riska MI sistēmas, kas uzskaitītas III pielikuma 2. punktā, uzturētāji, kas ir publiskas iestādes, Savienības iestādes, struktūras, biroji vai aģentūras vai personas, kas rīkojas to vārdā, reģistrējas, atlasa sistēmu un reģistrē tās lietošanu 71. pantā minētajā ES datubāzē.
4. W przypadku systemów AI wysokiego ryzyka, o których mowa w załączniku III pkt 1, 6 i 7, w obszarach ścigania przestępstw, migracji, azylu i zarządzania kontrolą graniczną, rejestracji, o której mowa w ust. 1, 2 i 3 niniejszego artykułu, dokonuje się w bezpiecznej niepublicznej sekcji bazy danych UE, o której mowa w art. 71, i – stosownie do przypadku – zawiera wyłącznie następujące informacje, o których mowa w:
4. Attiecībā uz augsta riska MI sistēmām, kas minētas III pielikuma 1., 6. un 7. punktā, tiesībaizsardzības, migrācijas, patvēruma un robežkontroles jomās šā panta 1., 2. un 3. punktā minēto reģistrāciju veic ES datubāzes drošā, publiski nepieejamā sadaļā, kas minēta 71. pantā, un attiecīgi iekļauj tikai šādu informāciju, kas minēta:
a)
załączniku VIII sekcja A pkt 1–10, z wyjątkiem pkt 6, 8 i 9;
a)
VIII pielikuma A iedaļas 1. līdz 10. punktā, izņemot 6., 8. un 9. punktu;
b)
załączniku VIII sekcja B pkt 1–5 oraz pkt 8 i 9;
b)
VIII pielikuma B iedaļas 1. līdz 5. punktu un 8. un 9. punktu;
c)
załączniku VIII sekcja C pkt 1–3;
c)
VIII pielikuma C iedaļas 1. līdz 3. punktu;
d)
załączniku IX pkt 1, 2, 3 i 5.
d)
IX pielikuma 1., 2., 3. un 5. punktu.
Do odpowiednich zastrzeżonych sekcji bazy danych UE wymienionych w akapicie pierwszym niniejszego ustępu dostęp mają jedynie Komisja i organy krajowe, o których mowa w art. 74 ust. 8.
Vienīgi Komisijai un 74. panta 8. punktā minētajām valsts iestādēm ir piekļuve šā punkta pirmajā daļā uzskaitītajām attiecīgajām ES datubāzes ierobežotas piekļuves sadaļām.
5. Systemy AI wysokiego ryzyka, o których mowa w załączniku III pkt 2, rejestruje się na poziomie krajowym.
5. III pielikuma 2. punktā minētās augsta riska MI sistēmas reģistrē valsts līmenī.
Obowiązki w zakresie przejrzystości dla dostawców i podmiotów stosujących niektóre systemy AI
Dažu MI sistēmu nodrošinātāju un uzturētāju pienākums nodrošināt pārredzamību
1. Dostawcy zapewniają, aby systemy AI przeznaczone do wchodzenia w bezpośrednią interakcję z osobami fizycznymi projektowano i rozwijano w taki sposób, aby zainteresowane osoby fizyczne były informowane o tym, że prowadzą interakcję z systemem AI, chyba że jest to oczywiste z punktu widzenia osoby fizycznej, która jest dostatecznie poinformowana, uważna i ostrożna, z uwzględnieniem okoliczności i kontekstu wykorzystywania. Obowiązek ten nie ma zastosowania do systemów AI, których wykorzystywanie jest dozwolone na mocy prawa do celów wykrywania przestępstw, przeciwdziałania im, prowadzenia postępowań przygotowawczych w ich sprawie lub ścigania ich sprawców, z zastrzeżeniem odpowiednich zabezpieczeń w zakresie praw i wolności osób trzecich, chyba że systemy te udostępnia się ogółowi społeczeństwa na potrzeby składania zawiadomień o popełnieniu przestępstwa.
1. Nodrošinātāji nodrošina, ka MI sistēmas, kas paredzētas tiešai mijiedarbībai ar fiziskām personām, projektē un izstrādā tā, lai attiecīgās fiziskās personas tiktu informētas par to, ka tās mijiedarbojas ar MI sistēmu, ja vien tas nav pašsaprotams no tādas fiziskas personas viedokļa, kura ir samērā labi informēta, vērīga un apdomīga, ņemot vērā apstākļus un lietošanas kontekstu. Šis pienākums neattiecas uz MI sistēmām, kuras ir likumiski atļautas noziedzīgu nodarījumu atklāšanai, novēršanai, izmeklēšanai vai kriminālvajāšanai, ievērojot atbilstošus trešo personu tiesību un brīvību aizsardzības pasākumus, ja vien minētās sistēmas nav pieejamas sabiedrībai ziņošanai par noziedzīgu nodarījumu.
2. Dostawcy systemów AI, w tym systemów AI ogólnego zastosowania, generujących treści w postaci syntetycznych dźwięków, obrazów, wideo lub tekstu, zapewniają, aby wyniki systemu AI zostały oznakowane w formacie nadającym się do odczytu maszynowego i były wykrywalne jako sztucznie wygenerowane lub zmanipulowane. Dostawcy zapewniają skuteczność, interoperacyjność, solidność i niezawodność swoich rozwiązań technicznych w zakresie, w jakim jest to technicznie wykonalne, uwzględniając przy tym specyfikę i ograniczenia różnych rodzajów treści, koszty wdrażania oraz powszechnie uznany stan wiedzy technicznej, co może być odzwierciedlone w odpowiednich normach technicznych. Obowiązek ten nie ma zastosowania w zakresie, w jakim systemy AI pełnią funkcję wspomagającą w zakresie standardowej edycji lub nie zmieniają w istotny sposób przekazywanych przez podmiot stosujący danych wejściowych lub ich semantyki, ani w zakresie, w jakim jest to dozwolone na mocy prawa do celów wykrywania przestępstw, zapobiegania im, prowadzenia postępowań przygotowawczych w ich sprawie lub ścigania ich sprawców.
2. MI sistēmu, tostarp vispārīga lietojuma MI sistēmu, kuras ģenerē sintētisku audio, attēla, video vai teksta saturu, nodrošinātāji nodrošina, ka MI sistēmas iznākumi ir mašīnlasāmā formātā un ir iespējams atklāt, ka tie ir mākslīgi ģenerēti vai manipulēti. Nodrošinātāji nodrošina, ka viņu tehniskie risinājumi ir efektīvi, sadarbspējīgi, robusti un uzticami, ciktāl tas ir tehniski iespējams, ņemot vērā dažādo satura veidu specifiku un ierobežojumus, īstenošanas izmaksas un vispāratzītos jaunākos sasniegumus, kā tas var būt atspoguļots attiecīgajos tehniskajos standartos. Šo pienākumu nepiemēro, ciktāl MI sistēma pilda palīgfunkciju standarta rediģēšanai vai būtiski nemaina uzturētāja sniegtos ievaddatus vai to semantiku, vai ja tā ir likumiski atļauta noziedzīgu nodarījumu atklāšanai, novēršanai, izmeklēšanai vai kriminālvajāšanai.
3. Podmioty stosujące systemy rozpoznawania emocji lub systemy kategoryzacji biometrycznej informują osoby fizyczne, wobec których systemy te są stosowane, o fakcie ich stosowania i przetwarzają dane osobowe stosownie do przypadku zgodnie z rozporządzeniami (UE) 2016/679 i (UE) 2018/1725 oraz dyrektywą (UE) 2016/680. Obowiązek ten nie ma zastosowania do systemów AI wykorzystywanych do kategoryzacji biometrycznej i rozpoznawania emocji, których wykorzystywanie jest dozwolone z mocy prawa do celów wykrywania przestępstw, przeciwdziałania im i prowadzenia postępowań przygotowawczych w przestępstwami ich sprawach, z zastrzeżeniem odpowiednich zabezpieczeń w zakresie praw i wolności osób trzecich oraz zgodnie z prawem Unii.
3. Emociju atpazīšanas sistēmas vai biometriskās kategorizācijas sistēmas uzturētāji informē par sistēmas darbību fiziskas personas, uz kurām tā attiecas, un personas datus apstrādā saskaņā ar, attiecīgi, Regulām (ES) 2016/679 un (ES) 2018/1725 un Direktīvu (ES) 2016/680. Šis pienākums neattiecas uz biometriskai kategorizācijai un emociju atpazīšanai izmantotām MI sistēmām, kuras ir likumiski atļautas, lai atklātu, novērstu vai izmeklētu noziedzīgus nodarījumus, ievērojot atbilstošus trešo personu tiesību un brīvību aizsardzības pasākumus un saskaņā ar Savienības tiesību aktiem.
4. Podmioty stosujące system AI, który generuje obrazy, treści audio lub wideo stanowiące treści deepfake lub który manipuluje takimi obrazami lub treściami, ujawniają, że treści te zostały sztucznie wygenerowane lub zmanipulowane. Obowiązek ten nie ma zastosowania, w przypadku gdy wykorzystywanie jest dozwolone na mocy prawa w celu wykrywania przestępstw, zapobiegania im, prowadzenia postępowań przygotowawczych w ich sprawie lub ścigania ich sprawców. W przypadku gdy treść stanowi część pracy lub programu o wyraźnie artystycznym, twórczym, satyrycznym, fikcyjnym lub analogicznym charakterze obowiązki w zakresie przejrzystości określone w niniejszym ustępie ograniczają się do ujawnienia istnienia takich wygenerowanych lub zmanipulowanych treści w odpowiedni sposób, który nie utrudnia wyświetlania lub korzystania z utworu.
4. Tādas MI sistēmas uzturētāji, kura ģenerē vai manipulē attēla, audio vai video saturu, kas ir dziļviltojums, izpauž, ka saturs ir mākslīgi ģenerēts vai manipulēts. Šo pienākumu nepiemēro, ja lietošana ir likumiski atļauta noziedzīga nodarījuma atklāšanai, novēršanai, izmeklēšanai vai kriminālvajāšanai. Ja saturs ir daļa no acīmredzami mākslinieciska, radoša, satīriska, fikcionāla vai analoga darba vai programmas, šajā punktā paredzētie pārredzamības pienākumi ietver vienīgi šāda ģenerēta vai manipulēta satura esamības izpaušanu piemērotā veidā, kas netraucē izrādīt vai baudīt darbu.
Podmioty stosujące system AI, który generuje tekst publikowany w celu informowania społeczeństwa o sprawach leżących w interesie publicznym lub manipuluje takim tekstem, ujawniają, że tekst został sztucznie wygenerowany lub zmanipulowany. Obowiązek ten nie ma zastosowania, w przypadku gdy wykorzystywanie jest dozwolone na mocy prawa w celu wykrywania przestępstw, zapobiegania im, prowadzenia postępowań przygotowawczych w ich sprawie lub ścigania ich sprawców lub w przypadku gdy treści wygenerowane przez AI zostały poddane weryfikacji przez człowieka lub kontroli redakcyjnej i gdy za publikację treści odpowiedzialność redakcyjną ponosi osoba fizyczna lub prawna.
Tādas MI sistēmas uzturētāji, kura ģenerē vai manipulē tekstu, ko publicē nolūkā informēt sabiedrību par sabiedrības interešu jautājumiem, izpauž, ka teksts ir mākslīgi ģenerēts vai manipulēts. Šo pienākumu nepiemēro, ja lietošana ir likumiski atļauta noziedzīga nodarījuma atklāšanai, novēršanai, izmeklēšanai vai kriminālvajāšanai vai ja MI ģenerētu saturu ir pārskatījis cilvēks vai tam ir veikta redakcionāla kontrole un ja fiziska vai juridiska persona ir redakcionāli atbildīga par satura publikāciju.
5. Informacje, o których mowa w ust. 1–4, są przekazywane zainteresowanym osobom fizycznym w jasny i wyraźny sposób, najpóźniej w momencie pierwszej interakcji lub pierwszego stosowania. Informacje te muszą spełniać mające zastosowanie wymogi dostępności.
5. Šā panta 1. līdz 4. punktā minēto informāciju attiecīgām fiziskām personām sniedz skaidrā un atšķiramā veidā, vēlākais, pirmās mijiedarbības vai eksponētības laikā. Informācija atbilst piemērojamām piekļūstamības prasībām.
6. Ust. 1–4 nie mają wpływu na wymogi i obowiązki ustanowione w rozdziale III i pozostają bez uszczerbku dla innych obowiązków w zakresie przejrzystości ustanowionych w prawie Unii lub prawie krajowym w odniesieniu do podmiotów stosujących systemy AI.
6. Šā panta 1. līdz 4. punkts neietekmē III nodaļā noteiktās prasības un pienākumus un neskar citus Savienības vai valsts tiesību aktos noteiktus MI sistēmu uzturētāju pienākumus attiecībā uz pārredzamību.
7. Urząd ds. AI zachęca do opracowywania kodeksów praktyk na poziomie Unii i wspiera ich opracowanie, aby ułatwić skuteczne wykonywanie obowiązków w zakresie wykrywania i oznaczania treści sztucznie wygenerowanych lub zmanipulowanych. Komisja może przyjmować akty wykonawcze dotyczące zatwierdzenia tych kodeksów praktyk zgodnie z procedurą ustanowioną w art. 56 ust. 6. Jeżeli Komisja uzna, że kodeks nie jest odpowiedni, może przyjąć akt wykonawczy określający wspólne zasady wykonywania tych obowiązków zgodnie z procedurą sprawdzającą ustanowioną w art. 98 ust. 2.
7. MI birojs rosina un sekmē prakses kodeksu izstrādi Savienības līmenī, lai sekmētu ar mākslīgi ģenerēta vai manipulēta satura atklāšanu un marķēšanu saistītu pienākumu efektīvu īstenošanu. Komisija var pieņemt īstenošanas aktus, lai apstiprinātu minētos prakses kodeksus saskaņā ar 56. panta 6. punktā noteikto procedūru. Ja tā uzskata, ka kodekss nav atbilstīgs, Komisija var pieņemt īstenošanas aktu, ar ko nosaka kopīgus noteikumus minēto pienākumu īstenošanai saskaņā ar pārbaudes procedūru, kas minēta 98. panta 2. punktā.
1. W przypadku gdy model AI ogólnego przeznaczenia spełnia warunki, o których mowa w art. 51 ust. 1 lit. a), odpowiedni dostawca powiadamia Komisję niezwłocznie, a w każdym przypadku w terminie dwóch tygodni od spełnienia tego warunku lub od kiedy wiadomo, że zostanie on spełniony. Powiadomienie to zawiera informacje niezbędne do wykazania, że dany warunek został spełniony. Jeśli Komisja dowie się o stwarzającym ryzyko systemowe modelu AI ogólnego przeznaczenia, o którym nie została powiadomiona, może zdecydować o uznaniu go za model z ryzykiem systemowym.
1. Ja vispārīga lietojuma MI modelis atbilst 51. panta 1. punkta a) apakšpunktā minētajam nosacījumam attiecīgais nodrošinātājs paziņo Komisijai nekavējoties un jebkurā gadījumā divu nedēļu laikā pēc tam, kad minētā prasība ir izpildīta vai kļūst zināms, ka tā tiks izpildīts. Minētajā paziņojumā iekļauj informāciju, kas nepieciešama, lai apliecinātu, ka attiecīgā prasība ir izpildīta. Ja Komisijai kļūst zināms par vispārīga lietojuma MI modeli, kas rada sistēmiskus riskus, par kuru tai nav paziņots, tā var nolemt to atzīt par modeli ar sistēmisku risku.
2. Dostawca spełniający warunek, o którym mowa w art. 51 ust. 1 lit. a), modelu AI ogólnego przeznaczenia z ryzykiem systemowym może wraz ze swoim powiadomieniem przedstawić wystarczająco uzasadnione argumenty wykazujące, że wyjątkowo, pomimo spełniania przez ten model AI ogólnego przeznaczenia przedmiotowego warunku, nie stwarza on – z uwagi na swoje szczególne cechy – ryzyka systemowego i nie powinien być w związku z tym zaklasyfikowany jako model AI ogólnego przeznaczenia z ryzykiem systemowym.
2. Tāda vispārīga lietojuma MI modeļa nodrošinātājs, kurš atbilst 51. panta 1. punkta a) apakšpunktā minētajiem nosacījumiem, var līdz ar paziņojumu iesniegt pietiekami pamatotus argumentus, lai apliecinātu, ka izņēmuma kārtā, lai arī tas atbilst minētajai prasībai, vispārīga lietojuma MI modelis savas konkrētās specifikas dēļ nerada sistēmiskus riskus un tādēļ nebūtu jākvalificē kā vispārīga lietojuma MI modelis ar sistēmisku risku.
3. W przypadku gdy Komisja stwierdzi, że argumenty przedstawione zgodnie z ust. 2 nie są wystarczająco uzasadnione i że dany dostawca nie był w stanie wykazać, że dany model AI ogólnego przeznaczenia nie stwarza – z uwagi na swoje szczególne cechy – ryzyka systemowego, odrzuca te argumenty, a dany model AI ogólnego przeznaczenia uważa się za model AI ogólnego przeznaczenia z ryzykiem systemowym.
3. Ja Komisija secina, ka argumenti, kas iesniegti, ievērojot 2. punktu, nav pietiekami pamatoti un attiecīgais nodrošinātājs nav spējis apliecināt, ka vispārīga lietojuma MI modelis savas konkrētās specifikas dēļ nerada sistēmiskus riskus, tā noraida minētos argumentus, un vispārīga lietojuma MI modeli uzskata par vispārīga lietojuma MI modeli ar sistēmisku risku.
4. Komisja może – z urzędu lub w następstwie ostrzeżenia kwalifikowanego wydanego przez panel naukowy zgodnie z art. 90 ust. 1 lit. a) – uznać model AI ogólnego przeznaczenia za model stwarzający ryzyko systemowe na podstawie kryteriów określonych w załączniku XIII.
4. Komisija var atzīt, ka vispārīga lietojuma MI modelis rada sistēmiskus riskus, ex officio vai pēc zinātniskās grupas kvalificēta brīdinājuma, ievērojot 90. panta 1. punkta a) apakšpunktu, balstoties uz kritērijiem, kas noteikti XIII pielikumā.
Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 97 w celu zmiany załącznika XIII poprzez określenie i zaktualizowanie kryteriów określonych w załączniku XIII.
Komisija tiek pilnvarota pieņemt deleģētos aktus saskaņā ar 97. pantu, lai grozītu XIII pielikumu, precizējot un atjauninot minētajā pielikumā noteiktos kritērijus.
5. Na uzasadniony wniosek dostawcy, którego model został zgodnie z ust. 4 uznany za model AI ogólnego przeznaczenia z ryzykiem systemowym, Komisja bierze pod uwagę taki wniosek i może zdecydować o ponownej ocenie w celu stwierdzenia, czy dany model AI ogólnego przeznaczenia może być nadal uważany za stwarzający ryzyko systemowe na podstawie kryteriów określonych w załączniku XIII. Wniosek taki zawiera obiektywne, szczegółowe i nowe powody, które pojawiły się po podjęciu decyzji o uznaniu. Dostawcy mogą zwrócić się z wnioskiem o ponowną ocenę najwcześniej sześć miesięcy po podjęciu decyzji o uznaniu. W przypadku gdy w wyniku ponownej oceny Komisja zdecyduje się utrzymać uznanie modelu za model AI ogólnego przeznaczenia z ryzykiem systemowym, dostawcy mogą zwrócić się z wnioskiem o ponowną ocenę najwcześniej sześć miesięcy po podjęciu tej decyzji.
5. Pēc nodrošinātāja, kura modelis, ievērojot 4. punktu, ir atzīts par vispārīga lietojuma MI modeli ar sistēmisku risku, pamatota pieprasījuma Komisija pieprasījumu ņem vērā un var lemt atkārtoti vērtēt, vai, pamatojoties uz XIII pielikumā noteiktajiem kritērijiem, joprojām var uzskatīt, ka vispārīga lietojuma MI modelis rada sistēmiskus riskus. Šādā pieprasījumā ietver objektīvus, detalizētus un jaunus iemeslus, kas radušies pēc lēmuma par atzīšanu. Nodrošinātāji var pieprasīt atkārtotu novērtēšanu agrākais sešus mēnešus pēc lēmuma par atzīšanu. Ja Komisija pēc atkārtotās novērtēšanas nolemj saglabāt atzīšanu par vispārīga lietojuma MI modeli ar sistēmisku risku, nodrošinātāji var pieprasīt atkārtotu novērtēšanu agrākais sešus mēnešus pēc minētā lēmuma.
6. Komisja zapewnia publikację i aktualizację wykazu modeli AI ogólnego przeznaczenia z ryzykiem systemowym, bez uszczerbku dla konieczności przestrzegania i ochrony praw własności intelektualnej oraz poufnych informacji handlowych lub tajemnic przedsiębiorstwa zgodnie z prawem Unii i prawem krajowym.
6. Komisija nodrošina, ka tiek publicēts vispārīga lietojuma MI modeļu ar sistēmisku risku saraksts, un pastāvīgi atjaunina minēto sarakstu, neskarot nepieciešamību ievērot un aizsargāt intelektuālā īpašuma tiesības un konfidenciālu uzņēmējdarbības informāciju vai komercnoslēpumus saskaņā ar Savienības un valsts tiesību aktiem.
Obowiązki dostawców modeli AI ogólnego przeznaczenia
Vispārīga lietojuma MI modeļu nodrošinātāju pienākumi
1. Dostawcy modeli AI ogólnego przeznaczenia:
1. Vispārīga lietojuma MI modeļu nodrošinātāji:
a)
sporządzają i aktualizują dokumentację techniczną modelu, w tym proces jego trenowania i testowania oraz wyniki jego oceny, zawierającą co najmniej informacje określone w załączniku XI do celów przekazania ich, na wniosek, Urzędowi ds. AI i właściwym organom krajowym;
a)
sastāda un pastāvīgi atjaunina modeļa tehnisko dokumentāciju, iekļaujot tā apmācības un testēšanas procesu un tā izvērtēšanas rezultātus, kas ietver vismaz XI pielikumā paredzēto informāciju, lai to pēc pieprasījuma iesniegtu MI birojam un valsts kompetentajām iestādēm;
b)
sporządzają, aktualizują i udostępniają informacje i dokumentację dostawcom systemów AI, którzy zamierzają zintegrować model AI ogólnego przeznaczenia ze swoimi systemami AI. Bez uszczerbku dla potrzeby przestrzegania i ochrony praw własności intelektualnej i poufnych informacji handlowych lub tajemnic przedsiębiorstwa zgodnie prawem Unii i prawem krajowym te informacje i dokumentacja:
b)
sastāda, pastāvīgi atjaunina un dara pieejamu informāciju un dokumentāciju MI sistēmu nodrošinātājiem, kuri ir iecerējuši integrēt konkrēto vispārīga lietojuma MI modeli savās MI sistēmās. Neskarot nepieciešamību ievērot un aizsargāt intelektuālā īpašuma tiesības un konfidenciālu uzņēmējdarbības informāciju vai komercnoslēpumus saskaņā ar Savienības un valsts tiesību aktiem, informācija un dokumentācija
(i)
umożliwiają dostawcom systemów AI dobre zrozumienie możliwości i ograniczeń danego modelu AI ogólnego przeznaczenia oraz spełnienie ich obowiązków zgodnie z niniejszym rozporządzeniem; oraz
i)
dod MI sistēmu nodrošinātājiem iespēju labi izprast konkrētā vispārīga lietojuma MI modeļa spējas un ierobežojumus un izpildīt savus pienākumus, ievērojot šo regulu; un
(ii)
zawierają co najmniej elementy określone w załączniku XII;
ii)
ietver vismaz XII pielikumā izklāstītos elementus;
c)
wprowadzają politykę służącą zapewnieniu zgodności z prawem Unii dotyczącym prawa autorskiego i praw pokrewnych, w szczególności z myślą o identyfikacji i zastosowaniu się, w tym poprzez najnowocześniejsze technologie, do zastrzeżenia praw wyrażonego zgodnie z art. 4 ust. 3 dyrektywy (UE) 2019/790;
c)
ievieš politiku, lai panāktu atbilstību Savienības tiesību aktiem autortiesību un blakustiesību jomā un jo īpaši lai identificētu un pildītu, tostarp ar modernām tehnoloģijām, tiesību rezervāciju, kas pausta, ievērojot Direktīvas (ES) 2019/790 4. panta 3. punktu;
d)
sporządzają i podają do wiadomości publicznej wystarczająco szczegółowe streszczenie na temat treści wykorzystanych do trenowania danego modelu AI ogólnego przeznaczenia, zgodnie ze wzorem dostarczonym przez Urząd ds. AI.
d)
saskaņā ar MI biroja nodrošināto veidni sagatavo un publisko pietiekami detalizētu kopsavilkumu par vispārīga lietojuma MI modeļa apmācībā izmantoto saturu.
2. Obowiązków określonych w ust. 1 lit. a) i b) nie stosuje się do dostawców modeli AI, które są udostępniane na podstawie bezpłatnej licencji otwartego oprogramowania umożliwiającej dostęp, wykorzystanie, zmianę i dystrybucję modelu i których parametry, w tym wagi, informacje o architekturze modelu oraz informacje o wykorzystaniu modelu są podawane do wiadomości publicznej. Wyjątku tego nie stosuje się do modeli AI ogólnego przeznaczenia z ryzykiem systemowym.
2. Šā panta 1. punkta a) un b) apakšpunktā paredzētos pienākumus nepiemēro to MI modeļu nodrošinātājiem, kuri ir laisti apgrozībā ar bezmaksas un atvērtas piekļuves licenci, kura ļauj modelim piekļūt, to lietot, modificēt un izplatīt, un kuru parametri, tostarp svari, informācija par modeļa arhitektūru un informācija par modeļa lietošanu, ir darīti publiski pieejami. Šo izņēmumu nepiemēro vispārīga lietojuma MI modeļiem ar sistēmiskiem riskiem.
3. Dostawcy modeli AI ogólnego przeznaczenia współpracują w razie konieczności z Komisją i właściwymi organami krajowymi przy wykonywaniu ich kompetencji i uprawnień zgodnie z niniejszym rozporządzeniem.
3. Vispārīga lietojuma MI modeļu nodrošinātāji savas kompetences un pilnvaru īstenošanā, ievērojot šo regulu, vajadzības gadījumā sadarbojas ar Komisiju un valsts kompetentajām iestādēm.
4. Do czasu opublikowania normy zharmonizowanej dostawcy modeli AI ogólnego przeznaczenia mogą opierać się na kodeksach praktyk w rozumieniu art. 56 w celu wykazania spełnienia obowiązków ustanowionych w ust. 1 niniejszego artykułu. Zgodność z europejskimi normami zharmonizowanymi stwarza dla dostawcy domniemanie spełnienia tych obowiązków w zakresie, w jakim normy te obejmują te obowiązki. Dostawcy modeli AI ogólnego przeznaczenia, którzy nie zobowiązują się do przestrzegania zatwierdzonego kodeksu praktyk lub nie zapewniają zgodności z europejską normą zharmonizowaną, przedstawiają Komisji do oceny adekwatne alternatywne środki służące zapewnieniu zgodności.
4. Vispārīga lietojuma MI modeļu nodrošinātāji var paļauties uz prakses kodeksiem 56. panta nozīmē, lai apliecinātu šā panta 1. punktā noteikto pienākumu ievērošanu, līdz laikam, kamēr tiek publicēts saskaņots standarts. Atbilstība Eiropas saskaņotajiem standartiem sniedz nodrošinātājiem atbilstības prezumpciju, ciktāl minētie standarti attiecas uz minētajiem pienākumiem. Vispārīga lietojuma MI modeļu nodrošinātāji, kas neievēro apstiprinātu prakses kodeksu vai neatbilst Eiropas saskaņotajam standartam, apliecina alternatīvus pienācīgus atbilstības nodrošināšanas līdzekļus, lai saņemtu Komisijas apstiprinājumu.
5. Do celu ułatwienia zgodności z załącznikiem XI, w szczególności jego pkt 2 lit. d) i e), Komisja jest uprawniona do przyjmowania zgodnie z art. 97 aktów delegowanych dotyczących szczegółowego określenia metod pomiaru i obliczeń umożliwiających porównywalną i weryfikowalną dokumentację.
5. Lai veicinātu atbilstību XI pielikumam, jo īpaši tā 2. punkta d) un e) apakšpunktam, Komisija tiek pilnvarota pieņemt deleģētos aktus saskaņā ar 97. pantu, lai sīki izklāstītu mērījumu un aprēķinu metodiku nolūkā panākt salīdzināmu un pārbaudāmu dokumentāciju.
6. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 97 ust. 2 w celu zmiany załączników XI i XII w świetle postępu technicznego.
6. Komisija tiek pilnvarota pieņemt deleģētos aktus saskaņā ar 97. panta 2. punktu, lai grozītu XI un XII pielikumu, ņemot vērā tehnoloģijas attīstību.
7. Wszelkie informacje lub dokumentację uzyskane zgodnie z niniejszym artykułem, w tym tajemnice przedsiębiorstwa, traktuje się zgodnie z obowiązkami dotyczącymi poufności określonymi w art. 78.
7. Ar informāciju vai dokumentāciju, kas iegūta, ievērojot šā panta noteikumus, tostarp komercnoslēpumiem, rīkojas saskaņā ar 78. pantā noteiktajiem konfidencialitātes pienākumiem.