Uradni list
Evropske unije
SL
Dziennik Urzędowy
Unii Europejskiej
PL
UREDBA (EU) 2024/1689 EVROPSKEGA PARLAMENTA IN SVETA
ROZPORZĄDZENIE PARLAMENTU EUROPEJSKIEGO I RADY (UE) 2024/1689
z dnia 13 czerwca 2024 r.
o določitvi harmoniziranih pravil o umetni inteligenci in spremembi uredb (ES) št. 300/2008, (EU) št. 167/2013, (EU) št. 168/2013, (EU) 2018/858, (EU) 2018/1139 in (EU) 2019/2144 ter direktiv 2014/90/EU, (EU) 2016/797 in (EU) 2020/1828 (Akt o umetni inteligenci)
w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji)
(Tekst mający znaczenie dla EOG)
EVROPSKI PARLAMENT IN SVET EVROPSKE UNIJE STA –
PARLAMENT EUROPEJSKI I RADA UNII EUROPEJSKIEJ,
ob upoštevanju Pogodbe o delovanju Evropske unije ter zlasti členov 16 in 114 Pogodbe,
uwzględniając Traktat o funkcjonowaniu Unii Europejskiej, w szczególności jego art. 16 i 114,
ob upoštevanju predloga Evropske komisije,
uwzględniając wniosek Komisji Europejskiej,
po posredovanju osnutka zakonodajnega akta nacionalnim parlamentom,
po przekazaniu projektu aktu ustawodawczego parlamentom narodowym,
ob upoštevanju mnenja Evropskega ekonomsko-socialnega odbora (1),
uwzględniając opinię Europejskiego Komitetu Ekonomiczno-Społecznego (1),
ob upoštevanju mnenja Evropske centralne banke (2),
uwzględniając opinię Europejskiego Banku Centralnego (2),
ob upoštevanju mnenja Odbora regij (3),
uwzględniając opinię Komitetu Regionów (3),
v skladu z rednim zakonodajnim postopkom (4),
stanowiąc zgodnie ze zwykłą procedurą ustawodawczą (4),
ob upoštevanju naslednjega:
a także mając na uwadze, co następuje:
(1)
Namen te uredbe je izboljšati delovanje notranjega trga z določitvijo enotnega pravnega okvira, predvsem za razvoj, dajanje na trg, dajanje v uporabo ter za uporabo umetnointeligenčnih sistemov (v nadaljnjem besedilu: sistemi UI) v Uniji, v skladu z vrednotami Unije, da bi spodbujali uvajanje na človeka osredotočene in zaupanja vredne umetne inteligence (UI) in hkrati zagotovili visoko raven varovanja zdravja, varnosti in temeljnih pravic, kot so določene v Listini Evropske unije o temeljnih pravicah (v nadaljnjem besedilu: Listina), vključno z demokracijo, pravno državo in varstvom okolja, za zaščito pred škodljivimi učinki sistemov UI v Uniji ter da bi podpirali inovacije. S to uredbo se zagotavlja prosti čezmejni pretok blaga in storitev, ki temeljijo na umetni inteligenci, s čimer se državam članicam preprečuje, da bi uvedle omejitve za razvoj, trženje in uporabo sistemov UI, razen če je to izrecno dovoljeno s to uredbo.
(1)
Celem niniejszego rozporządzenia jest poprawa funkcjonowania rynku wewnętrznego przez ustanowienie jednolitych ram prawnych, w szczególności w zakresie rozwoju, wprowadzania do obrotu, oddawania do użytku i wykorzystywania systemów sztucznej inteligencji (zwanych dalej „systemami AI”) w Unii, zgodnie z wartościami Unii, w celu promowania upowszechniania zorientowanej na człowieka i godnej zaufania sztucznej inteligencji (AI) przy jednoczesnym zapewnieniu wysokiego poziomu ochrony zdrowia, bezpieczeństwa, praw podstawowych zapisanych w Karcie praw podstawowych Unii Europejskiej (zwanej „Kartą”), w tym demokracji, praworządności i ochrony środowiska, ochrony przed szkodliwymi skutkami systemów AI w Unii, a także wspierania innowacji. Niniejsze rozporządzenie zapewnia swobodny transgraniczny przepływ towarów i usług opartych na AI, uniemożliwiając tym samym państwom członkowskim nakładanie ograniczeń na rozwój, wprowadzanie do obrotu i wykorzystywanie systemów AI, chyba że jest to wyraźnie dozwolone w niniejszym rozporządzeniu.
(2)
To uredbo bi bilo treba uporabljati v skladu z vrednotami Unije, zapisanimi v Listini, kar bi olajšalo varstvo fizičnih oseb, podjetij, demokracije, pravne države in varstva okolja, hkrati pa spodbujalo inovacije in zaposlovanje ter Uniji zagotovilo vodilno vlogo pri uvajanju zaupanja vredne UI.
(2)
Niniejsze rozporządzenie należy stosować zgodnie z wartościami Unii zapisanymi w Karcie, ułatwiając ochronę osób fizycznych, przedsiębiorstw, demokracji, praworządności oraz ochronę środowiska, a jednocześnie pobudzając innowacje i zatrudnienie oraz czyniąc Unię liderem w upowszechnianiu godnej zaufania AI.
(3)
Sisteme UI je mogoče zlahka uporabljati v številnih različnih gospodarskih in družbenih sektorjih, tudi čezmejno, in lahko enostavno krožijo po vsej Uniji. Nekatere države članice so že preučile možnost sprejetja nacionalnih predpisov, s katerimi bi zagotovile, da je UI zaupanja vredna in varna ter da se razvija in uporablja v skladu z obveznostmi glede temeljnih pravic. Različna nacionalna pravila lahko povzročijo razdrobljenost notranjega trga in zmanjšajo pravno varnost za operaterje, ki razvijajo, uvažajo ali uporabljajo sisteme UI. Zato bi bilo treba zagotoviti dosledno in visoko raven varstva po vsej Uniji, da bi dosegli zaupanja vredno UI in hkrati preprečili razlike, ki ovirajo prosti pretok, inovacije, uvajanje in uporabo sistemov UI ter z njimi povezanih proizvodov in storitev na notranjem trgu, in sicer z določitvijo enotnih obveznosti za operaterje ter zagotovitvijo enotnega varstva prevladujočih razlogov javnega interesa in pravic oseb na notranjem trgu na podlagi člena 114 Pogodbe o delovanju Evropske unije (PDEU). Kolikor ta uredba vključuje posebna pravila o varstvu posameznikov pri obdelavi osebnih podatkov v zvezi z omejitvami uporabe sistemov UI za biometrično identifikacijo na daljavo za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, uporabe sistemov UI za ocene tveganja fizičnih oseb za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ter uporabe sistemov UI za biometrično kategorizacijo za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, je primerno, da ta uredba, kar zadeva ta posebna pravila, temelji na členu 16 PDEU. Glede na ta posebna pravila in sklicevanje na člen 16 PDEU se je primerno posvetovati z Evropskim odborom za varstvo podatkov.
(3)
Systemy AI mogą być łatwo wdrażane w wielu różnych sektorach gospodarki i obszarach życia społecznego, w tym w wymiarze transgranicznym, i mogą w łatwy sposób być przedmiotem obrotu w całej Unii. Niektóre państwa członkowskie zastanawiają się już nad przyjęciem przepisów krajowych w celu zapewnienia, aby AI była godna zaufania i bezpieczna oraz rozwijana i wykorzystywana w sposób zgodny z obowiązkami wynikającymi z praw podstawowych. Zróżnicowane przepisy krajowe mogą prowadzić do rozdrobnienia rynku wewnętrznego i mogą zmniejszyć pewność prawa dla operatorów, którzy rozwijają, importują lub wykorzystują systemy AI. Aby zatem AI stałą się godna zaufania, należy zapewnić spójny i wysoki poziom ochrony w całej Unii poprzez ustanowienie jednolitych obowiązków dla operatorów i zagwarantowanie jednolitej ochrony nadrzędnego interesu publicznego i praw osób na całym rynku wewnętrznym na podstawie art. 114 Traktatu o funkcjonowaniu Unii Europejskiej (TFUE), zapobiegając jednocześnie rozbieżnościom, które utrudniają swobodny obrót systemami AI oraz powiązanymi produktami i usługami na rynku wewnętrznym, a także utrudniają innowacje w ich zakresie oraz ich wdrażanie i rozpowszechnianie. W zakresie, w jakim niniejsze rozporządzenie zawiera przepisy szczególne dotyczące ochrony osób fizycznych w związku z przetwarzaniem danych osobowych w odniesieniu do ograniczenia wykorzystywania systemów AI do zdalnej identyfikacji biometrycznej do celów ścigania przestępstw, ograniczenia wykorzystywania systemów AI do oceny ryzyka w odniesieniu do osób fizycznych do celów ścigania przestępstw i ograniczenia wykorzystywania systemów AI kategoryzacji biometrycznej do celów ścigania przestępstw, podstawą niniejszego rozporządzenia w zakresie takich przepisów szczególnych powinien być art. 16 TFUE. W świetle tych przepisów szczególnych i skorzystania z art. 16 TFUE należy skonsultować się z Europejską Radą Ochrony Danych.
(4)
UI je hitro razvijajoča se skupina tehnologij, ki prispeva k številnim gospodarskim, okoljskim in družbenim koristim v celotnem spektru panog in družbenih dejavnosti. Uporaba UI lahko z izboljšanjem napovedi, optimizacijo delovanja in dodeljevanja virov ter po meri prilagojenimi digitalnimi rešitvami, ki so na voljo posameznikom in organizacijam, zagotavlja ključne konkurenčne prednosti za podjetja ter podpira družbeno in okoljsko koristne rezultate, na primer na področju zdravstvenega varstva, kmetijstva, varnosti hrane, izobraževanja in usposabljanja, medijev, športa, kulture, upravljanja infrastrukture, energije, prometa in logistike, javnih storitev, varnosti, pravosodja, učinkovite rabe virov in energije, okoljskega spremljanja, ohranjanja in obnovitve biotske raznovrstnosti in ekosistemov ter blažitve podnebnih sprememb in prilagajanja nanje.
(4)
AI to szybko rozwijająca się grupa technologii, która przyczynia się do wielu różnych korzyści ekonomicznych, środowiskowych i społecznych we wszystkich gałęziach przemysłu i obszarach działalności społecznej. Ponieważ wykorzystywanie AI umożliwia lepsze prognozowanie, optymalizację operacji i przydzielania zasobów oraz personalizację rozwiązań cyfrowych dostępnych dla osób fizycznych i organizacji, może ono zapewnić przedsiębiorstwom kluczową przewagę konkurencyjną i wzmacniać korzyści społeczne i środowiskowe, na przykład w zakresie opieki zdrowotnej, rolnictwa, bezpieczeństwa żywności, kształcenia i szkolenia, mediów, sportu, kultury, zarządzania infrastrukturą, energetyki, transportu i logistyki, usług publicznych, bezpieczeństwa, wymiaru sprawiedliwości, zasobooszczędności i efektywności energetycznej, monitorowania środowiska, ochrony i odtwarzania różnorodności biologicznej i ekosystemów oraz łagodzenia zmiany klimatu i przystosowywania się do niej.
(5)
Hkrati lahko UI – odvisno od okoliščin v zvezi z njenim posebnim namenom, uporabo in ravnjo tehnološkega razvoja – povzroča tveganja ter škodi javnim interesom in temeljnim pravicam, ki jih varuje pravo Unije. Ta škoda je lahko premoženjska ali nepremoženjska, vključno s fizično, psihično, družbeno ali ekonomsko škodo.
(5)
Jednocześnie AI może stwarzać zagrożenia i wyrządzać szkody dla interesu publicznego i praw podstawowych chronionych przepisami prawa Unii, w zależności od okoliczności jej konkretnego zastosowania, wykorzystania oraz od poziomu rozwoju technologicznego. Szkody te mogą być materialne lub niematerialne, w tym fizyczne, psychiczne, społeczne lub ekonomiczne.
(6)
Glede na velik vpliv, ki ga lahko ima UI na družbo, in potrebo po vzpostavitvi zaupanja je bistveno, da se UI in njen regulativni okvir razvijata v skladu z vrednotami Unije iz člena 2 Pogodbe o Evropski uniji (PEU), temeljnimi pravicami in svoboščinami, ki so zapisane v Pogodbah, in, na podlagi člena 6 PEU, v Listini. Osnovni pogoj za UI bi moral biti, da je to tehnologija, osredotočena na človeka. Morala bi biti orodje za ljudi, končni cilj pa bi moral biti povečanje njihove blaginje.
(6)
Biorąc pod uwagę istotny wpływ, jaki AI może mieć na społeczeństwo, oraz potrzebę budowania zaufania, AI i jej ramy regulacyjne należy rozwijać zgodnie z wartościami Unii zapisanymi w art. 2 Traktatu o Unii Europejskiej (TUE), podstawowymi prawami i wolnościami zapisanymi w traktatach oraz, zgodnie z art. 6 TUE – w Karcie. Warunkiem wstępnym jest to, by AI była technologią zorientowaną na człowieka. Powinna ona służyć jako narzędzie dla ludzi, którego ostatecznym celem jest zwiększenie dobrostanu człowieka.
(7)
Da bi zagotovili dosledno in visoko raven zaščite javnih interesov v zvezi z zdravjem, varnostjo in temeljnimi pravicami, bi bilo treba določiti skupna pravila za visokotvegane sisteme UI. Ta pravila bi morala biti skladna z Listino, nediskriminatorna in v skladu z mednarodnimi trgovinskimi zavezami Unije. Treba bi bilo upoštevati tudi Evropsko deklaracijo o digitalnih pravicah in načelih za digitalno desetletje ter Etične smernice za zaupanja vredno umetno inteligenco strokovne skupine na visoki ravni za umetno inteligenco (AI HLEG).
(7)
W celu zapewnienia spójnego i wysokiego poziomu ochrony interesów publicznych w dziedzinie zdrowia, bezpieczeństwa i praw podstawowych należy ustanowić wspólne przepisy dotyczące systemów AI wysokiego ryzyka. Przepisy te powinny być zgodne z Kartą, niedyskryminacyjne i zgodne z międzynarodowymi zobowiązaniami handlowymi Unii. Przepisy te powinny również uwzględniać Europejską deklarację praw i zasad cyfrowych w cyfrowej dekadzie oraz Wytyczne w zakresie etyki dotyczące godnej zaufania AI grupy ekspertów wysokiego szczebla ds. AI.
(8)
Da bi spodbujali razvoj, uporabo in uvajanje UI na notranjem trgu, je torej potreben pravni okvir Unije, v katerem bodo določena harmonizirana pravila o umetni inteligenci in bo hkrati zagotovljena visoka raven zaščite javnih interesov, kot so zdravje in varnost ter varstvo temeljnih pravic, vključno z demokracijo, pravno državo in varstvom okolja, kot je priznano in zaščiteno s pravom Unije. Za dosego tega cilja bi bilo treba določiti pravila, s katerimi bo urejeno dajanje nekaterih sistemov UI na trg in v uporabo ter njihova uporaba, s čimer bo zagotovljeno nemoteno delovanje notranjega trga in bo omogočeno, da se v okviru teh sistemov izkoristi načelo prostega pretoka blaga in storitev. Ta pravila bi morala biti jasna in robustna glede varstva temeljnih pravic, morala bi podpirati nove inovativne rešitve in omogočati delovanje evropskega ekosistema javnih in zasebnih akterjev, ki ustvarjajo sisteme UI v skladu z vrednotami Unije, ter uresničevati potencial digitalne preobrazbe v vseh regijah Unije. Z določitvijo teh pravil in ukrepov v podporo inovacijam s posebnim poudarkom na malih in srednjih podjetjih (MSP), vključno s zagonskimi podjetji, ta uredba podpira cilj spodbujanja evropskega na človeka osredotočenega pristopa k umetni inteligenci in vodilnega položaja v svetu pri razvoju varne, zaupanja vredne in etične UI, kot je navedeno v sklepih Evropskega sveta (5), in zagotavlja zaščito etičnih načel v skladu z izrecno zahtevo Evropskega parlamenta (6).
(8)
Unijne ramy prawne określające zharmonizowane przepisy dotyczące AI są zatem niezbędne, by wspierać rozwój, wykorzystywanie i upowszechnianie AI na rynku wewnętrznym, przy jednoczesnym zapewnieniu wysokiego poziomu ochrony interesów publicznych, takich jak zdrowie i bezpieczeństwo oraz ochrona praw podstawowych, w tym demokracji, praworządności i ochrony środowiska, uznanych i chronionych przez prawo Unii. Aby osiągnąć ten cel, należy ustanowić przepisy regulujące wprowadzanie do obrotu, oddawanie do użytku i wykorzystywanie niektórych systemów AI, zapewniając w ten sposób sprawne funkcjonowanie rynku wewnętrznego i obejmując te systemy zasadą swobodnego przepływu towarów i usług. Przepisy te powinny być jasne i solidne, aby chronić prawa podstawowe, sprzyjać nowym innowacyjnym rozwiązaniom, umożliwiać tworzenie europejskiego ekosystemu podmiotów publicznych i prywatnych tworzących systemy AI zgodnie z wartościami Unii oraz pozwalać realizować potencjał transformacji cyfrowej we wszystkich regionach Unii. Ustanawiając te przepisy, a także środki wspierające innowacje, ze szczególnym uwzględnieniem małych i średnich przedsiębiorstw (MŚP), w tym przedsiębiorstw typu start-up, niniejsze rozporządzenie wspiera realizację celu, jakim jest promowanie europejskiego zorientowanego na człowieka podejścia do AI i znalezienie się przez Unię w światowej czołówce, jeśli chodzi o rozwój bezpiecznej, godnej zaufania i etycznej AI, zgodnie z konkluzjami Rady Europejskiej (5), oraz zapewnia ochronę zasad etycznych, zgodnie z wyraźnym wnioskiem Parlamentu Europejskiego (6).
(9)
Harmonizirana pravila, ki se uporabljajo za dajanje visokotveganih sistemov UI na trg ali v uporabo ter za njihovo uporabo, bi bilo treba določiti skladno z Uredbo (ES) št. 765/2008 Evropskega parlamenta in Sveta (7), Sklepom št. 768/2008/ES Evropskega parlamenta in Sveta (8) ter Uredbo (EU) 2019/1020 Evropskega parlamenta in Sveta (9) (v nadaljnjem besedilu: novi zakonodajni okvir). Harmonizirana pravila, določena v tej uredbi, bi bilo treba uporabljati v vseh sektorjih, hkrati pa v skladu z novim zakonodajnim okvirom ne bi smela posegati v veljavno pravo Unije, zlasti pravo o varstvu podatkov, varstvu potrošnikov, temeljnih pravicah, zaposlovanju in varstvu delavcev ter varnosti proizvodov, ki ga ta uredba dopolnjuje. Posledično ostanejo nespremenjeni in se v celoti uporabljajo vse pravice in pravna sredstva, ki jih takšno pravo Unije zagotavlja potrošnikom in drugim osebam, na katere bi lahko sistemi UI negativno vplivali, tudi v zvezi z nadomestilom morebitne škode na podlagi Direktive Sveta 85/374/EGS (10). Poleg tega ta uredba v okviru zaposlovanja in zaščite delavcev ne bi smela vplivati na pravo Unije o socialni politiki in nacionalno delovno pravo, ki je skladno s pravom Unije, v zvezi z zaposlovanjem in delovnimi pogoji, vključno z zdravjem in varnostjo pri delu ter razmerjem med delodajalci in delavci. Tudi ne bi smela vplivati na uveljavljanje temeljnih pravic, ki so priznane v državah članicah in na ravni Unije, vključno s pravico do stavke ali drugih ukrepov, zajetih v specifičnih sistemih odnosov med delodajalci in delojemalci v posameznih državah članicah, ter na pravico do pogajanj, sklepanja in izvrševanja kolektivnih pogodb ali do kolektivnih ukrepov v skladu z nacionalnim pravom. Ta uredba ne bi smela vplivati na določbe za izboljšanje delovnih pogojev pri platformnem delu iz direktive Evropskega parlamenta in Sveta o izboljšanju delovnih pogojev pri platformnem delu. Namen te uredbe je tudi okrepiti učinkovitost takih obstoječih pravic in pravnih sredstev z določitvijo posebnih zahtev in obveznosti, tudi glede preglednosti, tehnične dokumentacije in vodenja evidenc sistemov UI. Poleg tega bi bilo treba obveznosti, naložene različnim operaterjem, vključenim v verigo vrednosti UI na podlagi te uredbe, uporabljati brez poseganja v nacionalno pravo, ki je skladno s pravom Unije in katerega učinek je omejitev uporabe nekaterih sistemov UI, kadar tako pravo ne spada na področje uporabe te uredbe ali je namenjeno uresničevanju legitimnih ciljev v javnem interesu, ki niso cilji iz te uredbe. Ta uredba na primer ne bi smela vplivati na nacionalno delovno pravo in pravo o varstvu mladoletnikov, tj. oseb, mlajših od 18 let, ob upoštevanju Splošne pripombe št. 25 KZNOP (2021) o otrokovih pravicah v zvezi z digitalnim okoljem, če se to pravo ne nanaša posebej na sisteme UI in je namenjeno uresničevanju drugih legitimnih ciljev v javnem interesu.
(9)
Zharmonizowane przepisy mające zastosowanie do wprowadzania do obrotu, oddawania do użytku i wykorzystywania systemów AI wysokiego ryzyka należy ustanowić zgodnie z rozporządzeniem Parlamentu Europejskiego i Rady (WE) nr 765/2008 (7), decyzją Parlamentu Europejskiego i Rady nr 768/2008/WE (8) oraz rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2019/1020 (9) (zwanymi dalej „nowymi ramami prawnymi”). Zharmonizowane przepisy ustanowione w niniejszym rozporządzeniu powinny mieć zastosowanie we wszystkich sektorach i – zgodnie z nowymi ramami prawnymi – powinny pozostawać bez uszczerbku dla obowiązującego prawa Unii, w szczególności w zakresie ochrony danych, ochrony konsumentów, praw podstawowych, zatrudnienia i ochrony pracowników oraz bezpieczeństwa produktów, wobec którego to prawa niniejsze rozporządzenie ma charakter uzupełniający. W związku z tym wszystkie prawa i środki ochrony prawnej przysługujące na mocy prawa Unii konsumentom i innym osobom, na które systemy AI mogą mieć negatywny wpływ, w tym w odniesieniu do odszkodowania za ewentualne szkody zgodnie z dyrektywą Rady 85/374/EWG (10), pozostają nienaruszone i mają pełne zastosowanie. Ponadto w kontekście zatrudnienia i ochrony pracowników niniejsze rozporządzenie nie powinno zatem mieć wpływu na prawo Unii w dziedzinie polityki społecznej oraz na krajowe prawo pracy zgodne z prawem Unii dotyczące warunków zatrudnienia i pracy, w tym bezpieczeństwa i higieny pracy, oraz stosunków między pracodawcami a pracownikami. Niniejsze rozporządzenie nie powinno mieć też wpływu na korzystanie z praw podstawowych uznanych w państwach członkowskich i na poziomie Unii, w tym z prawa do strajku czy swobody prowadzenia strajku lub innych działań objętych szczególnymi systemami stosunków pracy w państwach członkowskich, ani na korzystanie z prawa do negocjowania, zawierania i egzekwowania układów zbiorowych lub podejmowania działań zbiorowych zgodnie z prawem krajowym. Niniejsze rozporządzenie nie powinno mieć wpływu na przepisy mające na celu poprawę warunków pracy świadczonej za pośrednictwem platform internetowych ustanowione w dyrektywie Parlamentu Europejskiego i Rady w sprawie poprawy warunków pracy za pośrednictwem platform internetowych. Ponadto niniejsze rozporządzenie ma na celu zwiększenie skuteczności takich istniejących praw i środków ochrony prawnej poprzez ustanowienie szczególnych wymogów i obowiązków, w tym w zakresie przejrzystości, dokumentacji technicznej i rejestrowania zdarzeń w ramach systemów AI. Co więcej obowiązki nałożone na mocy niniejszego rozporządzenia na różnych operatorów uczestniczących w łańcuchu wartości AI powinny mieć zastosowanie bez uszczerbku dla prawa krajowego zgodnego z prawem Unii, skutkującego ograniczeniem wykorzystania określonych systemów AI, gdy prawo to nie wchodzi w zakres stosowania niniejszego rozporządzenia lub służy uzasadnionym celom interesu publicznego innym niż cele niniejszego rozporządzenia. Na przykład niniejsze rozporządzenie nie powinno mieć wpływu na krajowe prawo pracy i przepisy dotyczące ochrony małoletnich, tj. osób poniżej 18. roku życia, uwzględniające komentarz ogólny nr 25 z 2021 r. w sprawie praw dziecka w środowisku cyfrowym zamieszczony w Konwencji ONZ o prawach dziecka, w zakresie w jakim prawo to i te przepisy nie dotyczą konkretnie systemów AI i służą innym uzasadnionym celom interesu publicznego.
(10)
Temeljna pravica do varstva osebnih podatkov je zajamčena zlasti z uredbama (EU) 2016/679 (11) in (EU) 2018/1725 (12) Evropskega parlamenta in Sveta ter Direktivo (EU) 2016/680 Evropskega parlamenta in Sveta (13). Direktiva 2002/58/ES Evropskega parlamenta in Sveta (14) poleg tega varuje zasebno življenje in zaupnost komunikacij, vključno z zagotavljanjem pogojev za shranjevanje osebnih in neosebnih podatkov na terminalski opremi in za dostop do teh podatkov z nje. Navedeni pravni akti Unije so podlaga za vzdržno in odgovorno obdelavo podatkov, tudi kadar nabori podatkov vključujejo kombinacijo osebnih in neosebnih podatkov. Namen te uredbe ni vplivati na uporabo veljavnega prava Unije, ki ureja obdelavo osebnih podatkov, med drugim tudi ne na naloge in pooblastila neodvisnih nadzornih organov, pristojnih za spremljanje skladnosti s temi instrumenti. Uredba tudi ne vpliva na obveznosti ponudnikov in uvajalcev sistemov UI v njihovi vlogi upravljavcev ali obdelovalcev podatkov, ki izhaja iz prava Unije ali nacionalnega prava o varstvu osebnih podatkov, če zasnova, razvoj ali uporaba sistemov UI vključuje obdelavo osebnih podatkov. Prav tako je treba pojasniti, da posamezniki, na katere se nanašajo osebni podatki, še naprej uživajo vse pravice in jamstva, ki jim jih podeljuje tovrstno pravo Unije, tudi pravice, povezane izključno z avtomatiziranim sprejemanjem posameznih odločitev, vključno z oblikovanjem profilov. Harmonizirana pravila za dajanje sistemov UI na trg ali v uporabo ter za njihovo uporabo, ki so določena na podlagi te uredbe, bi morala olajšati učinkovito izvajanje in omogočiti uveljavljanje pravic posameznikov, na katere se nanašajo osebni podatki, in drugih pravnih sredstev, zagotovljenih na podlagi prava Unije o varstvu osebnih podatkov in drugih temeljnih pravic.
(10)
Podstawowe prawo do ochrony danych osobowych jest gwarantowane w szczególności przez rozporządzenia Parlamentu Europejskiego i Rady (UE) 2016/679 (11) i (UE) 2018/1725 (12) oraz dyrektywę Parlamentu Europejskiego i Rady (UE) 2016/680 (13). Dyrektywa Parlamentu Europejskiego i Rady 2002/58/WE (14) dodatkowo chroni życie prywatne i poufność komunikacji, w tym określając warunki dotyczące przechowywania danych osobowych i nieosobowych w urządzeniach końcowych oraz warunki uzyskiwania dostępu do tych danych z urządzeń końcowych. Te unijne akty prawne stanowią podstawę zrównoważonego i odpowiedzialnego przetwarzania danych, w tym w przypadku gdy zbiory danych zawierają połączenie danych osobowych i nieosobowych. Celem niniejszego rozporządzenia nie jest wpływanie na stosowanie obowiązującego prawa Unii regulującego przetwarzanie danych osobowych, w tym na zadania i uprawnienia niezależnych organów nadzoru właściwych do monitorowania zgodności z tymi instrumentami. W zakresie, w jakim projektowanie, rozwój lub wykorzystywanie systemów AI wiąże się z przetwarzaniem danych osobowych, niniejsze rozporządzenie nie wpływa też na wynikające z prawa Unii lub prawa krajowego obowiązki w dziedzinie ochrony danych osobowych spoczywające na dostawcach i podmiotach stosujących systemy AI, którzy pełnią funkcję administratorów danych lub podmiotów przetwarzających. Należy również wyjaśnić, że osoby, których dane dotyczą, zachowują wszystkie prawa i gwarancje przyznane im na mocy takiego prawa Unii, w tym prawa związane z całkowicie zautomatyzowanym podejmowaniem decyzji w indywidualnych sprawach, w tym z profilowaniem. Ustanowione w niniejszym rozporządzeniu zharmonizowane przepisy dotyczące wprowadzania do obrotu, oddawania do użytku i wykorzystywania systemów AI powinny ułatwiać skuteczne wdrażanie i umożliwiać korzystanie przez osoby, których dane dotyczą, z praw i innych środków ochrony prawnej zagwarantowanych na podstawie prawa Unii dotyczącego ochrony danych osobowych i innych praw podstawowych.
(11)
Ta uredba ne bi smela posegati v določbe o odgovornosti ponudnikov posredniških storitev iz Uredbe (EU) 2022/2065 Evropskega parlamenta in Sveta (15).
(11)
Niniejsze rozporządzenie powinno pozostawać bez uszczerbku dla przepisów dotyczących odpowiedzialności dostawców usług pośrednich, określonych w rozporządzeniu Parlamentu Europejskiego i Rady (UE) 2022/2065 (15).
(12)
Pojem „sistem UI“ v tej uredbi bi moral biti jasno opredeljen in tesno usklajen z delom mednarodnih organizacij, ki se ukvarjajo z UI, da bi zagotovili pravno varnost, olajšali mednarodno zbliževanje in široko sprejemanje ter hkrati zagotovili prožnost, ki bo omogočala prilagajanje hitremu tehnološkemu razvoju na tem področju. Poleg tega bi morala opredelitev temeljiti na ključnih značilnostih sistemov UI, po katerih se razlikuje od enostavnejših tradicionalnih sistemov programske opreme ali programskih pristopov, in ne bi smela vključevati sistemov, ki temeljijo na pravilih, ki jih za samodejno izvajanje operacij opredelijo izključno fizične osebe. Ključna značilnost sistemov UI je njihova sposobnost sklepanja. Ta sposobnost sklepanja se nanaša na proces pridobivanja izhodnih podatkov, kot so napovedi, vsebina, priporočila ali odločitve, ki lahko vplivajo na fizično in virtualno okolje, ter na sposobnost sistemov UI, da izpeljejo modele ali algoritme ali oboje iz vhodnih vrednosti ali podatkov. Tehnike, ki omogočajo sklepanje pri vzpostavljanju sistema UI, vključujejo pristope strojnega učenja, ki se tega, kako doseči določene cilje, učijo iz podatkov, ter pristope, ki temeljijo na logiki in znanju ter izhajajo iz kodiranega znanja ali simbolične predstavitve naloge, ki jo je treba rešiti. Zmogljivost sistema UI za sklepanje presega osnovno obdelavo podatkov z omogočanjem učenja, prihajanja do zaključkov ali modeliranja. Izraz „temelječ na napravah“ se nanaša na dejstvo, da sisteme UI poganjajo stroji. Sklicevanje na eksplicitne ali implicitne cilje poudarja, da lahko sistemi UI delujejo v skladu z eksplicitnimi ali implicitnimi cilji. Cilji sistema UI se lahko v posebnih okoliščinah razlikujejo od predvidenega namena sistema UI. Za namene te uredbe bi bilo treba okolja razumeti kot kontekste, v katerih delujejo sistemi UI, medtem ko izhodni podatki, ki jih ustvari sistem UI, odražajo različne funkcije, ki jih opravljajo sistemi UI, in vključujejo napovedi, vsebine, priporočila ali odločitve. Sistemi UI so zasnovani tako, da delujejo z različnimi stopnjami avtonomije, kar pomeni, da so do neke mere neodvisni od človeškega sodelovanja in zmožni delovati brez človeškega posredovanja. Prilagodljivost, ki bi jo sistem UI lahko pokazal po uvedbi, se nanaša na sposobnosti samoučenja, ki omogočajo, da se sistem med uporabo spremeni. Sistemi UI se lahko uporabljajo samostojno ali kot komponenta določenega proizvoda, ne glede na to, ali je sistem fizično integriran v proizvod (vgrajen) ali služi funkcionalnosti proizvoda, ne da bi bil vanj integriran (nevgrajen).
(12)
Pojęcie „systemu AI” w niniejszym rozporządzeniu powinno być jasno zdefiniowane i ściśle powiązane z pracami organizacji międzynarodowych zajmujących się AI, aby zapewnić pewność prawa, ułatwiać międzynarodową konwergencję i szeroką akceptację, przy jednoczesnym zapewnieniu swobody umożliwiającej dostosowanie się do szybkiego rozwoju technologicznego w tej dziedzinie. Ponadto pojęcie to powinno opierać się na kluczowych cechach systemów AI, które odróżniają je od prostszych tradycyjnych systemów oprogramowania lub założeń programistycznych, i nie powinno obejmować systemów opartych na zasadach określonych wyłącznie przez osoby fizyczne w celu automatycznego wykonywania operacji. Jedną z kluczowych cech systemów AI jest ich zdolność do wnioskowania. Ta zdolność do wnioskowania odnosi się do procesu uzyskiwania wyników, takich jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne i wirtualne, oraz do zdolności systemów AI do tworzenia modeli lub algorytmów na podstawie informacji wejściowych lub danych. Techniki, które umożliwiają wnioskowanie podczas tworzenia systemu AI, obejmują mechanizmy uczenia maszynowego, które na podstawie danych uczą się, jak osiągnąć określone cele, oraz podejścia oparte na logice i wiedzy, które polegają na wnioskowaniu na podstawie zakodowanej wiedzy lub symbolicznego przedstawienia zadania, które należy rozwiązać. Zdolność systemu AI do wnioskowania wykracza poza podstawowe przetwarzanie danych w wyniku umożliwiania uczenia się, rozumowania lub modelowania. Termin „maszynowy” odnosi się do faktu, że systemy AI działają z wykorzystaniem maszyn. Odniesienie do wyraźnych lub dorozumianych celów podkreśla, że systemy AI mogą działać według jasno określonych lub dorozumianych celów. Cele systemu AI mogą różnić się od przeznaczenia systemu AI w określonym kontekście. Na potrzeby niniejszego rozporządzenia środowiska należy rozumieć jako konteksty, w których działają systemy AI, natomiast wyniki generowane przez system AI odzwierciedlają różne funkcje wykonywane przez systemy AI i obejmują predykcje, treści, zalecenia lub decyzje. Systemy AI są zaprojektowane tak, aby działały z różnym poziomem autonomii, co oznacza, że są w pewnym stopniu niezależne od zaangażowania ze strony człowieka i zdolne do działania bez interwencji człowieka. Zdolność adaptacji, jaką system AI może wykazać po jego wdrożeniu, odnosi się do zdolności do samouczenia się, która umożliwia zmianę systemu w czasie jego wykorzystywania. Systemy AI mogą być wykorzystywane jako samodzielne rozwiązania lub jako element produktu, niezależnie od tego, czy system jest fizycznie zintegrowany z produktem (wbudowany), czy też służy realizacji funkcji produktu, choć nie jest z nim zintegrowany (niewbudowany).
(13)
Pojem „uvajalec“ iz te uredbe bi bilo treba razlagati kot vsako fizično ali pravno osebo, vključno z javnim organom, agencijo ali drugim telesom, ki uporablja sistem UI pod svojo pristojnostjo, razen kadar se sistem UI uporablja v okviru osebne nepoklicne dejavnosti. Glede na vrsto sistema UI lahko uporaba sistema vpliva na osebe, ki niso uvajalec.
(13)
Pojęcie „podmiotu stosującego”, o którym mowa w niniejszym rozporządzeniu, należy interpretować jako osobę fizyczną lub prawną, w tym organ publiczny, agencję lub inny podmiot, która wykorzystuje system AI, nad którym sprawuje kontrolę, oprócz przypadków gdy wykorzystywanie systemu AI odbywa się w ramach osobistej działalności pozazawodowej. W zależności od rodzaju systemu AI korzystanie z takiego systemu może mieć wpływ na osoby inne niż podmiot stosujący.
(14)
Pojem „biometrični podatki“, ki se uporablja v tej uredbi, bi bilo treba razlagati glede na pojem biometričnih podatkov, kot je opredeljen v členu 4, točka 14, Uredbe (EU) 2016/679, členu 3, točka 18, Uredbe (EU) 2018/1725 in členu 3, točka 13, Direktive (EU) 2016/680. Biometrični podatki lahko omogočijo avtentikacijo, identifikacijo ali kategorizacijo fizičnih oseb in prepoznavanje njihovih čustev.
(14)
Pojęcie „danych biometrycznych” stosowane w niniejszym rozporządzeniu należy interpretować w świetle pojęcia danych biometrycznych zdefiniowanego w art. 4 pkt 14 rozporządzenia (UE) 2016/679, art. 3 pkt 18 rozporządzenia (UE) 2018/1725 i art. 3 pkt 13 dyrektywy (UE) 2016/680. Dane biometryczne mogą umożliwiać uwierzytelnianie, identyfikację lub kategoryzację osób fizycznych oraz rozpoznawanie emocji osób fizycznych.
(15)
Pojem „biometrična identifikacija“ iz te uredbe bi bilo treba opredeliti kot avtomatizirano prepoznavanje fizičnih, fizioloških in vedenjskih človeških značilnosti, kot so obraz, gibanje oči, izrazi obraza, oblika telesa, glas, govor, hoja, drža, srčni utrip, krvni tlak, vonj in značilnosti tipkanja, za namene preverjanja identitete posameznika s primerjavo biometričnih podatkov tega posameznika s shranjenimi biometričnimi podatki posameznikov v referenčni podatkovni zbirki ne glede na to, ali je posameznik v to privolil ali ne. To izključuje sisteme UI za biometrično preverjanje, tudi avtentikacijo, katerih edini namen je potrditi, da je določena fizična oseba res ta, za katero se predstavlja, in potrditi identiteto fizične osebe izključno z namenom dostopa do storitve, odklepanja naprave ali varnostnega dostopa do prostorov.
(15)
Pojęcie „identyfikacji biometrycznej”, o którym mowa w niniejszym rozporządzeniu, należy zdefiniować jako zautomatyzowane rozpoznawanie fizycznych, fizjologicznych i behawioralnych cech człowieka, takich jak twarz, ruch gałek ocznych, kształt ciała, głos, właściwości mowy, chód, postawa, tętno, ciśnienie krwi, zapach, sposób pisania na klawiaturze, w celu ustalenia tożsamości osoby fizycznej przez porównanie danych biometrycznych tej osoby z przechowywanymi w referencyjnej bazie danych danymi biometrycznymi osób fizycznych, niezależnie od tego, czy osoba ta wyraziła na to zgodę. Do tej kategorii nie należą systemy AI przeznaczone do weryfikacji biometrycznej, która obejmuje uwierzytelnianie, prowadzonej jedynie w celu potwierdzenia, że dana osoba fizyczna jest osobą, za którą się podaje, oraz potwierdzenia tożsamości osoby fizycznej wyłącznie w celu uzyskania dostępu do usługi, uruchomienia urządzenia lub uzyskania bezpiecznego dostępu do pomieszczeń.
(16)
Pojem „biometrična kategorizacija“ iz te uredbe bi bilo treba opredeliti kot razvrstitev fizičnih oseb v posebne kategorije na podlagi njihovih biometričnih podatkov. Takšne posebne kategorije se lahko nanašajo na vidike, kot so spol, starost, barva las, barva oči, tetovaže, vedenjske ali osebnostne lastnosti, jezik, vera, pripadnost narodnostni manjšini, spolna ali politična usmerjenost. To ne vključuje sistemov za biometrično kategorizacijo, ki so izključno pomožni element, neločljivo povezan z drugo komercialno storitvijo, kar pomeni, da tega elementa iz objektivnih tehničnih razlogov ni mogoče uporabiti brez glavne storitve, njegova vključitev ali funkcionalnost pa ni sredstvo za izogibanje uporabi pravil iz te uredbe. Na primer, filtri za kategorizacijo obraznih ali telesnih značilnosti, ki se uporabljajo na spletnih tržnicah, bi lahko bili takšen pomožni element, saj se lahko uporabljajo le v zvezi z glavno storitvijo, ki je prodaja izdelka na način, da se potrošniku omogoči, da si ogleda prikaz izdelka sam, in se mu pomaga pri sprejemanju odločitve o nakupu. Filtre, ki se uporabljajo na spletnih storitvah družbenih omrežij in s katerimi se kategorizirajo obrazne funkcije ali funkcije telesa, da lahko uporabniki dodajajo ali spreminjajo slike ali videoposnetke, bi prav tako lahko šteli za pomožno funkcijo, saj takega filtra ni mogoče uporabljati brez glavne storitve, tj. storitev družbenih omrežij, ki vključuje izmenjavo vsebin na spletu.
(16)
Pojęcie „kategoryzacji biometrycznej”, o którym mowa w niniejszym rozporządzeniu, należy zdefiniować jako przypisywanie osób fizycznych do określonych kategorii na podstawie danych biometrycznych tych osób. Takie szczególne kategorie mogą odnosić się do takich aspektów jak płeć, wiek, kolor włosów, kolor oczu, tatuaże, cechy behawioralne bądź osobowości, język, religia, przynależność do mniejszości narodowej, orientacja seksualna lub poglądy polityczne. Nie obejmuje to systemów kategoryzacji biometrycznej, które pełnią jedynie funkcję pomocniczą nieodłącznie związaną z inną usługą komercyjną, co oznacza, że z obiektywnych względów technicznych funkcja ta nie może być wykorzystywana bez usługi głównej, a włączenie takiej funkcji lub funkcjonalności nie jest sposobem na obejście stosowania przepisów niniejszego rozporządzenia. Przykładem pełnienia takiej funkcji pomocniczej mogą być filtry klasyfikujące cechy twarzy lub ciała wykorzystywane na internetowych platformach handlowych, ponieważ można je stosować wyłącznie w powiązaniu z usługą główną, która polega na sprzedaży produktu przy jednoczesnym umożliwieniu konsumentowi uzyskania wyobrażenia, jak produkt będzie się na nim prezentował, aby pomóc mu w podjęciu decyzji o zakupie. Filtry stosowane w internetowych serwisach społecznościowych, które kategoryzują cechy twarzy lub ciała, aby umożliwić użytkownikom dodawanie lub modyfikowanie zdjęć lub filmów wideo, można również uznać za funkcję pomocniczą, ponieważ filtry takie nie mogą być stosowane bez usługi głównej polegającej na udostępnianiu treści online w ramach serwisu społecznościowego.
(17)
Pojem „sistem za biometrično identifikacijo na daljavo“ iz te uredbe bi bilo treba opredeliti funkcionalno kot sistem UI, namenjen identifikaciji fizičnih oseb brez njihovega dejavnega sodelovanja, običajno na daljavo, s primerjavo biometričnih podatkov osebe z biometričnimi podatki iz referenčne podatkovne zbirke, ne glede na uporabljeno tehnologijo, procese ali vrste biometričnih podatkov. Takšni sistemi za biometrično identifikacijo na daljavo se običajno uporabljajo za hkratno zaznavanje več oseb ali njihovega vedenja, da se bistveno olajša identifikacija fizičnih oseb brez njihovega dejavnega sodelovanja. To izključuje sisteme UI za biometrično preverjanje, tudi avtentikacijo, katerih edini namen je potrditi, da je določena fizična oseba res ta, za katero se predstavlja, in potrditi identiteto fizične osebe izključno z namenom dostopa do storitve, odklepanja naprave ali varnostnega dostopa do prostorov. Ta izključitev je utemeljena z dejstvom, da bodo imeli taki sistemi verjetno manjši vpliv na temeljne pravice fizičnih oseb v primerjavi s sistemi za biometrično identifikacijo na daljavo, ki se lahko uporabljajo za obdelavo biometričnih podatkov velikega števila oseb brez njihovega dejavnega sodelovanja. Pri sistemih „v realnem času“ se zajemanje biometričnih podatkov, primerjava in identifikacija izvedejo takoj ali skoraj takoj, v vsakem primeru pa brez večje zamude. V zvezi s tem ne bi smelo biti prostora za izogibanje pravilom te uredbe o uporabi zadevnih sistemov UI „v realnem času“, saj je predvidena možnost manjših zamud. Sistemi „v realnem času“ vključujejo uporabo gradiva „v živo“ ali „skoraj v živo“, kot je videoposnetek, ki ga ustvari kamera ali druga naprava s podobno funkcionalnostjo. Pri „naknadnih“ sistemih so bili biometrični podatki že zajeti, primerjava in identifikacija pa se izvedeta šele po daljšem času. To vključuje gradivo, kot so slike ali videoposnetki, ki jih ustvarjajo kamere CCTV ali zasebne naprave, ki je bilo ustvarjeno pred uporabo sistema v zvezi z zadevnimi fizičnimi osebami.
(17)
Pojęcie „systemu zdalnej identyfikacji biometrycznej”, o którym mowa w niniejszym rozporządzeniu, należy zdefiniować funkcjonalnie jako system AI służący do identyfikacji osób fizycznych bez aktywnego udziału tych osób, co do zasady na odległość, poprzez porównanie danych biometrycznych danej osoby z danymi biometrycznymi zawartymi w referencyjnej bazie danych, niezależnie od konkretnej stosowanej technologii oraz konkretnych wykorzystywanych procesów lub rodzajów danych biometrycznych. Takie systemy zdalnej identyfikacji biometrycznej są zwykle wykorzystywane do jednoczesnego obserwowania wielu osób lub ich zachowania w celu znacznego ułatwienia identyfikacji osób fizycznych bez ich aktywnego udziału. Do tej kategorii nie należą systemy AI przeznaczone do weryfikacji biometrycznej, która obejmuje uwierzytelnianie, prowadzonej jedynie w celu potwierdzenia, że dana osoba fizyczna jest osobą, za którą się podaje, oraz potwierdzenia tożsamości osoby fizycznej wyłącznie w celu uzyskania dostępu do usługi, uruchomienia urządzenia lub uzyskania bezpiecznego dostępu do pomieszczeń. Wyłączenie to jest uzasadnione faktem, że takie systemy w niewielkim stopniu mogą wpływać na prawa podstawowe osób fizycznych w porównaniu z systemami zdalnej identyfikacji biometrycznej, które mogą być wykorzystywane do przetwarzania danych biometrycznych dużej liczby osób bez ich aktywnego udziału. W przypadku systemów działających „w czasie rzeczywistym” zbieranie danych biometrycznych, porównanie i identyfikacja następują natychmiast, niemal natychmiast lub w każdym razie bez znacznego opóźnienia. W związku z tym nie powinno być możliwości obchodzenia przepisów niniejszego rozporządzenia dotyczących stosowania systemów AI „w czasie rzeczywistym” poprzez wprowadzanie niewielkich opóźnień. Systemy identyfikacji „w czasie rzeczywistym” obejmują wykorzystanie materiału rejestrowanego „na żywo” lub „niemal na żywo”, takiego jak materiał wideo generowany przez kamerę lub inne urządzenie o podobnej funkcjonalności. Natomiast w przypadku systemów identyfikacji post factum dane biometryczne zostały już zebrane, a porównanie i identyfikacja następują ze znacznym opóźnieniem. Dotyczy to materiałów, takich jak zdjęcia lub materiały wideo generowane przez kamery telewizji przemysłowej lub urządzenia prywatne, które to materiały zostały wygenerowane, zanim użyto systemu identyfikacji w stosunku do danej osoby fizycznej.
(18)
Pojem „sistem za prepoznavanje čustev“ iz te uredbe bi bilo treba opredeliti kot sistem UI za prepoznavanje čustev ali namer ali za sklepanje o čustvih ali namerah fizičnih oseb na podlagi njihovih biometričnih podatkov. Pojem se nanaša na čustva ali namere, kot so sreča, žalost, jeza, presenečenje, ogorčenje, zadrega, navdušenje, osramočenost, zaničevanje, zadovoljstvo in zabavanje. Ne vključuje fizičnih stanj, kot sta bolečina ali utrujenost, na primer vključno s sistemi, ki se uporabljajo za odkrivanje stanja utrujenosti poklicnih pilotov ali voznikov za namene preprečevanja nesreč. To tudi ne vključuje zgolj odkrivanja lahko vidnih izrazov, gest ali gibov, razen če se uporabljajo za prepoznavanje čustev ali sklepanje o njih. Ti izrazi so lahko osnovni obrazni izrazi, kot je namrščenost ali nasmeh, ali geste, kot je premikanje dlani, rok ali glave, ali značilnosti glasu osebe, kot je povzdignjen glas ali šepetanje.
(18)
Pojęcie „systemu rozpoznawania emocji”, o którym mowa w niniejszym rozporządzeniu, należy zdefiniować jako system AI służący do rozpoznawania emocji lub zamiarów osób fizycznych na podstawie danych biometrycznych tych osób, lub wyciągania wniosków odnośnie do tych emocji lub zamiarów. Pojęcie to dotyczy emocji lub zamiarów, takich jak radość, smutek, złość, zdziwienie, obrzydzenie, zakłopotanie, podekscytowanie, wstyd, pogarda, satysfakcja i rozbawienie. Nie obejmuje ono stanów fizycznych, takich jak ból lub zmęczenie; w tym na przykład systemów stosowanych do wykrywania poziomu zmęczenia zawodowych pilotów lub kierowców w celu zapobiegania wypadkom. Nie obejmuje ono również samego wykrywania łatwych do zauważenia form wyrazu, gestów lub ruchów, chyba że wykorzystuje się je do identyfikacji lub wnioskowania na temat emocji. Te formy wyrazu mogą obejmować podstawowe rodzaje wyrazu twarzy, takie jak grymas lub uśmiech, gesty, takie jak ruch rąk, ramion lub głowy, lub cechy głosu danej osoby, takie jak podniesiony ton lub szept.
(19)
Za namene te uredbe bi bilo treba pojem javno dostopnega prostora razumeti kot vsak fizični prostor, ki je dostopen nedoločenemu številu fizičnih oseb, ne glede na to, ali je ta prostor v zasebni ali javni lasti, in ne glede na dejavnost, za katero se ta prostor uporablja, denimo za komercialno, na primer trgovine, restavracije, kavarne; storitveno, na primer banke, poklicne dejavnosti, gostinske ali nastanitvene dejavnosti; športno, na primer bazeni, telovadnice, stadioni; prevozno, na primer avtobusne postaje, postaje podzemne železnice in železniške postaje, letališča, prevozna sredstva; razvedrilno, na primer kinematografi, gledališča, muzeji, koncertne in konferenčne dvorane; prostočasno ali drugo dejavnost, na primer javne ceste in trgi, parki, gozdovi, igrišča. Prostor bi bilo treba tudi razvrstiti kot javno dostopen, če za dostop ne glede na morebitne omejitve zmogljivosti ali varnostne omejitve veljajo nekateri vnaprej določeni pogoji, ki jih lahko izpolni nedoločeno število oseb, kot je nakup vstopnice ali vozovnice, predhodna registracija ali določena starost. Nasprotno pa se prostor ne bi smel šteti za javno dostopnega, če je dostop omejen na določene in opredeljene fizične osebe bodisi na podlagi prava Unije bodisi na podlagi nacionalnega prava, ki se neposredno nanaša na javno varnost ali varovanje, ali če se oseba, ki ima za ta prostor ustrezna pooblastila, glede tega jasno opredeli. Dejanska možnost samega dostopa, kot so odklenjena vrata, odprta vrata v ograji, ne pomeni, da je prostor javno dostopen, če obstajajo znaki ali okoliščine, ki kažejo na nasprotno, kot so znaki, ki prepovedujejo ali omejujejo dostop. Prostori podjetij in tovarn ter pisarne in delovni prostori, do katerih naj bi dostopali samo ustrezni zaposleni in ponudniki storitev, so prostori, ki niso javno dostopni. Javno dostopni prostori ne bi smeli vključevati zaporov ali območij mejne kontrole. Nekateri drugi prostori lahko zajemajo tako javno dostopne kot javno nedostopne prostore, kot je hodnik ali veža zasebne stanovanjske zgradbe, prek katere se dostopa do zdravniške pisarne, ali letališče. Spletni prostori niso zajeti, saj niso fizični prostori. Ali je določen prostor dostopen javnosti ali ne, pa je treba ugotoviti za vsak primer posebej, ob upoštevanju posebnosti posamezne dane situacije.
(19)
Do celów niniejszego rozporządzenia pojęcie „przestrzeni publicznej” należy rozumieć jako odnoszące się do każdej przestrzeni fizycznej, która jest dostępna dla nieokreślonej liczby osób fizycznych, niezależnie od tego, czy dana przestrzeń jest własnością prywatną czy publiczną, a także niezależnie od rodzaju działalności, dla której się ją wykorzystuje, takiej jak działalność handlowa (na przykład sklepy, restauracje, kawiarnie), działalność usługowa (na przykład banki, działalność zawodowa, hotelarstwo), działalność sportowa (na przykład baseny, sale do ćwiczeń, stadiony), działalność transportowa (na przykład dworce autobusowe i kolejowe, stacje metra, lotniska, środki transportu), działalność rozrywkowa (na przykład kina, teatry, muzea, sale koncertowe i konferencyjne) lub przestrzenie służące wypoczynkowi lub innym celom (na przykład drogi publiczne i place, parki, lasy i place zabaw). Przestrzeń należy uznać za przestrzeń publiczną również wtedy, gdy niezależnie od potencjalnych ograniczeń w zakresie pojemności lub bezpieczeństwa, dostęp do niej podlega pewnym określonym z góry warunkom, które mogą zostać spełnione przez nieokreśloną liczbę osób, takich jak zakup biletu wstępu lub biletu na przejazd, uprzednia rejestracja lub osiągnięcie określonego wieku. Danej przestrzeni nie należy natomiast uznawać za przestrzeń publiczną, jeśli dostęp do niej ograniczony jest do konkretnych i określonych osób fizycznych na mocy prawa Unii lub prawa krajowego bezpośrednio związanego z bezpieczeństwem publicznym lub ochroną publiczną lub w wyniku wyraźnego wyrażenia woli przez osobę posiadającą odpowiednie uprawnienia związane z taką przestrzenią. Faktyczna możliwość samego dostępu (taka jak niezamknięte drzwi, otwarta bramka w ogrodzeniu) nie oznacza, że dana przestrzeń stanowi przestrzeń publiczną, jeśli istnieją wskazania lub okoliczności sugerujące inaczej (takie jak znaki zakazujące dostępu lub go ograniczające). Tereny przedsiębiorstw i fabryk, a także biura i miejsca pracy, do których dostęp powinni mieć wyłącznie odpowiedni pracownicy i usługodawcy, to przestrzenie, które nie stanowią przestrzeni publicznej. Do przestrzeni publicznej nie zaliczają się więzienia ani strefy kontroli granicznej. Niektóre przestrzenie mogą zawierać zarówno przestrzenie publiczne, jak i niepubliczne, takie jak hol w prywatnym budynku mieszkalnym prowadzący do gabinetu lekarskiego lub lotnisko. Przestrzenie internetowe również nie są objęte tym pojęciem, ponieważ nie są to przestrzenie fizyczne. To, czy dana przestrzeń jest dostępna publicznie, powinno być jednak ustalane indywidualnie w każdym przypadku, z uwzględnieniem specyfiki danej sytuacji.
(20)
Da bi dosegli največje koristi sistemov UI in hkrati zaščitili temeljne pravice, zdravje in varnost ter omogočili demokratični nadzor, bi morala pismenost na področju UI ponudnikom, uvajalcem in osebam, na katere vpliva sistem UI, omogočiti razumevanje potrebnih pojmov za sprejemanje informiranih odločitev v zvezi s sistemi UI. Ti pojmi se lahko razlikujejo glede na zadevni kontekst in lahko vključujejo razumevanje pravilne uporabe tehničnih elementov v razvojni fazi sistema UI, ukrepe, ki jih je treba uporabiti med njegovo uporabo, ustrezne načine za razlago izhodnih podatkov sistema UI in, v primeru oseb, na katere vpliva sistem UI, znanje, potrebno za razumevanje, kako bodo odločitve, sprejete s pomočjo UI vplivale nanje. V okviru uporabe te uredbe bi morala pismenost na področju UI vsem zadevnim akterjem v verigi vrednosti UI zagotoviti vpoglede, potrebne za zagotovitev ustrezne skladnosti s to uredbo in njenega pravilnega izvrševanja. Poleg tega bi lahko široko izvajanje ukrepov za pismenost na področju UI in uvedba ustreznih nadaljnjih ukrepov prispevala k izboljšanju delovnih pogojev ter nazadnje podprla konsolidacijo in inovacijsko pot zaupanja vredne UI v Uniji. Evropski odbor za umetno inteligenco (v nadaljnjem besedilu: Odbor) bi moral podpirati Komisijo pri spodbujanju orodij za pismenost na področju UI, ozaveščenosti javnosti in razumevanja koristi, tveganj, zaščitnih ukrepov, pravic in obveznosti v zvezi z uporabo sistemov UI. Komisija in države članice bi morale v sodelovanju z ustreznimi deležniki olajšati pripravo prostovoljnih kodeksov ravnanja za izboljšanje pismenosti na področju UI med osebami, ki se ukvarjajo z razvojem, delovanjem in uporabo UI.
(20)
Dostawców, podmioty stosujące i osoby, na które AI ma wpływ, należy wyposażyć w niezbędne kompetencje w zakresie AI umożliwiające im podejmowanie świadomych decyzji w odniesieniu do systemów AI, co pozwoli czerpać największe korzyści z systemów AI, a jednocześnie chronić prawa podstawowe, zdrowie i bezpieczeństwo oraz sprawować kontrolę demokratyczną. Kompetencje te mogą różnić się w zależności od danego kontekstu i mogą obejmować rozumienie prawidłowego stosowania elementów technicznych na etapie rozwoju systemu AI, rozumienie środków, które mają być stosowane podczas jego wykorzystywania, odpowiednich sposobów interpretacji wyników działania systemu AI oraz, w przypadku osób, na które AI ma wpływ – wiedzę niezbędną do zrozumienia, jaki wpływ będą miały na nie decyzje podejmowane przy pomocy AI. W kontekście stosowania niniejszego rozporządzenia kompetencje w zakresie AI powinny oznaczać, że wszystkie odpowiednie podmioty w łańcuchu wartości AI będą posiadać wiedzę konieczną do zapewnienia odpowiedniej zgodności z przepisami niniejszego rozporządzenia i ich prawidłowego egzekwowania. Ponadto szerokie wdrażanie środków rozwijających kompetencje w zakresie AI oraz wprowadzanie odpowiednich działań następczych mogłyby przyczynić się do poprawy warunków pracy, a w ostatecznym rozrachunku wsparłyby konsolidację i innowacyjną ścieżkę godnej zaufania AI w Unii. Europejska Rada ds. Sztucznej Inteligencji (zwana dalej „Radą ds. AI”) powinna wspierać Komisję w promowaniu narzędzi rozwijających kompetencje w zakresie AI, świadomości społecznej oraz zrozumienia korzyści, ryzyka, zabezpieczeń, praw i obowiązków związanych z wykorzystaniem systemów AI. We współpracy z odpowiednimi zainteresowanymi stronami Komisja i państwa członkowskie powinny ułatwiać opracowywanie dobrowolnych kodeksów postępowania w celu podnoszenia kompetencji w zakresie AI wśród osób zajmujących się rozwojem, działaniem i wykorzystywaniem AI.
(21)
Za zagotovitev enakih konkurenčnih pogojev ter učinkovitega varstva pravic in svoboščin posameznikov po vsej Uniji bi se morala pravila iz te uredbe nediskriminatorno uporabljati za ponudnike sistemov UI, ne glede na to, ali imajo sedež v Uniji ali v tretji državi, in za uvajalce sistemov UI s sedežem v Uniji.
(21)
W celu zapewnienia równych szans oraz skutecznej ochrony praw i wolności osób fizycznych w całej Unii przepisy ustanowione niniejszym rozporządzeniem powinny mieć zastosowanie do dostawców systemów AI w sposób niedyskryminacyjny, niezależnie od tego, czy mają oni siedzibę w Unii, czy w państwie trzecim, oraz do podmiotów stosujących systemy AI mających siedzibę w Unii.
(22)
Zaradi svoje digitalne narave bi morali nekateri sistemi UI spadati na področje uporabe te uredbe, tudi če niso dani na trg ali v uporabo oziroma se ne uporabljajo v Uniji. To velja na primer za operaterja s sedežem v Uniji, ki določene storitve naroča pri operaterju s sedežem v tretji državi v zvezi z dejavnostjo, ki jo bo izvajal sistem UI, ki bi bil opredeljen kot visokotvegani sistem. V teh okoliščinah bi lahko sistem UI, ki ga operater uporablja v tretji državi, obdeloval podatke, ki se zakonito zbirajo v Uniji in prenašajo iz nje, ter naročniku v Uniji zagotovil izhodne podatke navedenega sistema UI, ki izhajajo iz te obdelave, ne da bi bil ta sistem UI dan na trg ali v uporabo oziroma bi se uporabljal v Uniji. Da bi preprečili izogibanje določbam te uredbe in zagotovili učinkovito varstvo fizičnih oseb v Uniji, bi se morala ta uredba uporabljati tudi za ponudnike in uvajalce sistemov UI s sedežem v tretji državi, če so izhodni podatki, ki jih ti sistemi ustvarijo, namenjeni uporabi v Uniji. Kljub temu pa se zaradi upoštevanja obstoječih ureditev in posebnih potreb po prihodnjem sodelovanju s tujimi partnerji, s katerimi se izmenjujejo informacije in dokazi, ta uredba ne bi smela uporabljati za javne organe tretje države in mednarodne organizacije, kadar delujejo v okviru sodelovanja ali mednarodnih sporazumov, sklenjenih na ravni Unije ali nacionalni ravni za sodelovanje na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ter pravosodnega sodelovanja z Unijo ali državami članicami, pod pogojem, da zadevna tretja država ali mednarodne organizacije zagotovijo ustrezne zaščitne ukrepe v zvezi z varstvom temeljnih pravic in svoboščin posameznikov. To lahko po potrebi zajema dejavnosti subjektov, ki so jim tretje države zaupale izvajanje posebnih nalog v podporo takemu sodelovanju na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ter pri pravosodnem sodelovanju. Takšni okviri za sodelovanje ali sporazumi so bili vzpostavljeni dvostransko med državami članicami in tretjimi državami ali med Evropsko unijo, Europolom in drugimi agencijami Unije ter tretjimi državami in mednarodnimi organizacijami. Organi, pristojni za nadzor organov za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj ter pravosodnih organov v skladu s to uredbo, bi morali oceniti, ali navedeni okviri za sodelovanje ali mednarodni sporazumi vključujejo ustrezne zaščitne ukrepe v zvezi z varstvom temeljnih pravic in svoboščin posameznikov. Nacionalni organi prejemniki ter institucije, organi, uradi in agencije Unije, ki uporabljajo take izhodne podatke v Uniji, so še naprej odgovorni za zagotavljanje, da je njihova uporaba skladna s pravom Unije. Ko se ti mednarodni sporazumi revidirajo ali se v prihodnosti sklenejo novi, bi si morale pogodbenice kar najbolj prizadevati za njihovo uskladitev z zahtevami iz te uredbe.
(22)
Ze względu na swój cyfrowy charakter niektóre systemy AI powinny zostać objęte zakresem stosowania niniejszego rozporządzenia, nawet jeśli nie zostały wprowadzane do obrotu, oddane do użytku ani są wykorzystywane w Unii. Dotyczy to na przykład operatora mającego siedzibę w Unii, który zleca operatorowi mającemu siedzibę w państwie trzecim określone usługi w związku z działaniem, które ma być wykonywane przez system AI, który zostałby zakwalifikowany jako system wysokiego ryzyka. W takich okolicznościach system AI wykorzystywany w państwie trzecim przez operatora mógłby przetwarzać dane, które legalnie zgromadzono w Unii i przekazano poza Unię, oraz przekazywać zlecającemu operatorowi z Unii wynik przetwarzania tych danych przez system AI, natomiast sam system AI nie byłby wprowadzony do obrotu lub oddany do użytku w Unii ani nie byłby w Unii wykorzystywany. Aby zapobiec obchodzeniu przepisów niniejszego rozporządzenia oraz zapewnić skuteczną ochronę osób fizycznych znajdujących się w Unii, niniejsze rozporządzenie powinno mieć również zastosowanie do dostawców i podmiotów stosujących systemy AI, którzy mają siedzibę lub miejsce zamieszkania w państwie trzecim, w zakresie, w jakim wyniki wytworzone przez te systemy są przeznaczone do wykorzystywania w Unii. Aby uwzględnić jednak istniejące ustalenia i szczególne potrzeby w zakresie przyszłej współpracy z partnerami zagranicznymi, z którymi wymienia się informacje i dowody, niniejszego rozporządzenia nie powinno się stosować do organów publicznych państwa trzeciego i organizacji międzynarodowych działających w ramach współpracy lub na mocy zawartych na poziomie Unii lub poziomie krajowym umów międzynarodowych o współpracy organów ścigania i wymiarów sprawiedliwości z Unią lub państwami członkowskimi, pod warunkiem zapewnienia przez to państwo trzecie lub organizację międzynarodową odpowiednich zabezpieczeń w odniesieniu do ochrony podstawowych praw i wolności osób fizycznych. W stosownych przypadkach może to obejmować działania podmiotów, którym państwa trzecie powierzyły wykonywanie szczególnych zadań w ramach wsparcia ścigania przestępstw i współpracy wymiarów sprawiedliwości. Takie ramy współpracy lub umowy zostały ustanowione dwustronnie między państwami członkowskimi a państwami trzecimi lub między Unią Europejską, Europolem i innymi agencjami Unii a państwami trzecimi i organizacjami międzynarodowymi. Organy właściwe do sprawowania nadzoru nad organami ścigania i organami wymiaru sprawiedliwości na mocy niniejszego rozporządzenia powinny ocenić, czy te ramy współpracy lub umowy międzynarodowe zawierają odpowiednie zabezpieczenia w odniesieniu do ochrony podstawowych praw i wolności osób fizycznych. Będące odbiorcami organy krajowe oraz instytucje, organy i jednostki organizacyjne Unii korzystające z takich wyników w Unii pozostają odpowiedzialne za zapewnienie zgodności ich stosowania z prawem Unii. W przypadku zmiany takich umów międzynarodowych lub zawarcia nowych w przyszłości umawiające się strony powinny dołożyć wszelkich starań, by dostosować takie umowy do wymogów niniejszego rozporządzenia.
(23)
To uredbo bilo treba uporabljati tudi za institucije, organe, urade in agencije Unije, kadar delujejo kot ponudniki ali uvajalci sistema UI.
(23)
Niniejsze rozporządzenie powinno być również stosowane do instytucji, organów i jednostek organizacyjnych Unii, gdy działają one jako dostawca systemu AI lub podmiot stosujący system AI.
(24)
Če in kolikor so sistemi UI s spremembami ali brez njih dani na trg ali v uporabo oziroma se uporabljajo za vojaške ali obrambne namene ali namene nacionalne varnostni, bi morali biti izključeni iz področja uporabe te uredbe ne glede na to, katera vrsta subjekta izvaja te dejavnosti, tj. ali gre za javni ali zasebni subjekt. Kar zadeva vojaške in obrambne namene, je taka izključitev utemeljena tako s členom 4(2) PEU kot tudi s posebnostmi obrambne politike držav članic in skupne obrambne politike Unije iz naslova V, poglavje 2, PEU, za katere velja mednarodno javno pravo, ki je zato ustreznejši pravni okvir za ureditev sistemov UI v kontekstu uporabe smrtonosne sile in drugih sistemov UI v kontekstu vojaških in obrambnih dejavnosti. Kar zadeva namene nacionalne varnosti, izključitev upravičuje tako dejstvo, da nacionalna varnost ostaja v izključni pristojnosti držav članic v skladu s členom 4(2) PEU, kot tudi posebna narava in operativne potrebe dejavnosti nacionalne varnosti ter posebna nacionalna pravila, ki se za te dejavnosti uporabljajo. Če pa se sistem UI, ki je bil razvit, dan na trg ali v uporabo oziroma se uporablja v vojaške ali obrambne namene ali namene nacionalne varnosti, začasno ali stalno uporablja za druge namene (na primer civilne ali humanitarne namene, namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ali namene javne varnosti), bi tak sistem spadal na področje uporabe te uredbe. V tem primeru bi moral subjekt, ki sistem UI uporablja za namene, ki niso vojaški ali obrambni nameni ali nameni nacionalne varnosti, zagotoviti skladnost sistema UI s to uredbo, razen če je sistem že skladen s to uredbo. Sistemi UI, ki so dani na trg ali v uporabo za izključene namene, tj. vojaške, obrambne namene ali namene nacionalne varnosti, in enega ali več neizključenih namenov, kot so civilni nameni ali nameni preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, spadajo na področje uporabe te uredbe, njihovi ponudniki pa bi morali zagotoviti skladnost s to uredbo. V teh primerih dejstvo, da sistem UI lahko spada na področje uporabe te uredbe, ne bi smelo vplivati na možnost subjektov, ki izvajajo nacionalne varnostne, obrambne in vojaške dejavnosti (ne glede na vrsto teh subjektov), da uporabljajo sisteme UI za namene nacionalne varnosti, vojaške in obrambne namene, katerih uporaba je izključena iz področja uporabe te uredbe. Sistem UI, dan na trg za civilne namene ali namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, ki se uporablja s spremembami ali brez njih za vojaške in obrambne namene ali namene nacionalne varnosti, ne bi smel spadati na področje uporabe te uredbe, ne glede na vrsto subjekta, ki izvaja te dejavnosti.
(24)
Jeżeli i w zakresie, w jakim systemy AI wprowadza się do obrotu, oddaje do użytku lub wykorzystuje się je ze zmianami lub bez zmian – do celów wojskowych, obronnych lub celów bezpieczeństwa narodowego, systemy te należy wyłączyć z zakresu stosowania niniejszego rozporządzenia niezależnie od tego, jaki podmiot wykonuje te działania – nie ma znaczenia na przykład, czy jest on podmiotem publicznym czy prywatnym. W przypadku celów wojskowych i obronnych, takie wyłączenie jest uzasadnione zarówno art. 4 ust. 2 TUE, jak i specyfiką polityki obronnej państw członkowskich i wspólnej polityki obronnej Unii objętej tytułem V rozdział 2 TUE, które podlegają prawu międzynarodowemu publicznemu stanowiącemu zatem bardziej odpowiednie ramy prawne dla regulacji systemów AI w kontekście stosowania śmiercionośnej siły i innych systemów AI w kontekście działań wojskowych i obronnych. W przypadku celów bezpieczeństwa narodowego wyłączenie to jest uzasadnione zarówno faktem, że za bezpieczeństwo narodowe wyłączną odpowiedzialność ponoszą państwa członkowskie zgodnie z art. 4 ust. 2 TUE, jak i faktem, że działania w zakresie bezpieczeństwa narodowego mają szczególny charakter, wiążą się ze szczególnymi potrzebami operacyjnymi i że stosuje się do nich szczególne przepisy krajowe. Jeżeli jednak system AI rozwinięty, wprowadzony do obrotu, oddany do użytku lub wykorzystywany do celów wojskowych, obronnych lub celów bezpieczeństwa narodowego jest tymczasowo lub na stałe wykorzystywany do innych celów, na przykład do celów cywilnych lub humanitarnych, do celów ścigania przestępstw lub bezpieczeństwa publicznego, system taki objęty zostanie zakresem stosowania niniejszego rozporządzenia. W takim przypadku podmiot wykorzystujący system AI do celów inne niż cele wojskowe, obronne lub cele bezpieczeństwa narodowego powinien zapewnić zgodność systemu AI z niniejszym rozporządzeniem, chyba że system ten jest już z nim zgodny. Systemy AI wprowadzane do obrotu lub oddawane do użytku do celu stanowiącego podstawę wyłączenia, tzn. celu wojskowego, obronnego lub celu bezpieczeństwa narodowego, oraz do jednego lub kilku celów niestanowiących podstawy wyłączenia, takich jak cele cywilne lub ściganie przestępstw, są objęte zakresem stosowania niniejszego rozporządzenia, a dostawcy tych systemów powinni zapewnić zgodność z niniejszym rozporządzeniem. W takich przypadkach fakt, że system AI może wchodzić w zakres stosowania niniejszego rozporządzenia, nie powinien mieć wpływu na możliwość wykorzystywania – przez podmioty prowadzące działania dotyczące bezpieczeństwa narodowego, działania obronne i wojskowe, bez względu na rodzaj podmiotu prowadzącego te działania – systemów AI do celów bezpieczeństwa narodowego, celów wojskowych i obronnych, których wykorzystanie jest wyłączone z zakresu stosowania niniejszego rozporządzenia. System AI wprowadzany do obrotu do celów cywilnych lub w celu ścigania przestępstw, który jest wykorzystywany ze zmianami lub bez zmian do celów wojskowych, obronnych lub do celów bezpieczeństwa narodowego, nie powinien być objęty zakresem stosowania niniejszego rozporządzenia, bez względu na rodzaj podmiotu prowadzącego działania związane z tymi celami.
(25)
S to uredbo bi bilo treba podpirati inovacije in spoštovati svobodo znanosti ter z njo ne bi smeli ogrožati raziskovalnih in razvojnih dejavnosti. Zato je treba iz njenega področja uporabe izključiti sisteme in modele UI, ki so bili posebej razviti in dani v uporabo izključno za znanstvene raziskave in razvoj. Poleg tega je treba zagotoviti, da ta uredba ne vpliva kako drugače na znanstvene raziskave in razvoj sistemov ali modelov UI, preden se dajo na trg ali v uporabo. Tudi kar zadeva v proizvode usmerjene raziskave, testiranje in razvoj sistemov ali modelov UI, se določbe te uredbe ne bi smele uporabljati pred dajanjem teh sistemov in modelov v uporabo ali na trg. Ta izključitev pa ne posega v obveznost skladnosti s to uredbo, če je sistem UI, ki spada na področje uporabe te uredbe, dan na trg ali v uporabo kot rezultat take raziskovalne in razvojne dejavnosti, ter v uporabo določb o regulativnih peskovnikih za UI in testiranju v realnih razmerah. Poleg tega bi morale brez poseganja v izključitev sistemov UI, ki so posebej razviti in dani v uporabo izključno za namene znanstvenih raziskav in razvoja, za vse druge sisteme UI, ki se lahko uporabljajo za izvajanje kakršnih koli raziskovalnih in razvojnih dejavnosti, še naprej veljati določbe te uredbe. V vsakem primeru bi bilo treba vsakršno raziskovalno in razvojno dejavnost izvajati v skladu s priznanimi etičnimi in strokovnimi standardi za znanstvene raziskave ter v skladu z veljavnim pravom Unije.
(25)
Niniejsze rozporządzenie powinno wspierać innowacje, szanować wolność nauki i nie powinno osłabiać działalności badawczo-rozwojowej. Należy zatem wyłączyć z jego zakresu stosowania systemy i modele AI rozwinięte i oddane do użytku wyłącznie do celów badań naukowych i rozwojowych. Ponadto należy zapewnić, aby niniejsze rozporządzenie nie wpływało w żaden inny sposób na działalność badawczo-rozwojową dotyczącą systemów lub modeli AI przed wprowadzeniem tych systemów lub modeli do obrotu lub oddaniem ich do użytku. Przepisów niniejszego rozporządzenia nie powinno się również stosować do zorientowanej na produkty działalności badawczej, testowej i rozwojowej dotyczącej systemów lub modeli AI przed oddaniem tych systemów i modeli do użytku lub wprowadzaniem ich do obrotu. Wyłączenie to pozostaje to bez uszczerbku dla obowiązku zapewnienia zgodności z niniejszym rozporządzeniem, gdy system AI objęty zakresem stosowania niniejszego rozporządzenia jest wprowadzany do obrotu lub oddawany do użytku w wyniku takiej działalności badawczo-rozwojowej, oraz dla stosowania przepisów dotyczących piaskownic regulacyjnych w zakresie AI i testów w warunkach rzeczywistych. Ponadto bez uszczerbku dla wyłączenia systemów AI rozwiniętych i oddanych do użytku wyłącznie do celów badań naukowych i rozwojowych, wszelkie inne systemy AI, które mogą być wykorzystywane do prowadzenia wszelkiej działalności badawczo-rozwojowej, powinny podlegać przepisom niniejszego rozporządzenia. W każdym przypadku wszelka działalność badawczo-rozwojowa powinna być prowadzona zgodnie z uznanymi normami etycznymi i zawodowymi dotyczącymi badań naukowych oraz zgodnie z mającym zastosowanie prawem Unii.
(26)
Za uvedbo sorazmernega in učinkovitega sklopa zavezujočih pravil za sisteme UI bi bilo treba upoštevati jasno opredeljen pristop, ki temelji na tveganju. Ta pristop bi moral vrsto in vsebino takih pravil prilagoditi intenzivnosti in obsegu tveganj, ki jih lahko ustvarijo sistemi UI. Zato je treba prepovedati nekatere nesprejemljive prakse UI, določiti zahteve za visokotvegane sisteme UI in obveznosti za zadevne operaterje ter določiti obveznosti glede preglednosti za nekatere sisteme UI.
(26)
Aby wprowadzić proporcjonalny i skuteczny zbiór wiążących przepisów dotyczących systemów AI, należy zastosować jasno określone podejście oparte na analizie ryzyka. Takie podejście powinno polegać na dostosowywaniu rodzaju i treści takich przepisów do intensywności i zakresu ryzyka, jakie mogą powodować systemy AI. Konieczne jest zatem wprowadzenie zakazu stosowania niektórych niedopuszczalnych praktyk w zakresie AI, ustanowienie wymogów dotyczących systemów AI wysokiego ryzyka i obowiązków spoczywających na odpowiednich operatorach oraz ustanowienie obowiązków w zakresie przejrzystości w odniesieniu do niektórych systemów AI.
(27)
Čeprav je pristop, ki temelji na tveganju, podlaga za sorazmeren in učinkovit sklop zavezujočih pravil, je pomembno opozoriti na Etične smernice za zaupanja vredno umetno inteligenco iz leta 2019, ki jih je razvila neodvisna strokovna skupina na visoki ravni za umetno inteligenco (AI HLEG), ki jo je imenovala Komisija. V teh smernicah je AI HLEG razvila sedem nezavezujočih etičnih načel za UI, ki naj bi pomagala zagotoviti, da je UI zaupanja vredna in etično zanesljiva. Teh sedem načel vključuje človeško delovanje in nadzor, tehnično robustnost in varnost, zasebnost in upravljanje podatkov, preglednost, raznolikost, nediskriminacijo in pravičnost ter družbeno in okoljsko blaginjo in odgovornost. Brez poseganja v pravno zavezujoče zahteve te uredbe in katerega koli drugega veljavnega prava Unije te smernice prispevajo k oblikovanju skladne, zaupanja vredne in na človeka osredotočene UI v skladu z Listino in vrednotami, na katerih temelji Unija. V skladu s smernicami AI HLEG človeško delovanje in nadzor pomeni, da se sistemi UI razvijajo in uporabljajo kot orodje, ki služi ljudem, spoštuje človeško dostojanstvo in osebno avtonomijo ter deluje tako, da ga ljudje lahko ustrezno upravljajo in nadzorujejo. Tehnična robustnost in varnost pomeni, da se sistemi UI razvijajo in uporabljajo na način, ki omogoča robustnost v primeru težav in odpornost proti poskusom spremembe uporabe ali učinkovitosti sistema UI, ki bi lahko tretjim osebam omogočila nezakonito uporabo, in čim bolj zmanjša nenamerno škodo. Zasebnost in upravljanje podatkov pomeni, da se sistemi UI razvijajo in uporabljajo v skladu s pravili o zasebnosti in varstvu podatkov, hkrati pa obdelujejo podatke, ki izpolnjujejo visoke standarde v smislu kakovosti in celovitosti. Preglednost pomeni, da se sistemi UI razvijajo in uporabljajo na način, ki omogoča ustrezno sledljivost in razložljivost, obenem pa so ljudje seznanjeni s tem, da komunicirajo ali da so v stiku s sistemom UI, uvajalci so ustrezno obveščeni o zmogljivostih in omejitvah zadevnega sistema UI, osebe, na katere vpliva sistem UI, pa o svojih pravicah. Raznolikost, nediskriminacija in pravičnost pomeni, da se sistemi UI razvijajo in uporabljajo na način, ki vključuje različne akterje in spodbuja enakopraven dostop, enakost spolov in kulturno raznolikost, hkrati pa se preprečujejo diskriminatorni učinki in nepravični predsodki, ki jih pravo Unije ali držav članic prepoveduje. Družbena in okoljska blaginja pomeni, da se sistemi UI razvijajo in uporabljajo na trajnosten in okolju prijazen način ter v korist vseh ljudi, hkrati pa se spremljajo in ocenjujejo dolgoročni vplivi na posameznika, družbo in demokracijo. Ta načela bi bilo treba uporabljati tudi pri zasnovi in uporabi modelov UI, kadar je mogoče. V vsakem primeru bi morala biti podlaga za pripravo kodeksov ravnanja na podlagi te uredbe. Vsi deležniki, vključno z industrijo, akademskimi krogi, civilno družbo in organizacijami za standardizacijo, naj ustrezno upoštevajo etična načela za razvoj prostovoljnih najboljših praks in standardov.
(27)
Chociaż podstawą proporcjonalnego i skutecznego zbioru wiążących przepisów jest podejście oparte na analizie ryzyka, należy przypomnieć Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji z 2019 r. opracowane przez niezależną grupę ekspertów wysokiego szczebla ds. AI powołaną przez Komisję. W tych wytycznych grupa ekspertów wysokiego szczebla ds. AI opracowała siedem niewiążących zasad etycznych dotyczących AI, które mają pomóc zapewnić, aby AI była godna zaufania i zgodna z normami etycznymi. Te siedem zasad to: przewodnia i nadzorcza rola człowieka; solidność techniczna i bezpieczeństwo; ochrona prywatności i zarządzanie danymi; przejrzystość; różnorodność, niedyskryminacja i sprawiedliwość; dobrostan społeczny i środowiskowy oraz odpowiedzialność. Bez uszczerbku dla prawnie wiążących wymogów niniejszego rozporządzenia i wszelkich innych mających zastosowanie przepisów prawa Unii, wytyczne te przyczyniają się do zaprojektowania spójnej, wiarygodnej i zorientowanej na człowieka AI, zgodnie z Kartą i wartościami, na których opiera się Unia. Zgodnie z wytycznymi grupy ekspertów wysokiego szczebla ds. AI przewodnia i nadzorcza rola człowieka oznacza, że systemy AI rozwija się i wykorzystuje jako narzędzia służące ludziom, szanujące godność ludzką i autonomię osobistą oraz działające w sposób, który może być odpowiednio kontrolowany i nadzorowany przez człowieka. Solidność techniczna i bezpieczeństwo oznaczają, że systemy AI rozwija się i wykorzystuje w taki sposób, by okazały się wytrzymałe w przypadku wystąpienia problemów oraz odporne na próby zmiany ich wykorzystania lub skuteczności działania, co pozwoli zapobiec bezprawnemu wykorzystaniu przez osoby trzecie i zminimalizować niezamierzone szkody. Ochrona prywatności i zarządzanie danymi oznaczają, że systemy AI rozwija się i wykorzystuje zgodnie z przepisami dotyczącymi prywatności i ochrony danych, przy czym przetwarzanie danych spełnia wysokie standardy pod względem jakości i integralności. Przejrzystość oznacza, że systemy AI rozwija się i wykorzystuje w sposób umożliwiający odpowiednią identyfikowalność i wytłumaczalność, jednocześnie informując ludzi o tym, że komunikują się z systemem AI lub podejmują z nim interakcję, a także należycie informując podmioty stosujące o zdolnościach i ograniczeniach tego systemu AI, a osoby, na które AI ma wpływ, o przysługujących im prawach. Różnorodność, niedyskryminacja i sprawiedliwość oznaczają, że systemy AI rozwija się i wykorzystuje w sposób, który angażuje różne podmioty i propaguje równy dostęp, równouprawnienie płci i różnorodność kulturową, jednocześnie unikając dyskryminujących skutków i niesprawiedliwej stronniczości, których zakazują prawo Unii lub prawo krajowe. Dobrostan społeczny i środowiskowy oznacza, że systemy AI rozwija się i wykorzystuje w sposób zrównoważony, przyjazny dla środowiska i przynoszący korzyści wszystkim ludziom, jednocześnie monitorując i oceniając długoterminowy wpływ tych systemów na osoby fizyczne, społeczeństwo i demokrację. Stosowanie tych zasad powinno w miarę możliwości znaleźć odzwierciedlenie w projektowaniu i wykorzystywaniu modeli AI. Zasady te powinny w każdym przypadku stanowić fundament przy opracowywaniu kodeksów postępowania na podstawie niniejszego rozporządzenia. Wszystkie zainteresowane strony, w tym przedstawicieli przemysłu, środowisko akademickie, społeczeństwo obywatelskie i organizacje normalizacyjne, zachęca się, by przy opracowywaniu dobrowolnych najlepszych praktyk i norm uwzględniali odpowiednio przedmiotowe zasady etyczne.
(28)
Poleg številnih koristnih uporab UI jo je mogoče tudi zlorabiti, tako da bi nastala nova in močna orodja za prakse manipulacije, izkoriščanja in družbenega nadzora. Take prakse so še posebej škodljive in zlonamerne in bi jih bilo treba prepovedati, ker so v nasprotju z vrednotami Unije glede spoštovanja človekovega dostojanstva, svobode, enakosti, demokracije in pravne države ter temeljnimi pravicami, določenimi v Listini, vključno s pravico do nediskriminacije, varstva podatkov in zasebnosti ter pravicami otroka.
(28)
Oprócz wielu korzystnych zastosowań AI może ona być również wykorzystywana niewłaściwie i może dostarczać nowych i potężnych narzędzi do praktyk manipulacji, wyzyskiwania i kontroli społecznej. Takie praktyki są szczególnie szkodliwe i stanowią nadużycie i powinny być zakazane, ponieważ są sprzeczne z unijnymi wartościami dotyczącymi poszanowania godności ludzkiej, wolności, równości, demokracji i praworządności oraz z prawami podstawowymi zapisanymi w Karcie, w tym z prawem do niedyskryminacji, ochrony danych i prywatności oraz z prawami dziecka.
(29)
Z UI omogočene manipulativne tehnike se lahko uporabljajo za napeljevanje oseb k neželenemu vedenju ali za njihovo zavajanje, tako da se jih spodbuja k odločitvam na način, ki spodkopava in ovira njihovo avtonomijo, odločanje in svobodno izbiro. Dajanje na trg, dajanje v uporabo ali uporaba nekaterih sistemov UI s ciljem ali učinkom bistvenega izkrivljanja človeškega vedenja, pri čemer je verjetno, da bo nastala znatna škoda, zlasti z dovolj pomembnimi škodljivimi učinki na telesno ali duševno zdravje ali finančne interese, je še posebej nevarno oziroma nevarna in bi ga oziroma jo bilo zato treba prepovedati. Takšni sistemi UI uporabljajo subliminalne komponente, kot so zvočni, slikovni ali video dražljaji, ki jih osebe ne morejo zaznati, ker ti dražljaji presegajo človekovo dojemanje, ali druge manipulativne ali zavajajoče tehnike, ki spodkopavajo ali ovirajo posameznikovo avtonomijo, odločanje ali svobodno izbiro na načine, da se ljudje ne zavedajo teh tehnik ali pa, kadar se jih zavedajo, so kljub temu lahko zavedeni ali jih ne morejo nadzorovati ali se jim upreti. To bi bilo na primer mogoče olajšati z vmesniki stroj-možgani ali virtualno resničnostjo, saj omogočajo višjo stopnjo nadzora nad tem, kateri dražljaji so predstavljeni osebam, če lahko bistveno izkrivljajo njihovo vedenje na znatno škodljiv način. Sistemi UI lahko tudi sicer izkoriščajo šibke točke določene osebe ali skupine oseb zaradi njihove starosti, invalidnosti v smislu Direktive (EU) 2019/882 Evropskega parlamenta in Sveta (16) ali posebnih socialnih ali gospodarskih razmer, zaradi katerih so te osebe verjetno bolj izpostavljene izkoriščanju, na primer osebe, ki živijo v skrajni revščini, ter etnične ali verske manjšine. Takšni sistemi UI se lahko dajo na trg ali v uporabo oziroma se uporabljajo s ciljem ali učinkom bistvenega izkrivljanja vedenja osebe, in sicer na način, ki tej ali drugi osebi ali skupinam oseb povzroči znatno škodo, vključno s škodo, ki se lahko sčasoma nakopiči, ali za katerega obstaja razumna verjetnost, da jo bo povzročil, zato bi morali biti prepovedani. Morda ni mogoče domnevati, da obstaja namen izkrivljanja vedenja, kadar je izkrivljanje posledica dejavnikov zunaj sistema UI, na katere ponudnik ali uvajalec ne more vplivati, in sicer dejavnikov, ki jih ni mogoče razumno predvideti in jih zato ponudnik ali uvajalec sistema UI ne more zmanjšati. V vsakem primeru ni potrebno, da ima ponudnik ali uvajalec namen povzročiti znatno škodo, če takšna škoda izhaja iz manipulativnih ali izkoriščevalskih praks, ki jih omogoča UI. Prepovedi takih praks UI dopolnjujejo določbe Direktive 2005/29/ES Evropskega parlamenta in Sveta (17), zlasti v smislu, da so nepoštene poslovne prakse, ki potrošnikom povzročajo gospodarsko ali finančno škodo, prepovedane v vseh okoliščinah, ne glede na to, ali se izvajajo prek sistemov UI ali kako drugače. Prepoved manipulativnih in izkoriščevalskih praks iz te uredbe ne bi smela vplivati na zakonite prakse v okviru zdravljenja, kot je psihološko zdravljenje duševne bolezni ali telesna rehabilitacija, kadar se te prakse izvajajo v skladu z veljavnimi pravnimi medicinskimi standardi in zakonodajo, kot na primer izrecna privolitev posameznikov ali njihovih zakonitih zastopnikov. Poleg tega se običajne in zakonite poslovne prakse, na primer na področju oglaševanja, ki so v skladu z veljavnim pravom, same po sebi ne bi smele šteti za škodljive manipulativne z UI omogočene prakse.
(29)
Techniki manipulacyjne oparte na AI mogą być wykorzystywane w celu nakłaniania osób do niepożądanych zachowań lub w celu wprowadzania ich w błąd poprzez skłanianie ich do podejmowania decyzji w sposób, który podważa i ogranicza ich autonomię, decyzyjność i swobodę wyboru. Wprowadzanie do obrotu, oddawanie do użytku lub wykorzystywanie niektórych systemów AI, których celem lub skutkiem jest znacząca zmiana ludzkiego zachowania, w związku z czym mogą wystąpić poważne szkody, w szczególności mające wystarczająco istotny niepożądany wpływ na zdrowie fizyczne, psychiczne lub na interesy finansowe, są szczególnie niebezpieczne i w związku z tym powinny być zakazane. Takie systemy AI wykorzystują elementy działające podprogowo, takie jak bodźce dźwiękowe, bodźce będące obrazami lub materiałami wideo, których nie można dostrzec, ponieważ bodźce takie wykraczają poza świadomą ludzką percepcję, lub stosują inne techniki manipulacyjne lub wprowadzające w błąd, które podważają lub ograniczają autonomię człowieka, decyzyjność lub swobodę wyboru w taki sposób, że osoby nie są świadome takich technik lub nawet jeśli są ich świadome, mogą zostać wprowadzone w błąd lub nie są w stanie sprawować nad nimi kontroli ani im się sprzeciwić. Przyczyniać się do tego mogą na przykład interfejsy maszyna-mózg lub rzeczywistość wirtualna, ponieważ pozwalają one na większą kontrolę nad tym, jakim bodźcom są poddawane osoby, do tego stopnia, że mogą one znacząco zmieniać zachowanie tych osób w sposób znacząco szkodliwy. Ponadto systemy AI mogą również w inny sposób wykorzystywać słabości danej osoby lub określonej grupy osób ze względu na ich wiek, niepełnosprawność w rozumieniu dyrektywy Parlamentu Europejskiego i Rady (UE) 2019/882 (16) lub szczególną sytuację społeczną lub ekonomiczną, która może sprawić, że osoby te, takie jak osoby żyjące w skrajnym ubóstwie, osoby z mniejszości etnicznych lub religijnych, będą bardziej narażone na ich wykorzystanie. Takie systemy AI mogą być wprowadzane do obrotu, oddawane do użytku lub wykorzystywane w celu lub ze skutkiem znaczącej zmiany zachowania danej osoby, oraz w sposób, który wyrządza lub może z uzasadnionym prawdopodobieństwem wyrządzić poważną szkodę tej osoby lub innej osoby lub grupy osób, w tym szkody kumulujące się z biegiem czasu, i w związku z tym powinny być zakazane. Nie można zakładać, że zaistniał zamiar dokonania zmiany zachowania, jeżeli zmiana ta wynika z czynników, które mają charakter zewnętrzny w stosunku do systemu AI i które są poza kontrolą dostawcy lub podmiotu stosującego, a zatem ani dostawca ani podmiot stosujący AI nie mogą ich racjonalnie przewidzieć ani im przeciwdziałać. W każdym razie nie ma znaczenia, czy dostawca lub podmiot stosujący mieli zamiar wyrządzić poważną szkodę, istotny jest fakt, że szkoda wynika z praktyk manipulacyjnych opartych na AI lub ich wykorzystywania. Zakazy dotyczące takich praktyk w zakresie AI stanowią uzupełnienie przepisów zawartych w dyrektywie Parlamentu Europejskiego i Rady 2005/29/WE (17), w szczególności przepisu zakazującego stosowania we wszelkich okolicznościach nieuczciwych praktyk handlowych powodujących dla konsumentów szkody ekonomiczne lub finansowe, niezależnie od tego, czy praktyki te stosuje się za pomocą systemów AI czy w innym kontekście. Zawarty w niniejszym rozporządzeniu zakaz praktyk polegających na manipulacji lub wykorzystywaniu nie powinien mieć wpływu na zgodne z prawem praktyki w kontekście leczenia, takie jak terapia psychologiczna w związku z chorobą psychiczną lub rehabilitacja fizyczna, gdy praktyki te są prowadzone zgodnie z mającymi zastosowanie prawem i normami medycznymi, na przykład za wyraźną zgodą danej osoby fizycznej lub jej przedstawiciela prawnego. Ponadto powszechne i zasadne praktyki handlowe, na przykład w dziedzinie reklamy, które są zgodne z mającym zastosowanie prawem, nie powinny być same w sobie uznawane za szkodliwe praktyki manipulacyjne oparte na AI.
(30)
Prepovedati bi bilo treba sisteme za biometrično kategorizacijo, ki temeljijo na biometričnih podatkih fizičnih oseb, kot so obraz ali prstni odtisi posameznika, za sklepanje ali ugotavljanje o političnem prepričanju posameznika, članstvu v sindikatu, verskem ali filozofskem prepričanju, rasi, spolnem življenju ali spolni usmerjenosti. Ta prepoved ne bi smela zajemati zakonitega označevanja, filtriranja ali kategorizacije naborov biometričnih podatkov, pridobljenih v skladu s pravom Unije ali nacionalnim pravom na podlagi biometričnih podatkov, kot je razvrščanje slik glede na barvo las ali oči, ki se lahko na primer uporabljajo na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj.
(30)
Należy zakazać stosowania systemów kategoryzacji biometrycznej, które opierają się na danych biometrycznych osób fizycznych, takich jak twarz lub odciski palców danej osoby, w celu wydedukowania lub wywnioskowania informacji na temat opinii politycznych, przynależności do związków zawodowych, przekonań religijnych lub filozoficznych, rasy, życia seksualnego lub orientacji seksualnej danej osoby. Zakaz ten nie powinien obejmować zgodnego z prawem etykietowania, filtrowania lub kategoryzacji zbiorów danych biometrycznych, pozyskanych zgodnie z prawem Unii lub prawem krajowym, według danych biometrycznych, takiego jak sortowanie obrazów według koloru włosów lub koloru oczu, które można na przykład wykorzystać w obszarze ścigania przestępstw.
(31)
Sistemi UI, ki zagotavljajo družbeno točkovanje fizičnih oseb s strani javnih ali zasebnih akterjev, lahko vodijo do diskriminatornih rezultatov in izključitve nekaterih skupin. Lahko kršijo pravico do dostojanstva in nediskriminacije ter vrednote enakosti in pravičnosti. Takšni sistemi UI ocenjujejo ali razvrščajo fizične osebe ali skupine fizičnih oseb na podlagi več podatkovnih točk, povezanih z njihovim družbenim vedenjem v več kontekstih ali znanih, predpostavljenih ali predvidenih osebnih ali osebnostnih značilnostih v določenih časovnih obdobjih. Število družbenih točk, dodeljenih s strani takih sistemov UI, lahko vodi do škodljivega ali neugodnega obravnavanja fizičnih oseb ali celotnih skupin le-teh v družbenih kontekstih, ki niso povezani s kontekstom, v katerem so bili podatki prvotno ustvarjeni ali zbrani, ali do škodljivega obravnavanja, ki je nesorazmerno ali neupravičeno glede na resnost njihovega družbenega vedenja. Sisteme UI, ki vključujejo take nesprejemljive prakse točkovanja in povzročajo takšne škodljive ali neugodne rezultate, bi bilo zato treba prepovedati. Ta prepoved ne bi smela vplivati na zakonite prakse ocenjevanja fizičnih oseb, ki se izvajajo za poseben namen v skladu s pravom Unije in nacionalnim pravom.
(31)
Systemy AI, które umożliwiają prowadzenie przez podmioty publiczne lub prywatne scoringu społecznego, mogą prowadzić do wyników stanowiących dyskryminację i do wykluczenia pewnych grup. Mogą one naruszać prawo do godności i niedyskryminacji oraz wartości, jakimi są równość i sprawiedliwość. Takie systemy AI oceniają lub klasyfikują osoby fizyczne lub grupy osób fizycznych na podstawie wielu punktów danych dotyczących ich zachowań społecznych w wielu kontekstach lub na podstawie znanych, wywnioskowanych lub przewidywanych cech osobistych lub cech osobowości w określonych przedziałach czasowych. Scoring społeczny uzyskany w rezultacie działania takich systemów AI może prowadzić do krzywdzącego lub niekorzystnego traktowania osób fizycznych lub całych grup osób fizycznych w kontekstach społecznych, które nie są związane z kontekstem, w którym pierwotnie wygenerowano lub zgromadzono dane, lub do krzywdzącego traktowania, które jest nieproporcjonalne lub nieuzasadnione w stosunku do wagi ich zachowań społecznych. Należy zatem zakazać systemów AI, w których stosuje się takie niedopuszczalne praktyki scoringu, które przynoszą takie krzywdzące lub niekorzystne wyniki. Zakaz ten nie powinien mieć wpływu na zgodne z prawem praktyki oceny osób fizycznych, które są stosowane w konkretnym celu zgodnie z prawem Unii i prawem krajowym.
(32)
Uporaba sistemov UI za biometrično identifikacijo fizičnih oseb na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj je posebej hudo poseganje v pravice in svoboščine zadevnih oseb, kolikor lahko vpliva na zasebno življenje velikega dela prebivalstva, vzbuja občutek stalnega nadzora ter posredno odvrača od uresničevanja svobode zbiranja in drugih temeljnih pravic. Tehnične netočnosti sistemov UI, namenjenih za biometrično identifikacijo fizičnih oseb na daljavo, lahko vodijo do pristranskih rezultatov in diskriminatornih učinkov. Takšni možni pristranski rezultati in diskriminatorni učinki so zlasti pomembni glede na starost, etnično pripadnost, raso, spol ali invalidnost. Poleg tega se zaradi takojšnjega učinka in omejenih možnosti za nadaljnja preverjanja ali popravke v zvezi z uporabo takih sistemov, ki delujejo v realnem času, povečujejo tveganja za pravice in svoboščine zadevnih oseb v okviru dejavnosti preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ali zaradi vpliva teh dejavnosti nanje.
(32)
Wykorzystanie systemów AI do zdalnej identyfikacji biometrycznej osób fizycznych w czasie rzeczywistym w przestrzeni publicznej w celu ścigania przestępstw szczególnie ingeruje w prawa i wolności zainteresowanych osób, do tego stopnia że może ono wpływać na życie prywatne dużej części społeczeństwa, wywoływać poczucie stałego nadzoru i pośrednio zniechęcać do korzystania z wolności zgromadzeń i innych praw podstawowych. Techniczne niedokładności systemów AI przeznaczonych do zdalnej identyfikacji biometrycznej osób fizycznych mogą prowadzić do nieobiektywnych wyników i wywoływać skutki w postaci dyskryminacji. Takie ewentualne nieobiektywne wyniki i skutki w postaci dyskryminacji są szczególnie istotne w odniesieniu do wieku, pochodzenia etnicznego, rasy, płci lub niepełnosprawności. Ponadto bezpośredniość oddziaływania i ograniczone możliwości późniejszej kontroli lub korekty wykorzystania takich systemów działających w czasie rzeczywistym niosą ze sobą zwiększone ryzyko dla praw i wolności osób zainteresowanych w związku z działaniami organów ścigania lub na które działania te miały wpływ.
(33)
Zato bi bilo treba prepovedati uporabo teh sistemov za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, razen v izrecno naštetih in ozko opredeljenih primerih, ko je uporaba nujno potrebna za dosego pomembnega javnega interesa, katerega pomen prevlada nad tveganji. Gre na primer za iskanje nekaterih žrtev kaznivih dejanj, vključno s pogrešanimi osebami, nekatere nevarnosti za življenje ali fizično varnost oseb ali varnost pred terorističnim napadom ter lokalizacijo ali identifikacijo storilcev ali osumljencev kaznivih dejanj, navedenih v prilogi k tej uredbi, kadar je za ta kazniva dejanja v zadevni državi članici predpisana zgornja meja zaporne kazni ali ukrepa, vezanega na odvzem prostosti, najmanj štiri leta in so v pravu te države članice opredeljena. Tak prag za zaporno kazen ali ukrep, vezan na odvzem prostosti, v skladu z nacionalnim pravom prispeva k zagotavljanju, da je kaznivo dejanje dovolj hudo, da bi lahko upravičilo uporabo sistemov za biometrično identifikacijo na daljavo v realnem času. Poleg tega seznam kaznivih dejanj iz priloge k tej uredbi temelji na 32 kaznivih dejanjih, naštetih v Okvirnem sklepu Sveta 2002/584/PNZ (18), ob upoštevanju, da so nekatera od teh kaznivih dejanj v praksi verjetno pomembnejša od drugih, saj bi bila lahko uporaba biometrične identifikacije na daljavo v realnem času predvidoma potrebna in sorazmerna v zelo različnem obsegu za praktično izvajanje lokalizacije ali identifikacije storilca ali osumljenca različnih navedenih kaznivih dejanj ter ob upoštevanju verjetnih razlik v resnosti, verjetnosti in obsegu škode ali morebitnih negativnih posledic. Neposredna grožnja za življenje ali fizično varnost fizičnih oseb bi tudi lahko bila posledica resne motnje v kritični infrastrukturi, kot je opredeljena v členu 2, točka 4, Direktive (EU) 2022/2557 Evropskega parlamenta in Sveta (19), kadar bi okvara ali uničenje take kritične infrastrukture povzročilo neposredno grožnjo za življenje ali fizično varnost osebe, med drugim tako, da bi močno škodilo zagotavljanju osnovne oskrbe prebivalstvu ali izvajanju temeljne funkcije države. Poleg tega bi morala ta uredba organom za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, organom mejne kontrole, organom, pristojnim za priseljevanje, ali azilnim organom še naprej omogočati izvajanje ugotavljanja identitete v prisotnosti zadevne osebe v skladu s pogoji, ki so za tako ugotavljanje določeni v pravu Unije in nacionalnem pravu. Predvsem bi morali imeti organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, organi mejne kontrole, organi, pristojni za priseljevanje, ali azilni organi možnost, da za identifikacijo oseb, ki med ugotavljanjem identitete tako ugotavljanje zavrnejo ali ne morejo navesti ali dokazati svoje identitete, uporabijo informacijske sisteme v skladu s pravom Unije ali nacionalnim pravom, ne da bi morali v skladu s to uredbo pridobiti predhodno dovoljenje. To bi bila lahko na primer oseba, vpletena v kaznivo dejanje, ki organom za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj ni pripravljena ali zaradi nesreče ali zdravstvenega stanja ne more razkriti svoje identitete.
(33)
Wykorzystanie tych systemów w celu ścigania przestępstw powinno zatem być zabronione, z wyjątkiem wyczerpującej listy wąsko zdefiniowanych sytuacji, w których wykorzystanie to jest bezwzględnie konieczne do realizacji istotnego interesu publicznego, którego waga przeważa nad ryzykiem. Sytuacje te obejmują poszukiwanie określonych ofiar przestępstw, w tym osób zaginionych; zapobieganie niektórym zagrożeniom życia lub bezpieczeństwa fizycznego osób fizycznych lub atakowi terrorystycznemu; oraz lokalizowanie lub identyfikowanie sprawców przestępstw lub podejrzanych o popełnienie przestępstw wymienionych w załączniku do niniejszego rozporządzenia, w przypadku gdy przestępstwa te podlegają w danym państwie członkowskim karze pozbawienia wolności lub środkowi polegającemu na pozbawieniu wolności przez okres, którego górna granica wynosi co najmniej cztery lata, zgodnie z ich definicją w prawie tego państwa członkowskiego. Taki próg kary pozbawienia wolności lub środka polegającego na pozbawieniu wolności zgodnie z prawem krajowym pozwala zapewnić, aby przestępstwo było na tyle poważne, by potencjalnie uzasadniać wykorzystanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym. Ponadto wykaz przestępstw przedstawiony w załączniku do niniejszego rozporządzenia opiera się na 32 przestępstwach wymienionych w decyzji ramowej Rady 2002/584/WSiSW (18), biorąc pod uwagę, że niektóre z tych przestępstw mogą w praktyce mieć większe znaczenie niż inne, ponieważ można przewidzieć, że korzystanie ze zdalnej identyfikacji biometrycznej w czasie rzeczywistym może być w bardzo różnym stopniu konieczne i proporcjonalne do praktycznych celów lokalizowania lub identyfikowania sprawcy poszczególnych wymienionych przestępstw lub podejrzanego o popełnienie tych przestępstw, przy uwzględnieniu prawdopodobnych różnic w odniesieniu do powagi, prawdopodobieństwa i skali szkody lub ewentualnych negatywnych konsekwencji. Bezpośrednie zagrożenie życia lub bezpieczeństwa fizycznego osób fizycznych może również wynikać z poważnego zakłócenia funkcjonowania infrastruktury krytycznej zdefiniowanej w art. 2 pkt 4 dyrektywy Parlamentu Europejskiego i Rady (UE) 2022/2557 (19), w przypadku gdy zakłócenie lub zniszczenie takiej infrastruktury krytycznej spowodowałoby bezpośrednie zagrożenie życia lub bezpieczeństwa fizycznego osoby, w tym poprzez poważną szkodę w dostarczaniu podstawowych dostaw dla ludności lub w wykonywaniu podstawowych funkcji państwa. Ponadto niniejsze rozporządzenie powinno utrzymać możliwość przeprowadzania przez organy ścigania, organy kontroli granicznej, organy imigracyjne lub organy azylowe kontroli tożsamości w obecności danej osoby zgodnie z warunkami określonymi w prawie Unii i prawie krajowym w odniesieniu do takich kontroli. W szczególności organy ścigania, organy kontroli granicznej, organy imigracyjne lub organy azylowe powinny mieć możliwość korzystania z systemów informacyjnych, zgodnie z prawem Unii lub prawem krajowym, w celu zidentyfikowania osób, które podczas kontroli tożsamości odmawiają identyfikacji lub nie są w stanie podać lub dowieść swojej tożsamości – bez konieczności uzyskiwania uprzedniego zezwolenia na podstawie niniejszego rozporządzenia. Może to na przykład dotyczyć osoby mającej związek z przestępstwem, która nie chce lub – w wyniku wypadku lub z powodu stanu zdrowia – nie jest w stanie ujawnić swojej tożsamości organom ścigania.
(34)
Za zagotovitev odgovorne in sorazmerne uporabe teh sistemov je pomembno tudi določiti, da bi bilo treba v vsakem od teh izrecno naštetih in ozko opredeljenih primerov upoštevati nekatere elemente, predvsem glede narave razmer, zaradi katerih je bila zahteva vložena, ter posledic uporabe za pravice in svoboščine vseh zadevnih oseb ter zaščitnih ukrepov in pogojev, predvidenih z uporabo. Poleg tega bi bilo treba uporabo sistemov za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj uporabljati le za potrditev identitete specifično ciljnega posameznika in bi morala biti omejena na to, kar je nujno potrebno za časovno obdobje ter geografsko in osebno področje uporabe, pri čemer je treba upoštevati zlasti dokaze ali znake v zvezi z grožnjami, žrtvami ali storilcem. Uporaba sistema za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih se dovoli le, če je ustrezni organ za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj opravil oceno učinka na temeljne pravice in, če v tej uredbi ni določeno drugače, sistem registriral v podatkovni zbirki, kot je določeno v tej uredbi. Referenčna podatkovna zbirka o osebah bi morala biti primerna za vsak primer uporabe v vsakem od navedenih primerov.
(34)
W celu zapewnienia, aby systemy te były wykorzystywane w sposób odpowiedzialny i proporcjonalny, należy również zastrzec, że w każdej z tych wąsko zdefiniowanych sytuacji z wyczerpującej listy należy uwzględniać pewne elementy, w szczególności charakter sytuacji, która skutkowała złożeniem wniosku, wpływ wykorzystania takich systemów na prawa i wolności wszystkich zainteresowanych osób, a także zabezpieczenia i warunki przewidziane na potrzeby wykorzystania takich systemów. Ponadto wykorzystanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej w celu ścigania przestępstw powinno mieć miejsce jedynie, by potwierdzić tożsamość konkretnej poszukiwanej osoby, i nie powinno wykraczać poza to, co jest bezwzględnie konieczne w odniesieniu do przedziału czasowego, a także zakresu geograficznego i podmiotowego, z uwzględnieniem w szczególności dowodów lub wskazówek dotyczących zagrożeń, ofiar lub sprawcy. Wykorzystanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej powinno być dozwolone tylko wtedy, gdy odpowiedni organ ścigania przeprowadził ocenę skutków dla praw podstawowych oraz, o ile niniejsze rozporządzenie nie stanowi inaczej, zarejestrował system w bazie danych, jak określono w niniejszym rozporządzeniu. Referencyjna baza danych osób powinna być odpowiednia dla każdego przypadku wykorzystania w każdej z wyżej wymienionych sytuacji.
(35)
Za vsako uporabo sistema za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj bi bilo treba pridobiti izrecno in posebno dovoljenje sodnega organa ali neodvisnega upravnega organa države članice, katerega odločitev je zavezujoča. Tako dovoljenje bi bilo treba načeloma pridobiti pred uporabo sistema UI za identifikacijo osebe ali oseb. Izjeme od tega pravila bi morale biti dovoljene v ustrezno utemeljenih nujnih primerih iz nujnih razlogov, tj. v primerih, ko je uporaba zadevnih sistemov potrebna do te mere, da je dejansko in objektivno nemogoče pridobiti dovoljenje pred začetkom uporabe sistema UI. V takih nujnih primerih bi bilo treba uporabo sistema UI omejiti na absolutni minimum, zanjo pa bi morali veljati ustrezni zaščitni ukrepi in pogoji, kot jih določa nacionalno pravo ter kot jih v okviru vsakega posameznega primera nujne uporabe določi organ za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj. Poleg tega bi moral organ za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj v takšnih primerih zaprositi za tako dovoljenje, hkrati pa navesti razloge, zakaj ga ni mogel zahtevati prej, brez nepotrebnega odlašanja in najpozneje v 24 urah. Če se tako dovoljenje zavrne, bi bilo treba takoj prenehati uporabljati sisteme za biometrično identifikacijo v realnem času, povezane s tem dovoljenjem, vse podatke, povezane s tako uporabo, pa bi bilo treba zavreči in izbrisati. Takšni podatki vključujejo vhodne podatke, ki jih sistem UI pridobi neposredno med uporabo takega sistema, ter rezultate in izhodne podatke uporabe, povezane s tem dovoljenjem. Ne bi smeli vključevati vhodnih podatkov, ki so zakonito pridobljeni v skladu z drugim pravom Unije ali nacionalnim pravom. V nobenem primeru odločitve, ki bi imela škodljiv pravni učinek na osebo, ne bi smeli sprejeti izključno na podlagi izhodnih podatkov sistema za biometrično identifikacijo na daljavo.
(35)
Każde wykorzystanie systemu zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej w celu ścigania przestępstw powinno wymagać wyraźnego i szczególnego zezwolenia wydanego przez organ wymiaru sprawiedliwości lub niezależny organ administracyjny państwa członkowskiego, którego decyzje są wiążące. Takie zezwolenie należy co do zasady uzyskać przed wykorzystaniem systemu AI w celu zidentyfikowania osoby lub osób. Wyjątki od tej zasady powinny być dozwolone w należycie uzasadnionych sytuacjach nadzwyczajnych, to znaczy w sytuacjach, w których potrzeba wykorzystania danego systemu jest na tyle duża, że uzyskanie zezwolenia przed rozpoczęciem korzystania z tego systemu AI jest faktycznie i obiektywnie niemożliwe. W takich sytuacjach nadzwyczajnych wykorzystanie systemu AI powinno być ograniczone do bezwzględnie niezbędnego minimum i powinno podlegać odpowiednim zabezpieczeniom i warunkom określonym w prawie krajowym i sprecyzowanym przez sam organ ścigania w kontekście każdego przypadku nadzwyczajnego wykorzystania. Ponadto organ ścigania powinien w takich sytuacjach wystąpić o takie zezwolenie, podając powody, dla których nie był w stanie wystąpić o nie wcześniej, bez zbędnej zwłoki i nie później niż w ciągu 24 godzin. W przypadku odmowy udzielenia takiego zezwolenia wykorzystywanie systemów identyfikacji biometrycznej w czasie rzeczywistym powiązanych z tym zezwoleniem powinno zostać wstrzymane ze skutkiem natychmiastowym, a wszystkie dane związane z takim wykorzystaniem powinny zostać odrzucone i usunięte. Dane takie obejmują dane wejściowe uzyskane bezpośrednio przez system AI w trakcie korzystania z takiego systemu, a także związane z tym zezwoleniem rezultaty i wyniki uzyskane podczas tego wykorzystania. Powyższe nie powinno mieć zastosowania do danych wejściowych uzyskanych legalnie zgodnie z innymi przepisami prawa Unii lub prawa krajowego. W każdym przypadku żadnej decyzji wywołującej niepożądane skutki prawne dla osoby nie należy podejmować wyłącznie na podstawie wyników uzyskanych z systemu zdalnej identyfikacji biometrycznej.
(36)
Da bi lahko ustrezni organ za nadzor trga in nacionalni organ za varstvo podatkov izvajala svoje naloge v skladu z zahtevami iz te uredbe in nacionalnih pravil, bi ju bilo treba obvestiti o vsaki uporabi sistema za biometrično identifikacijo v realnem času. Organi za nadzor trga in nacionalni organi za varstvo podatkov, ki so bili obveščeni, bi morali Komisiji predložiti letno poročilo o uporabi sistemov za biometrično identifikacijo v realnem času.
(36)
Aby umożliwić odpowiednim organom nadzoru rynku i krajowym organom ochrony danych wykonywanie ich zadań zgodnie z wymogami ustanowionymi w niniejszym rozporządzeniu oraz w przepisach krajowych, należy powiadamiać je o każdym wykorzystaniu systemu identyfikacji biometrycznej w czasie rzeczywistym. Organy nadzoru rynku i krajowe organy ochrony danych, które otrzymały powiadomienie, powinny przedkładać Komisji roczne sprawozdanie na temat wykorzystania systemów identyfikacji biometrycznej w czasie rzeczywistym.
(37)
Poleg tega je v izčrpnem okviru, določenem s to uredbo, primerno določiti, da bi morala biti taka uporaba na ozemlju države članice v skladu s to uredbo mogoča le, kadar in kolikor se je zadevna država članica odločila izrecno predvideti možnost odobritve take uporabe v svojih podrobnih pravilih nacionalnega prava. Zato imajo države članice na podlagi te uredbe še naprej pravico, da take možnosti sploh ne predvidijo ali da jo predvidijo le za nekatere cilje, ki lahko upravičijo dovoljeno uporabo, opredeljeno v tej uredbi. O takih nacionalnih predpisih bi bilo treba uradno obvestiti Komisijo v 30 dneh po njihovem sprejetju.
(37)
Ponadto należy zapewnić, z zastosowaniem wyczerpujących ram określonych w niniejszym rozporządzeniu, aby takie wykorzystanie na terytorium państwa członkowskiego zgodnie z niniejszym rozporządzeniem było możliwe tylko wówczas, gdy – i w zakresie, w jakim – dane państwo członkowskie postanowiło wyraźnie przewidzieć możliwość zezwolenia na takie wykorzystanie w swoich szczegółowych przepisach prawa krajowego. W związku z tym państwa członkowskie mogą na mocy niniejszego rozporządzenia w ogóle nie przewidywać takiej możliwości lub przewidzieć ją jedynie w odniesieniu do niektórych celów mogących uzasadniać dozwolone wykorzystanie, określonych w niniejszym rozporządzeniu. Komisja powinna zostać powiadomiona o takich przepisach krajowych w terminie 30 dni od ich przyjęcia.
(38)
Uporaba sistemov UI za biometrično identifikacijo fizičnih oseb na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj nujno vključuje obdelavo biometričnih podatkov. Pravila te uredbe, ki ob upoštevanju nekaterih izjem prepovedujejo tako uporabo, ki temelji na členu 16 PDEU, bi se morala uporabljati kot lex specialis v zvezi s pravili o obdelavi biometričnih podatkov iz člena 10 Direktive (EU) 2016/680, tako da bi izčrpno urejala tako uporabo in obdelavo zadevnih biometričnih podatkov. Zato bi morali biti taki uporaba in obdelava mogoči le, če sta združljivi z okvirom iz te uredbe, ne da bi zunaj tega okvira obstajalo področje uporabe za pristojne organe, kadar delujejo za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, za uporabo takih sistemov in obdelavo takih podatkov v zvezi z njimi na podlagi razlogov iz člena 10 Direktive (EU) 2016/680. V tem smislu ta uredba ni namenjena zagotavljanju pravne podlage za obdelavo osebnih podatkov na podlagi člena 8 Direktive (EU) 2016/680. Vendar uporaba sistemov za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene, ki niso preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, tudi s strani pristojnih organov, ne bi smela biti zajeta v posebni okvir v zvezi s tako uporabo za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, določene s to uredbo. Za tako uporabo za namene, ki niso preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, zato ne bi smela veljati zahteva po dovoljenju na podlagi te uredbe in veljavnimi podrobnimi pravili nacionalnega prava, na podlagi katerih se lahko to dovoljenje uveljavi.
(38)
Wykorzystanie systemów AI do zdalnej identyfikacji biometrycznej osób fizycznych w czasie rzeczywistym w przestrzeni publicznej w celu ścigania przestępstw nieuchronnie wiąże się z przetwarzaniem danych biometrycznych. Przepisy niniejszego rozporządzenia zakazujące, z zastrzeżeniem pewnych wyjątków, takiego wykorzystywania, a których podstawę stanowi art. 16 TFUE, powinny mieć zastosowanie jako lex specialis w odniesieniu do przepisów dotyczących przetwarzania danych biometrycznych zawartych w art. 10 dyrektywy (UE) 2016/680, regulując tym samym w sposób wyczerpujący takie wykorzystywanie i przetwarzanie wspomnianych danych biometrycznych. W związku z tym takie wykorzystywanie i przetwarzanie powinno być możliwe wyłącznie w zakresie, w jakim jest zgodne z ramami określonymi w niniejszym rozporządzeniu, przy czym wykorzystywanie takich systemów i przetwarzanie takich danych przez właściwe organy – gdy działają w celu ścigania przestępstw – w oparciu o przesłanki wymienione w art. 10 dyrektywy (UE) 2016/680 może mieć miejsce wyłącznie w granicach wyznaczonych przez te ramy. W tym kontekście niniejsze rozporządzenie nie ma na celu ustanowienia podstawy prawnej do przetwarzania danych osobowych na podstawie art. 8 dyrektywy (UE) 2016/680. Wykorzystywanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów innych niż ściganie przestępstw, w tym przez właściwe organy, nie powinno być jednak objęte szczególnymi ramami dotyczącymi takiego wykorzystywania w celu ścigania przestępstw, określonymi w niniejszym rozporządzeniu. Takie wykorzystywanie do celów innych niż ściganie przestępstw nie powinno zatem podlegać wymogowi uzyskania zezwolenia na mocy niniejszego rozporządzenia ani obowiązującym szczegółowym przepisom prawa krajowego, które mogą stanowić podstawę ubiegania się o takie zezwolenie.
(39)
Pri vsaki obdelavi biometričnih podatkov in drugih osebnih podatkov, vključenih v uporabo sistemov UI za biometrično identifikacijo, razen v povezavi z uporabo sistemov za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, kot jo ureja ta uredba, bi morale biti še naprej izpolnjene vse zahteve, ki izhajajo iz člena 10 Direktive (EU) 2016/680. Za namene, ki niso preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, člen 9(1) Uredbe (EU) 2016/679 in člen 10(1) Uredbe (EU) 2018/1725 prepovedujeta obdelavo biometričnih podatkov, za katere veljajo omejene izjeme, kot so določene v navedenih členih. Pri uporabi člena 9(1) Uredbe (EU) 2016/679 za uporabo biometrične identifikacije na daljavo za namene, ki niso preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, že veljajo odločitve o prepovedi s strani nacionalnih organov za varstvo podatkov.
(39)
Wszelkie przetwarzanie danych biometrycznych i innych danych osobowych związane z wykorzystaniem systemów AI do identyfikacji biometrycznej, inne niż w związku z wykorzystywaniem systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej w celu ścigania przestępstw zgodnie z przepisami niniejszego rozporządzenia, powinno pozostawać zgodne z wymogami wynikającymi z art. 10 dyrektywy (UE) 2016/680. Do celów innych niż ściganie przestępstw art. 9 ust. 1 rozporządzenia (UE) 2016/679 i art. 10 ust. 1 rozporządzenia (UE) 2018/1725 zakazują przetwarzania danych biometrycznych z uwzględnieniem ograniczonej liczby wyjątków określonych w tych artykułach. W ramach stosowania art. 9 ust. 1 rozporządzenia (UE) 2016/679 wykorzystywanie zdalnej identyfikacji biometrycznej do celów innych niż ściganie przestępstw było już przedmiotem decyzji zakazujących takiego wykorzystywania, wydawanych przez krajowe organy ochrony danych.
(40)
V skladu s členom 6a Protokola št. 21 o stališču Združenega kraljestva in Irske v zvezi z območjem svobode, varnosti in pravice, ki je priložen PEU in PDEU, pravila iz člena 5(1), prvi pododstavek, točka (g), kolikor se uporabljajo za uporabo sistemov biometrične kategorizacije za dejavnosti na področju policijskega in pravosodnega sodelovanja v kazenskih zadevah, iz člena 5(1), prvi pododstavek, točka (d), v obsegu, v katerem se uporablja za uporabo sistemov UI, zajetih v navedeni določbi, iz člena 5(1), prvi pododstavek, točka (h), 5(2) do (6) in iz člena 26(10) te uredbe, sprejeta na podlagi člena 16 PDEU, ki se nanašajo na obdelavo osebnih podatkov s strani držav članic, kadar izvajajo dejavnosti, ki spadajo na področje uporabe poglavja 4 ali 5 naslova V tretjega dela PDEU, za Irsko niso zavezujoča, če je ne zavezujejo pravila, ki urejajo oblike pravosodnega sodelovanja v kazenskih zadevah ali policijskega sodelovanja, v okviru katerih je treba upoštevati določbe predpisov, sprejetih na podlagi člena 16 PDEU.
(40)
Zgodnie z art. 6a Protokołu nr 21 w sprawie stanowiska Zjednoczonego Królestwa i Irlandii w odniesieniu do przestrzeni wolności, bezpieczeństwa i sprawiedliwości, załączonego do TUE i TFUE, Irlandia nie jest związana przepisami ustanowionymi w art. 5 ust. 1 akapit pierwszy lit. g) – w takim zakresie, w jakim dotyczy on wykorzystania systemów kategoryzacji biometrycznej w odniesieniu do działań w obszarze współpracy policyjnej i współpracy wymiarów sprawiedliwości w sprawach karnych, w art. 5 ust. 1 akapit pierwszy lit. d) – w takim zakresie, w jakim dotyczy on wykorzystania systemów AI objętych tym przepisem, w art. 5 ust. 1 akapit pierwszy lit. h), art. 5 ust. 2–6 i art. 26 ust. 10 niniejszego rozporządzenia przyjętymi na podstawie art. 16 TFUE, dotyczącymi przetwarzania danych osobowych przez państwa członkowskie w wykonywaniu działań wchodzących w zakres stosowania części trzeciej tytuł V rozdziały 4 lub 5 TFUE, jeśli Irlandia nie jest związana przepisami Unii w dziedzinie współpracy wymiarów sprawiedliwości w sprawach karnych lub współpracy policyjnej, w ramach której należy zapewnić zgodność z przepisami ustanowionymi na podstawie art. 16 TFUE.
(41)
V skladu s členoma 2 in 2a Protokola št. 22 o stališču Danske, ki je priložen PEU in PDEU, Danske ne zavezujejo in se zanjo ne uporabljajo pravila iz člena 5(1), prvi pododstavek, točka (g), kolikor se uporabljajo za uporabo sistemov biometrične kategorizacije za dejavnosti na področju policijskega in pravosodnega sodelovanja v kazenskih zadevah, iz člena 5(1), prvi pododstavek, točka (d), v obsegu, v katerem se uporabljata za uporabo sistemov UI, zajetih v navedeni določbi, iz člena 5(1), prvi pododstavek, točka (h), člena 5(2) do (6) in iz člena 26(10) te uredbe, sprejeta na podlagi člena 16 PDEU, ki se nanašajo na obdelavo osebnih podatkov s strani držav članic, kadar izvajajo dejavnosti, ki spadajo na področje uporabe poglavja 4 ali 5 naslova V tretjega dela PDEU.
(41)
Zgodnie z art. 2 i 2a Protokołu nr 22 w sprawie stanowiska Danii, załączonego do TUE i TFUE, Dania nie jest związana przepisami określonymi w art. 5 ust. 1 akapit pierwszy lit. g) – w takim zakresie, w jakim dotyczy on wykorzystania systemów kategoryzacji biometrycznej w odniesieniu do działań w obszarze współpracy policyjnej i współpracy wymiarów sprawiedliwości w sprawach karnych, w art. 5 ust. 1 akapit pierwszy lit. d) – w takim zakresie, w jakim dotyczy on wykorzystania systemów AI objętych tym przepisem, w art. 5 ust. 1 lit. h), art. 5 ust. 2–6 i art. 26 ust. 10 niniejszego rozporządzenia przyjętymi na podstawie art. 16 TFUE, które dotyczą przetwarzania danych osobowych przez państwa członkowskie w wykonywaniu działań wchodzących w zakres zastosowania części trzeciej tytuł V rozdziały 4 lub 5 TFUE, ani przepisy te nie mają do niej zastosowania.
(42)
V skladu z domnevo nedolžnosti bi bilo treba fizične osebe v Uniji zmeraj presojati glede na njihovo dejansko ravnanje. Nikoli jih ne bi smeli presojati na podlagi ravnanja, ki ga predvideva UI zgolj na podlagi njihovega oblikovanja profilov, osebnostnih lastnosti ali značilnosti, kot so državljanstvo, kraj rojstva, kraj prebivališča, število otrok, stopnja zadolženosti ali vrsta avtomobila, brez utemeljenih razlogov za sum, da je bila ta oseba vpletena v kriminalno dejavnost na podlagi objektivnih preverljivih dejstev in brez človeške ocene. Zato bi bilo treba prepovedati ocene tveganja, ki se izvajajo v zvezi s fizičnimi osebami, da se oceni verjetnost, da bodo te osebe storile kaznivo dejanje, ali da se predvidi dejansko ali potencialno kaznivo dejanje samo na podlagi oblikovanja profilov teh fizičnih oseb ali ocene njihovih osebnostnih lastnosti in značilnosti. V nobenem primeru ta prepoved ne vključuje ali se ne nanaša na analizo tveganja, ki ne temelji na oblikovanju profilov oseb ali na osebnostnih lastnostih in značilnostih posameznikov, kot so sistemi UI, ki uporabljajo analizo tveganja za oceno verjetnosti finančnih goljufij s strani podjetij na podlagi sumljivih transakcij ali orodij za analizo tveganja, ki omogočajo napovedovanje verjetnosti lokalizacije prepovedanih drog ali nezakonitega blaga s strani carinskih organov, na primer na podlagi znanih trgovskih poti.
(42)
Zgodnie z domniemaniem niewinności osoby fizyczne w Unii powinny być zawsze oceniane na podstawie ich faktycznego zachowania. Osoby fizyczne nigdy nie powinny być oceniane na podstawie zachowań prognozowanych przez AI wyłącznie na podstawie poddania ich profilowaniu, na podstawie ich cech osobowości lub cech charakterystycznych, takich jak narodowość, miejsce urodzenia, miejsce zamieszkania, liczba dzieci, poziom zadłużenia lub rodzaj samochodu, bez uzasadnionego podejrzenia, że osoba ta uczestniczy w działalności przestępczej w oparciu o obiektywne możliwe do zweryfikowania fakty i bez ich oceny przez człowieka. W związku z tym należy zakazać ocen ryzyka przeprowadzanych w odniesieniu do osób fizycznych w celu oceny prawdopodobieństwa popełnienia przez te osoby przestępstwa lub przewidywania wystąpienia faktycznego lub potencjalnego przestępstwa wyłącznie na podstawie przeprowadzonego wobec nich profilowania lub oceny ich cech osobistych i charakterystycznych. W każdym razie zakaz ten nie odnosi się do ani nie dotyczy analizy ryzyka, która nie opiera się na profilowaniu osób fizycznych ani na cechach osobistych i charakterystycznych osób fizycznych, w takich przypadkach jak wykorzystywanie przez systemy AI analizy ryzyka w celu oceny prawdopodobieństwa nadużyć finansowych przez przedsiębiorstwa na podstawie podejrzanych transakcji lub narzędzi analizy ryzyka w celu przewidywania przez organy celne prawdopodobnej lokalizacji środków odurzających lub nielegalnych towarów, na przykład na podstawie znanych szlaków przemytu.
(43)
Treba bi bilo prepovedati dajanje na trg, dajanje v uporabo za ta posebni namen ali uporabo sistemov UI, ki ustvarjajo ali širijo podatkovne zbirke za prepoznavanje obrazov z neciljnim odvzemom podob obraza z interneta ali posnetkov sistema CCTV, saj ta praksa prispeva k občutku množičnega nadzora in lahko povzroči hude kršitve temeljnih pravic, vključno s pravico do zasebnosti.
(43)
Należy zakazać wprowadzania do obrotu, oddawania do użytku w tym konkretnym celu lub wykorzystywania systemów AI, które tworzą lub rozbudowują bazy danych służące rozpoznawaniu twarzy poprzez nieukierunkowane pozyskiwanie (ang. untargeted scraping) wizerunków twarzy z internetu lub nagrań z telewizji przemysłowej, ponieważ praktyka ta zwiększa poczucie masowego nadzoru i może prowadzić do poważnych naruszeń praw podstawowych, w tym prawa do prywatności.
(44)
Obstajajo resni pomisleki glede znanstvene podlage sistemov UI, katerih namen je prepoznavanje čustev ali sklepanje o njih, zlasti zato, ker se izražanje čustev med kulturami in okoliščinami ter celo pri enem samem posamezniku zelo razlikuje. Med ključnimi pomanjkljivostmi takšnih sistemov so omejena zanesljivost, premajhna specifičnost in omejena možnost posplošitve. Zato lahko sistemi UI, ki prepoznavajo čustva ali namere fizičnih oseb na podlagi svojih biometričnih podatkov ali ki iz njih sklepajo, vodijo do diskriminatornih rezultatov ter posegajo v pravice in svoboščine zadevnih oseb. Glede na neravnovesje moči v kontekstu dela ali izobraževanja ter intruzivne narave teh sistemov bi lahko takšni sistemi povzročili škodljivo ali neugodno obravnavo nekaterih fizičnih oseb ali celotnih skupin fizičnih oseb. Zato bi bilo treba prepovedati dajanje na trg, dajanje v uporabo ali uporabo sistemov UI, namenjenih odkrivanju čustvenega stanja posameznikov v situacijah, povezanih z delovnim mestom in izobraževanjem. Ta prepoved ne bi smela zajemati sistemov UI, danih na trg izključno iz zdravstvenih ali varnostnih razlogov, kot so sistemi za terapevtsko uporabo.
(44)
Istnieją poważne obawy co do podstaw naukowych systemów AI mających na celu rozpoznawanie emocji lub wyciąganie wniosków na temat emocji, zwłaszcza że wyrażanie emocji znacznie się różni w zależności od kultur i sytuacji, a nawet w przypadku pojedynczej osoby. Wśród głównych wad takich systemów znajdują się ograniczona wiarygodność, nieprecyzyjność i ograniczona możliwość uogólnienia. W związku z tym systemy AI rozpoznające emocje lub zamiary osób fizycznych lub wyciągające wnioski na temat emocji lub zamiarów na podstawie danych biometrycznych tych osób mogą prowadzić do dyskryminacyjnych wyników i mogą naruszać prawa i wolności zainteresowanych osób. Biorąc pod uwagę brak równowagi sił w kontekście pracy lub edukacji, w połączeniu z inwazyjnym charakterem tych systemów, systemy takie mogą prowadzić do krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub całych ich grup. W związku z tym należy zakazać wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemów AI przeznaczonych do wykrywania stanu emocjonalnego osób fizycznych w sytuacjach związanych z miejscem pracy i edukacją. Zakaz ten nie powinien obejmować systemów AI wprowadzanych do obrotu wyłącznie ze względów medycznych lub bezpieczeństwa, takich jak systemy przeznaczone do użytku terapeutycznego.
(45)
Ta uredba ne bi smela vplivati na prakse, ki jih prepoveduje pravo Unije, vključno s pravom o varstvu podatkov, pravom o nediskriminaciji, pravom o varstvu potrošnikov in konkurenčnim pravom.
(45)
Niniejsze rozporządzenie nie powinno mieć wpływu na praktyki, które są zakazane na mocy prawa Unii, w tym prawa o ochronie danych, prawa o niedyskryminacji, prawa o ochronie konsumentów i prawa konkurencji.
(46)
Visokotvegane sisteme UI bi bilo treba dati na trg Unije ali v uporabo ali jih uporabiti le, če izpolnjujejo nekatere obvezne zahteve. Navedene zahteve bi morale zagotoviti, da visokotvegani sistemi UI, ki so na voljo v Uniji ali katerih izhodni podatki se drugače uporabljajo v Uniji, ne predstavljajo nesprejemljivega tveganja za pomembne javne interese Unije, kot jih priznava in varuje pravo Unije. Kot je pojasnjeno v obvestilu Komisije „Modri vodnik“ o izvajanju pravil EU o proizvodih iz leta 2022 (20), je na podlagi novega zakonodajnega okvira splošno pravilo, da se več kot en pravni akt harmonizacijske zakonodaje Unije, kot sta uredbi (EU) 2017/745 (21) in (EU) 2017/746 (22) Evropskega parlamenta in Sveta ter Direktiva 2006/42/ES Evropskega parlamenta in Sveta (23), lahko uporablja za en proizvod, saj se lahko omogočanje dostopnosti ali dajanje v uporabo izvede le, če je proizvod skladen z vso veljavno harmonizacijsko zakonodajo Unije. Da bi zagotovili doslednost in preprečili nepotrebna upravna bremena ali stroške, bi morali ponudnikom proizvoda, ki vsebuje enega ali več visokotveganih sistemov UI, za katere se uporabljajo zahteve iz te uredbe in harmonizacijske zakonodaje Unije iz priloge k tej uredbi, omogočiti prožnost glede operativnih odločitev o tem, kako na optimalen način zagotoviti skladnost proizvoda, ki vsebuje enega ali več sistemov UI, z vsemi veljavnimi zahtevami harmonizacijske zakonodaje Unije. Sistemi UI, opredeljeni kot visokotvegani, bi morali biti omejeni na tiste, ki imajo znaten škodljiv vpliv na zdravje, varnost in temeljne pravice oseb v Uniji, taka omejitev pa bi morala čim bolj zmanjšati morebitno omejevanje mednarodne trgovine.
(46)
Systemy AI wysokiego ryzyka powinny być wprowadzane do obrotu w Unii, oddawane do użytku lub wykorzystywane wyłącznie wówczas, gdy są zgodne z określonymi obowiązkowymi wymogami. Wymogi te powinny zapewniać, aby systemy AI wysokiego ryzyka dostępne w Unii lub takie, których wyniki są w inny sposób wykorzystywane w Unii, nie stwarzały niedopuszczalnego ryzyka dla istotnych interesów publicznych Unii uznanych w prawie Unii i przez to prawo chronionych. W oparciu o nowe ramy prawne, jak wyjaśniono w zawiadomieniu Komisji „Niebieski przewodnik – wdrażanie unijnych przepisów dotyczących produktów 2022” (20), ogólna zasada stanowi, że do jednego produktu można stosować więcej niż jeden akt prawny unijnego prawodawstwa harmonizacyjnego, taki jak rozporządzenie Parlamentu Europejskiego i Rady (UE) 2017/745 (21), rozporządzenie Parlamentu Europejskiego i Rady (UE) 2017/746 (22) lub dyrektywa 2006/42/WE Parlamentu Europejskiego i Rady (23), ponieważ udostępnianie lub oddawanie do użytku może mieć miejsce tylko wtedy, gdy produkt jest zgodny z całością obowiązującego unijnego prawodawstwa harmonizacyjnego. Aby zapewnić spójność i uniknąć niepotrzebnych obciążeń administracyjnych lub kosztów, dostawcy produktu, który zawiera co najmniej jeden system AI wysokiego ryzyka, do którego stosuje się wymogi niniejszego rozporządzenia oraz unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku do niniejszego rozporządzenia, powinni mieć swobodę w zakresie decyzji operacyjnych dotyczących sposobu zapewnienia w optymalny sposób zgodności produktu zawierającego co najmniej jeden system AI ze wszystkimi mającymi zastosowanie wymogami unijnego prawodawstwa harmonizacyjnego. Jako systemy AI wysokiego ryzyka należy uznawać jedynie te systemy AI, które mają znaczący szkodliwy wpływ na zdrowie, bezpieczeństwo i prawa podstawowe osób w Unii, przy czym takie ograniczenie powinno minimalizować wszelkie potencjalne przeszkody w handlu międzynarodowym.
(47)
Sistemi UI bi lahko imeli škodljiv učinek na zdravje in varnost ljudi, zlasti kadar taki sistemi delujejo kot varnostne komponente proizvodov. V skladu s cilji harmonizacijske zakonodaje Unije, da se olajša prosti pretok proizvodov na notranjem trgu ter zagotovi, da na trg pridejo le varni in skladni proizvodi, je pomembno, da se ustrezno preprečijo in zmanjšajo varnostna tveganja, ki jih lahko povzroči proizvod kot celota zaradi svojih digitalnih komponent, vključno s sistemi UI. Vse bolj avtonomni roboti, ki se uporabljajo v proizvodnji ali za osebno pomoč in oskrbo, bi morali biti na primer sposobni varno delovati in opravljati svoje funkcije v kompleksnih okoljih. Podobno bi morali biti v zdravstvenem sektorju, v katerem je tveganje za življenje in zdravje še posebej veliko, vse bolj izpopolnjeni diagnostični sistemi in sistemi, ki podpirajo človeške odločitve, zanesljivi in točni.
(47)
Systemy AI mogą mieć niepożądany wpływ na zdrowie i bezpieczeństwo osób, w szczególności w przypadku gdy takie systemy funkcjonują jako związane z bezpieczeństwem elementy produktów. Zgodnie z celami unijnego prawodawstwa harmonizacyjnego, polegającymi na ułatwieniu swobodnego przepływu produktów na rynku wewnętrznym oraz zapewnieniu, aby na rynek trafiały wyłącznie produkty bezpieczne i zgodne w pozostałym zakresie, istotne jest odpowiednie zapobieganie ryzyku dla bezpieczeństwa, które mogą być powodowane przez produkt jako całość ze względu na jego elementy cyfrowe, w tym systemy AI, a także ograniczanie tych zagrożeń. Na przykład coraz bardziej autonomiczne roboty, zarówno w kontekście działalności produkcyjnej, jak i świadczenia pomocy oraz opieki osobistej, powinny być w stanie bezpiecznie funkcjonować i wykonywać swoje funkcje w złożonych środowiskach. Podobnie w sektorze opieki zdrowotnej, w którym chodzi o szczególnie wysoką stawkę, jaką jest życie i zdrowie, coraz bardziej zaawansowane systemy diagnostyczne i systemy wspomagające decyzje podejmowane przez człowieka powinny być niezawodne i dokładne.
(48)
Pri razvrstitvi sistema UI med sisteme visokega tveganja je zlasti pomemben obseg škodljivega vpliva sistema UI na temeljne pravice, varovane z Listino. Te pravice vključujejo pravico do človekovega dostojanstva, spoštovanja zasebnega in družinskega življenja, varstvo osebnih podatkov, svobodo izražanja in obveščanja, svobodo zbiranja in združevanja, pravico do nediskriminacije, pravico do izobraževanja, varstvo potrošnikov, pravice delavcev, pravice invalidov, enakost spolov, pravice intelektualne lastnine, pravico do učinkovitega pravnega sredstva in nepristranskega sodišča, pravico do obrambe in domneve nedolžnosti ter pravico do dobrega upravljanja. Poleg teh pravic je treba poudariti tudi dejstvo, da imajo otroci posebne pravice, zapisane v členu 24 Listine in v Konvenciji Združenih narodov o otrokovih pravicah (v zvezi z digitalnim okoljem ter podrobneje opredeljene v splošni pripombi št. 25 KZNOP), ki zahtevata upoštevanje šibkih točk otrok ter zagotavljanje zaščite in varstva, ki sta potrebna za njihovo dobro počutje. Pri ocenjevanju resnosti škode, ki jo lahko povzroči sistem UI, je treba upoštevati tudi temeljno pravico do visoke ravni varstva okolja, ki je zapisana v Listini in se izvaja v politikah Unije, tudi v zvezi z zdravjem in varnostjo oseb.
(48)
Przy klasyfikowaniu systemu AI jako systemu wysokiego ryzyka zasadnicze znaczenie ma to, w jakim stopniu system AI wywiera niepożądany wpływ na prawa podstawowe chronione na mocy Karty. Do praw tych należą prawo do godności człowieka, poszanowanie życia prywatnego i rodzinnego, ochrona danych osobowych, wolność wypowiedzi i informacji, wolność zgromadzania się i stowarzyszania się oraz prawo do niedyskryminacji, prawo do edukacji, ochrona konsumentów, prawa pracownicze, prawa osób z niepełnosprawnościami, równość płci, prawa własności intelektualnej, prawo do skutecznego środka prawnego i dostępu do bezstronnego sądu, prawo do obrony i domniemania niewinności, a także prawo do dobrej administracji. Oprócz tych praw należy podkreślić, że dzieciom przysługują szczególne prawa zapisane w art. 24 Karty oraz w Konwencji ONZ o prawach dziecka, szerzej rozwinięte w komentarzu ogólnym nr 25 w sprawie praw dziecka w środowisku cyfrowym zamieszczony w Konwencji ONZ o prawach dziecka, które to prawa wymagają uwzględnienia szczególnej wrażliwości dzieci oraz zapewnienia im takiej ochrony i opieki, jaka jest konieczna dla ich dobra. Podstawowe prawo do wysokiego poziomu ochrony środowiska zapisane w Karcie i wdrażane w strategiach politycznych Unii również należy uwzględnić w ocenie dotkliwości szkody, jaką może wyrządzić system AI, w tym w odniesieniu do zdrowia i bezpieczeństwa osób.
(49)
Kar zadeva visokotvegane sisteme UI, ki so varnostne komponente proizvodov ali sistemov ali so sami proizvodi ali sistemi, ki spadajo na področje uporabe Uredbe (ES) št. 300/2008 Evropskega parlamenta in Sveta (24), Uredbe (EU) št. 167/2013 Evropskega parlamenta in Sveta (25), Uredbe (EU) št. 168/2013 Evropskega parlamenta in Sveta (26), Direktive 2014/90/EU Evropskega parlamenta in Sveta (27), Direktive (EU) 2016/797 Evropskega parlamenta in Sveta (28), Uredbe (EU) 2018/858 Evropskega parlamenta in Sveta (29), Uredbe (EU) 2018/1139 Evropskega parlamenta in Sveta (30) ter Uredbe (EU) 2019/2144 Evropskega parlamenta in Sveta (31), je primerno spremeniti navedene akte, da bi zagotovili, da Komisija na podlagi tehničnih in regulativnih posebnosti vsakega sektorja ter brez poseganja v obstoječe mehanizme upravljanja, ugotavljanja skladnosti in izvrševanja ter delo organov, določenih v njih, pri sprejemanju ustreznih delegiranih ali izvedbenih aktov v skladu z navedenimi akti upošteva obvezne zahteve za visokotvegane sisteme UI iz te uredbe.
(49)
W odniesieniu do systemów AI wysokiego ryzyka, które są związanymi z bezpieczeństwem elementami produktów lub systemów objętych zakresem stosowania rozporządzenia Parlamentu Europejskiego i Rady (WE) nr 300/2008 (24), rozporządzenia Parlamentu Europejskiego i Rady (UE) nr 167/2013 (25), rozporządzenia Parlamentu Europejskiego i Rady (UE) nr 168/2013 (26), dyrektywy Parlamentu Europejskiego i Rady 2014/90/UE (27), dyrektywy Parlamentu Europejskiego i Rady (UE) 2016/797 (28), rozporządzenia Parlamentu Europejskiego i Rady (UE) 2018/858 (29), rozporządzenia Parlamentu Europejskiego i Rady (UE) 2018/1139 (30) oraz rozporządzenia Parlamentu Europejskiego i Rady (UE) 2019/2144 (31) lub które same są takimi produktami lub systemami, wskazane jest dokonanie zmian tych aktów w celu zapewnienia, aby Komisja, przyjmując wszelkie stosowne akty delegowane lub wykonawcze na podstawie wspomnianych aktów, uwzględniła – w oparciu o techniczną i regulacyjną charakterystykę każdego sektora oraz bez ingerowania w istniejące mechanizmy zarządzania, oceny zgodności i egzekwowania oraz w powołane na mocy tych aktów organy – obowiązkowe wymogi dotyczące systemów AI wysokiego ryzyka ustanowione w niniejszym rozporządzeniu.
(50)
Kar zadeva sisteme UI, ki so varnostne komponente proizvodov ali so sami proizvodi s področja uporabe določene harmonizacijske zakonodaje Unije, navedene v prilogi k tej uredbi, jih je primerno na podlagi te uredbe razvrstiti med sisteme visokega tveganja, če je zadevni proizvod v postopku ugotavljanja skladnosti pri organu, ki izvaja ugotavljanje skladnosti s strani tretjih oseb na podlagi ustrezne harmonizacijske zakonodaje Unije. Taki proizvodi so zlasti stroji, igrače, dvigala, oprema in zaščitni sistemi za uporabo v potencialno eksplozivnih atmosferah, radijska oprema, tlačna oprema, oprema za plovila za rekreacijo, žičniške naprave, naprave, v katerih zgoreva plinasto gorivo, medicinski pripomočki in vitro diagnostični medicinski pripomočki, avtomobili in letala.
(50)
W przypadku systemów AI, które są związanymi z bezpieczeństwem elementami produktów objętych zakresem stosowania niektórych przepisów unijnego prawodawstwa harmonizacyjnego wymienionych w załączniku do niemniejszego rozporządzenia lub które same są takimi produktami, systemy te należy klasyfikować jako systemy wysokiego ryzyka zgodnie z niniejszym rozporządzeniem, jeżeli dany produkt jest poddawany procedurze oceny zgodności przez jednostkę oceniającą zgodność będącą stroną trzecią na podstawie tych stosownych przepisów unijnego prawodawstwa harmonizacyjnego. W szczególności produktami takimi są maszyny, zabawki, dźwigi, urządzenia i systemy ochronne przeznaczone do użytku w atmosferze potencjalnie wybuchowej, urządzenia radiowe, urządzenia ciśnieniowe, wyposażenie rekreacyjnych jednostek pływających, urządzenia kolei linowych, urządzenia spalające paliwa gazowe, wyroby medyczne, wyroby medyczne do diagnostyki in vitro, motoryzacja i lotnictwo.
(51)
Razvrstitev sistema UI kot visokotveganega na podlagi te uredbe ne bi smela nujno pomeniti, da se proizvod, katerega varnostna komponenta je sistem UI, ali sam sistem UI kot proizvod šteje za visokotvegan na podlagi meril iz ustrezne harmonizacijske zakonodaje Unije, ki se uporablja za proizvod. To zlasti velja za uredbi (EU) 2017/745 in (EU) 2017/746, pri katerih je ugotavljanje skladnosti, ki ga opravi tretja oseba, zagotovljeno za izdelke srednjega in visokega tveganja.
(51)
Klasyfikacja systemu AI jako systemu wysokiego ryzyka na podstawie niniejszego rozporządzenia nie powinna koniecznie oznaczać, że produkt, którego związanym z bezpieczeństwem elementem jest system AI, lub sam system AI jako produkt uznaje się za produkt „wysokiego ryzyka” zgodnie z kryteriami ustanowionymi w stosownym unijnym prawodawstwie harmonizacyjnym, które stosuje się do tego produktu. Dotyczy to w szczególności rozporządzeń (UE) 2017/745 i (UE) 2017/746, w przypadku gdy ocenę zgodności przeprowadza strona trzecia w odniesieniu do produktów średniego i wysokiego ryzyka.
(52)
Kar zadeva samostojne sisteme UI in zlasti visokotvegane sisteme UI, razen tistih, ki so varnostne komponente proizvodov ali ki so sami proizvodi, jih je primerno razvrstiti kot sisteme visokega tveganja, če glede na svoj predvideni namen predstavljajo visoko tveganje škode za zdravje in varnost ali temeljne pravice oseb, ob upoštevanju resnosti možne škode in verjetnosti njenega nastanka, ter se uporabljajo na več posebej vnaprej opredeljenih področjih, določenih v Uredbi. Opredelitev teh sistemov temelji na isti metodologiji in merilih, kot so predvideni tudi za morebitne prihodnje spremembe seznama visokotveganih sistemov UI, za katere bi bilo treba Komisijo pooblastiti, da jih sprejme z delegiranimi akti, da bi upoštevali hiter tehnološki razvoj in morebitne spremembe v uporabi sistemov UI.
(52)
W odniesieniu do samodzielnych systemów AI, a mianowicie systemów AI wysokiego ryzyka inne niż te, które są związanymi z bezpieczeństwem elementami produktów lub które same są produktami, należy je klasyfikować jako systemy wysokiego ryzyka, jeżeli w związku z ich przeznaczeniem stwarzają one wysokie ryzyko szkody dla zdrowia i bezpieczeństwa lub praw podstawowych osób, biorąc pod uwagę zarówno dotkliwość potencjalnych szkód, jak i prawdopodobieństwo ich wystąpienia, oraz jeżeli są one wykorzystywane w szeregu ściśle określonych z góry obszarów wskazanych w niniejszym rozporządzeniu. Identyfikacja tych systemów opiera się na tej samej metodyce i kryteriach przewidzianych również w odniesieniu do wszelkich przyszłych zmian w wykazie systemów AI wysokiego ryzyka, do przyjmowania których – w drodze aktów delegowanych – powinna być uprawniona Komisja, aby uwzględniać szybkie tempo rozwoju technologicznego, a także potencjalne zmiany w wykorzystaniu systemów AI.
(53)
Treba je tudi pojasniti, da lahko obstajajo posebni primeri, v katerih sistemi UI, ki se nanašajo na vnaprej določena področja, navedena v tej uredbi, ne povzročajo znatnega tveganja škode za pravne interese, zaščitene na teh področjih, ker ne vplivajo bistveno na odločanje ali ne škodujejo bistveno tem interesom. Za namene te uredbe bi bilo treba sistem UI, ki ne vpliva bistveno na izid odločanja, razumeti kot sistem UI, ki ne vpliva na vsebino in s tem na rezultat odločanja, bodisi človeškega ali avtomatiziranega. Sistem UI, ki ne vpliva bistveno na izid odločanja, bi lahko vključeval primere, v katerih je izpolnjen eden ali več naslednjih pogojev. Prvi tak pogoj bi moral biti, da je sistem UI namenjen opravljanju ozke postopkovne naloge, kot je sistem UI, ki nestrukturirane podatke pretvori v strukturirane podatke, sistem UI, ki prejete dokumente razvršča v kategorije, ali sistem UI, ki se uporablja za odkrivanje duplikatov v številnih aplikacijah. Te naloge so tako ozke in omejene, da predstavljajo le omejena tveganja, ki se z uporabo sistema UI v okviru, ki je v prilogi k tej uredbi naveden kot uporaba, povezana z visokim tveganjem, ne povečajo. Drugi pogoj bi moral biti, da je namen naloge, ki jo opravlja sistem UI, izboljšati rezultat predhodno zaključene človeške dejavnosti, ki bi lahko bila pomembna za namene visokotvegane uporabe, navedene v prilogi k tej uredbi. Glede na te značilnosti sistem UI zagotavlja le dodatno plast človeške dejavnosti s posledično manjšim tveganjem. Ta pogoj bi se na primer uporabljal za sisteme UI, katerih namen je izboljšati jezik, ki se uporablja v predhodno pripravljenih dokumentih, na primer v zvezi s poklicnim tonom, akademskim slogom jezika ali uskladitvijo besedila s sporočili določene blagovne znamke. Tretji pogoj bi moral biti, da je sistem UI namenjen odkrivanju vzorcev odločanja ali odstopanj od vzorcev predhodnega odločanja. Tveganje bi se zmanjšalo, ker uporaba sistema UI sledi predhodno opravljeni človeški oceni in ni namenjena temu, da bi jo nadomestila ali nanjo vplivala brez ustreznega človeškega pregleda. Takšni sistemi UI vključujejo na primer sisteme, ki se lahko glede na določen vzorec, po katerem neki učitelj ocenjuje, uporabijo za naknadno preverjanje, ali je učitelj morda odstopal od tega vzorca, da bi opozorili na morebitne nedoslednosti ali nepravilnosti. Četrti pogoj bi moral biti, da je sistem UI namenjen opravljanju naloge, ki je le pripravljalna za oceno, relevantno za namene sistemov UI, navedenih v prilogi k tej uredbi, s čimer bi bil morebitni učinek izhodnih podatkov sistema zelo majhen v smislu tveganja, ki ga je treba upoštevati pri oceni. Ta pogoj med drugim zajema pametne rešitve za ravnanje z datotekami, ki vključujejo različne funkcije, kot so indeksiranje, iskanje, obdelava besedil in govora ali povezovanje podatkov z drugimi viri podatkov, ali sisteme UI, ki se uporabljajo za prevajanje prvotnih dokumentov. V vsakem primeru bi bilo treba šteti, da sistemi UI, ki se uporabljajo v primerih uporabe visokega tveganja, navedeni v prilogi k tej uredbi, predstavljajo znatno tveganje škode za zdravje, varnost ali temeljne pravice, če sistem UI vključuje oblikovanje profilov v smislu člena 4, točka 4, Uredbe (EU) 2016/679 ali člena 3, točka 4, Direktive (EU) 2016/680 ali člena 3, točka 5, Uredbe (EU) 2018/1725. Da bi zagotovili sledljivosti in preglednost, bi moral ponudnik, ki meni, da sistem UI na podlagi zgoraj navedenih pogojev ne predstavlja visokega tveganja, pripraviti dokumentacijo o oceni, preden se ta sistem da na trg ali v uporabo, in bi moral to dokumentacijo na zahtevo predložiti pristojnim nacionalnim organom. Takšen ponudnik bi moral sistem UI registrirati v podatkovni zbirki EU, vzpostavljeni s to uredbo. Da bi zagotovili dodatne smernice za praktično izvajanje pogojev, pod katerimi sistemi UI navedeni v prilogi k tej uredbi, izjemoma ne predstavljajo visokega tveganja, bi morala Komisija po posvetovanju z Odborom zagotoviti smernice, v katerih bi bilo določeno, da se praktično izvajanje dopolni s celovitim seznamom praktičnih primerov uporabe visoko tveganih sistemov UI in sistemov UI, ki to niso.
(53)
Ważne jest również wyjaśnienie, że mogą istnieć szczególne przypadki, w których systemy AI odnoszące się do z góry określonych obszarów wskazanych w niniejszym rozporządzeniu nie prowadzą do znaczącego ryzyka szkody dla interesów prawnych chronionych w tych obszarach, ponieważ nie mają istotnego wpływu na proces decyzyjny lub nie szkodzą tym interesom w istotny sposób. Do celów niniejszego rozporządzenia system AI, który nie ma istotnego wpływu na wynik procesu decyzyjnego, należy rozumieć jako system AI, który nie ma wpływu na istotę, a tym samym na wynik procesu decyzyjnego, zarówno przeprowadzanego przez człowieka, jak i w sposób zautomatyzowany. System AI, który nie ma istotnego wpływu na wynik procesu decyzyjnego, może obejmować sytuacje, w których spełniony jest co najmniej jeden z poniższych warunków. Pierwszym takim warunkiem powinno być to, aby system AI miał na celu wykonywanie wąsko określonych zadań proceduralnych – jak np. system AI, który przekształca nieustrukturyzowane dane w dane ustrukturyzowane, system AI kategoryzujący przychodzące dokumenty lub system AI wykorzystywany do wykrywania duplikatów w dużej liczbie zastosowań. Zadania te mają tak wąski i ograniczony charakter, że stwarzają jedynie ograniczone ryzyko, które nie wzrasta w wyniku wykorzystania systemu AI w kontekście wymienionym w wykazie przypadków wykorzystania wysokiego ryzyka zamieszczonym w załączniku do niniejszego rozporządzenia. Drugim warunkiem powinno być to, aby zadanie wykonywane przez system AI miało na celu poprawę wyników już zakończonego działania przeprowadzonego przez człowieka, które może być istotne w kontekście celów przypadków wykorzystania wysokiego ryzyka, wymienionych w załączniku do niniejszego rozporządzenia. Biorąc pod uwagę te cechy, system AI uzupełnia jedynie działanie człowieka, co w konsekwencji wiąże się z niższym ryzykiem. Warunek ten miałby zastosowanie na przykład do systemów AI, które mają na celu językową korektę przygotowanych wcześniej dokumentów, na przykład by wprowadzić profesjonalny ton, styl akademicki lub by dostosować tekst do określonego przekazu marki. Trzecim warunkiem powinno być to, aby system AI miał na celu wykrywanie wzorców podejmowania decyzji lub odstępstw od wzorców podjętych uprzednio decyzji. W tym przypadku ryzyko byłoby mniejsze, ponieważ system AI wykorzystuje się po przeprowadzeniu oceny przez człowieka i nie służy on temu, by ją zastąpić lub na nią wpłynąć bez przeprowadzenia właściwej weryfikacji przez człowieka. Takie systemy AI obejmują na przykład te, które – uwzględniając określony wzorzec oceniania stosowany przez nauczyciela – mogą być wykorzystywane ex post, by sprawdzić, czy nauczyciel nie odszedł od stosowanego wzorca, i w ten sposób wskazać potencjalne niespójności lub nieprawidłowości. Czwartym warunkiem powinno być to, by system AI był przeznaczony jedynie do wykonywania zadań przygotowawczych w kontekście oceny istotnej z punktu widzenia systemów AI wymienionych w załączniku do niniejszego rozporządzenia, co sprawi, że podczas mającej nastąpić oceny prawdopodobieństwo stwierdzenia ryzyka w kontekście wyników systemu będzie bardzo niskie. Mowa tu między innymi o inteligentnych rozwiązaniach w zakresie zarządzania plikami, które obejmują różne funkcje, takie jak indeksowanie, przeszukiwanie, przetwarzanie tekstów i mowy lub łączenie danych z innymi źródłami danych, lub o systemach AI wykorzystywanych do tłumaczenia dokumentów wstępnych. W każdym przypadku systemy AI wykorzystywane w przypadkach wykorzystania wysokiego ryzyka, wymienionych w załączniku do niniejszego rozporządzenia, należy uznać za stwarzające znaczące ryzyko szkody dla zdrowia, bezpieczeństwa lub praw podstawowych, jeżeli dany system AI wiąże się z profilowaniem w rozumieniu art. 4 pkt 4 rozporządzenia (UE) 2016/679 lub art. 3 pkt 4 dyrektywy (UE) 2016/680 lub art. 3 pkt 5 rozporządzenia (UE) 2018/1725. Aby zapewnić identyfikowalność i przejrzystość, dostawca, który na podstawie warunków, o których mowa powyżej, uważa, że system AI nie jest systemem wysokiego ryzyka, powinien sporządzić dokumentację oceny przed wprowadzeniem tego systemu do obrotu lub oddaniem go do użytku i przekazać tę dokumentację na wniosek właściwym organom krajowym. Taki dostawca powinien być zobowiązany do zarejestrowania systemu AI w bazie danych UE ustanowionej na mocy niniejszego rozporządzenia. By zapewnić dalsze wskazówki dotyczące praktycznego wdrażania warunków, na jakich systemy AI wymienione w załączniku do niniejszego rozporządzenia są, w drodze wyjątku, uznawane za niebędące systemami wysokiego ryzyka, Komisja powinna, po konsultacji z Radą ds. AI, przedstawić wytyczne w sprawie tego praktycznego wdrażania, uzupełnione wyczerpującym wykazem praktycznych przypadków wykorzystania systemów AI, które stanowią przypadki wykorzystania wysokiego ryzyka oraz które nie stanowią przypadków takiego wykorzystania.
(54)
Ker so biometrični podatki posebna kategorija osebnih podatkov, je primerno, da se več kritičnih primerov uporabe biometričnih sistemov razvrsti kot visokotvegane, če je njihova uporaba dovoljena na podlagi ustreznega prava Unije in nacionalnega prava. Tehnične netočnosti sistemov UI, namenjenih za biometrično identifikacijo fizičnih oseb na daljavo, lahko vodijo do pristranskih rezultatov in diskriminatornih učinkov. Tveganje takšnih pristranskih rezultatov in diskriminatornih učinkov je zlasti pomembno v zvezi s starostjo, etnično pripadnostjo, raso, spolom ali invalidnostjo. Glede na tveganja, ki jih predstavljajo sistemi za biometrično identifikacijo na daljavo, bi jih bilo treba razvrstiti kot sisteme visokega tveganja. Takšna razvrstitev izključuje sisteme UI za biometrično preverjanje, tudi avtentikacijo, katerih edini namen je potrditi, da je določena fizična oseba res ta, za katero se predstavlja, in potrditi identiteto fizične osebe izključno zaradi dostopa do storitve, odklepanja naprave ali varnega dostopa do prostorov. Poleg tega bi bilo kot sisteme visokega tveganja treba razvrstiti sisteme UI, namenjene uporabi za biometrično kategorizacijo v skladu z občutljivimi lastnostmi ali značilnostmi, zaščitenimi na podlagi člena 9(1) Uredbe (EU) 2016/679 na podlagi biometričnih podatkov, če ti niso prepovedani s to uredbo, in sisteme za prepoznavanje čustev, ki niso prepovedani s to uredbo. Biometrični sistemi, ki naj bi se uporabljali izključno za omogočanje ukrepov za kibernetsko varnost in varstvo osebnih podatkov, ne bi smeli šteti za visokotvegane sisteme UI.
(54)
Ponieważ dane biometryczne stanowią szczególną kategorię danych osobowych, kilka krytycznych przypadków wykorzystania systemów biometrycznych należy zaklasyfikować jako obarczone wysokim ryzykiem, o ile ich wykorzystywanie jest dozwolone na mocy odpowiednich przepisów prawa Unii i prawa krajowego. Techniczne niedokładności systemów AI przeznaczonych do zdalnej identyfikacji biometrycznej osób fizycznych mogą prowadzić do nieobiektywnych wyników i wywoływać skutki w postaci dyskryminacji. Ryzyko wystąpienia takich nieobiektywnych wyników i skutków w postaci dyskryminacji jest szczególnie istotne w odniesieniu do wieku, pochodzenia etnicznego, rasy, płci lub niepełnosprawności. Systemy zdalnej identyfikacji biometrycznej należy zatem zaklasyfikować jako systemy wysokiego ryzyka ze względu na ryzyko, jakie stwarzają. Do tej kategorii nie należą systemy AI przeznaczone do weryfikacji biometrycznej, w tym uwierzytelniania, prowadzonej jedynie w celu potwierdzenia, że dana osoba fizyczna jest tą osobą, za którą się podaje, oraz potwierdzenia tożsamości osoby fizycznej wyłącznie w celu uzyskania dostępu do usługi, uruchomienia urządzenia lub uzyskania bezpiecznego dostępu do pomieszczeń. Ponadto jako systemy wysokiego ryzyka należy zaklasyfikować systemy AI przeznaczone do kategoryzacji biometrycznej na podstawie danych biometrycznych według wrażliwych atrybutów lub cech chronionych na podstawie art. 9 ust. 1 rozporządzenia (UE) 2016/679, o ile nie są one zakazane na mocy niniejszego rozporządzenia, oraz systemy rozpoznawania emocji, które nie są zakazane na mocy niniejszego rozporządzenia. Za systemy AI wysokiego ryzyka nie należy uznawać systemów biometrycznych, które są przeznaczone wyłącznie do tego, by umożliwić stosowanie środków na rzecz cyberbezpieczeństwa i ochrony danych osobowych.
(55)
V zvezi z upravljanjem in delovanjem kritične infrastrukture je primerno, da se sistemi UI, namenjeni uporabi kot varnostne komponente pri upravljanju in delovanju kritične digitalne infrastrukture, navedene v točki 8 iz Priloge k Direktivi (EU) 2022/2557, cestnega prometa ter oskrbi z vodo, plinom, ogrevanjem in električno energijo, razvrstijo kot sistemi visokega tveganja, saj lahko njihovo nedelovanje ali okvara delovanja ogrožajo življenje in zdravje ljudi v velikem obsegu ter povzročijo občutne motnje v rednem izvajanju družbenih in gospodarskih dejavnosti. Varnostne komponente kritične infrastrukture, vključno s kritično digitalno infrastrukturo, so sistemi, ki se uporabljajo za neposredno zaščito fizične celovitosti kritične infrastrukture ali zdravja in varnosti oseb in premoženja, vendar niso potrebne za delovanje sistema. Nedelovanje ali okvara takih komponent bi lahko povzročila neposredno tveganje za fizično celovitost kritične infrastrukture ter posledično tveganje za zdravje in varnost oseb in premoženja. Komponente, namenjene izključno za uporabo v namene kibernetske varnosti, ne bi smele šteti za varnostne komponente. Primeri varnostnih komponent takšne kritične infrastrukture lahko vključujejo sisteme za spremljanje vodnega tlaka ali sisteme za upravljanje požarnega alarma v okviru centrov računalništva v oblaku.
(55)
W odniesieniu do zarządzania infrastrukturą krytyczną i jej działania jako systemy wysokiego ryzyka należy klasyfikować systemy AI, które są przeznaczone do wykorzystania jako związane z bezpieczeństwem elementy procesów zarządzania i działania w przypadku krytycznej infrastruktury cyfrowej wymienionej w pkt 8 załącznika do dyrektywy (UE) 2022/2557, ruchu drogowego i zaopatrzenia w wodę, gaz, ciepło i energię elektryczną, ponieważ ich awaria lub nieprawidłowe działanie mogą stworzyć ryzyko dla życia i zdrowia osób na dużą skalę i prowadzić do znacznych zakłóceń w zwykłym prowadzeniu działalności społecznej i gospodarczej. Związane z bezpieczeństwem elementy infrastruktury krytycznej, w tym krytycznej infrastruktury cyfrowej, to systemy, które są wykorzystywane do bezpośredniej ochrony fizycznej integralności infrastruktury krytycznej lub zdrowia i bezpieczeństwa osób i mienia, ale które nie są konieczne do funkcjonowania systemu. Awaria lub nieprawidłowe działanie takich elementów mogą bezpośrednio prowadzić do ryzyka dla fizycznej integralności infrastruktury krytycznej, a co za tym idzie, do ryzyka dla zdrowia i bezpieczeństwa osób i mienia. Elementów przeznaczonych wyłącznie do celów cyberbezpieczeństwa nie należy kwalifikować jako związanych z bezpieczeństwem elementów. Przykładami związanych z bezpieczeństwem elementów takiej infrastruktury krytycznej są systemy monitorowania ciśnienia wody lub systemy sterowania alarmem przeciwpożarowym w centrach przetwarzania danych w chmurze (ang. cloud computing centres).
(56)
Uvajanje sistemov UI v izobraževanju je pomembno za spodbujanje visokokakovostnega digitalnega izobraževanja in usposabljanja, da bi vsem učencem in učiteljem omogočili pridobivanje in deljenje potrebnih digitalnih spretnosti in kompetenc, vključno z medijsko pismenostjo in kritičnim razmišljanjem ter s tem dejavno sodelovanje v gospodarstvu, družbi in demokratičnih procesih. Vendar bi bilo treba sisteme UI, ki se uporabljajo v izobraževanju ali poklicnem usposabljanju, zlasti za določanje dostopa ali sprejema ali za razvrščanje fizičnih oseb v izobraževalne ustanove ali programe in ustanove ali programe za poklicno usposabljanje na vseh ravneh za ocenjevanje učnih izidov oseb, ustrezne ravni izobrazbe posameznika in materialno vplivanje na raven izobraževanja in usposabljanja, ki jo bodo posamezniki prejeli ali bodo lahko dostopali do nje ali za spremljanje in odkrivanje prepovedanega vedenja študentov med testi, razvrstiti kot visokotvegane sisteme UI, saj lahko določajo izobraževalni in poklicni potek življenja osebe in lahko zato vplivajo na zmožnost te osebe, da si zagotovi preživljanje. Če so takšni sistemi neustrezno zasnovani in uporabljeni, lahko zlasti hudo posegajo v pravico do izobraževanja in usposabljanja ter pravico do nediskriminacije in ju lahko kršijo ter ohranjajo vzorce diskriminacije iz preteklosti, na primer žensk, nekaterih starostnih skupin, invalidov ali oseb določenega rasnega ali etničnega porekla ali spolne usmerjenosti.
(56)
Wdrażanie systemów AI w edukacji jest ważne, by promować wysokiej jakości kształcenie i szkolenie cyfrowe oraz by umożliwić wszystkim osobom uczącym się i nauczycielom zdobywanie niezbędnych umiejętności i kompetencji cyfrowych, w tym umiejętności korzystania z mediów, i krytycznego myślenia oraz dzielenie się tymi umiejętnościami i kompetencjami, z myślą o aktywnym udziale w gospodarce, społeczeństwie i procesach demokratycznych. Jako systemy AI wysokiego ryzyka należy natomiast zaklasyfikować systemy AI wykorzystywane w obszarze edukacji lub szkolenia zawodowego – w szczególności przeznaczone do celów podejmowania decyzji o dostępie lub przyjęciu do instytucji edukacyjnych i instytucji szkolenia zawodowego lub programów edukacyjnych lub szkolenia zawodowego na wszystkich poziomach lub do przydzielania osób do tych instytucji lub programów, do oceniania wyników nauki osób, do oceniania odpowiedniego poziomu wykształcenia i istotnego oddziaływania na poziom wykształcenia i szkolenia, jaki dana osoba fizyczna otrzyma lub do jakiego będzie mogła mieć dostęp, lub do monitorowania i wykrywania zabronionego zachowania uczniów podczas testów – ponieważ systemy te mogą decydować o przebiegu kształcenia i kariery zawodowej danej osoby, a tym samym mogą wpływać na jej zdolność do zapewnienia sobie źródła utrzymania. Takie systemy, jeżeli są niewłaściwie zaprojektowane i wykorzystywane, mogą być szczególnie inwazyjne i naruszać prawo do kształcenia i szkolenia, a także prawo do niedyskryminacji oraz mogą utrwalać historyczne wzorce dyskryminacji, na przykład wobec kobiet, niektórych grup wiekowych, osób z niepełnosprawnościami lub osób o określonym pochodzeniu rasowym lub etnicznym bądź określonej orientacji seksualnej.
(57)
Sisteme UI, ki se uporabljajo pri zaposlovanju, upravljanju delavcev in dostopu do samozaposlitve, zlasti za zaposlovanje in izbor oseb, za sprejemanje odločitev, ki vplivajo na delovne pogoje, napredovanje ali prenehanje pogodbenih delovnih razmerij, za dodeljevanje nalog na podlagi individualnega vedenja, osebnih lastnosti ali značilnosti ter za spremljanje ali ocenjevanje oseb v z delom povezanih pogodbenih razmerjih, bi bilo treba prav tako razvrstiti med sisteme visokega tveganja, saj lahko ti sistemi občutno vplivajo na prihodnje poklicne možnosti, možnosti preživljanja teh oseb in pravice delavcev. Ustrezna pogodbena delovna razmerja bi morala smiselno vključevati zaposlene in osebe, ki zagotavljajo storitve preko platform, ki so navedene v delovnem programu Komisije za leto 2021. V celotnem postopku zaposlovanja in pri ocenjevanju, napredovanju ali ohranjanju oseb v pogodbenih delovnih razmerjih lahko taki sistemi ohranjajo vzorce diskriminacije iz preteklosti, na primer nad ženskami, določenimi starostnimi skupinami, invalidi ali osebami določenega rasnega ali etničnega porekla ali spolne usmerjenosti. Tudi sistemi UI, ki se uporabljajo za spremljanje učinkovitost in vedenja teh oseb, lahko ogrožajo njihove temeljne pravice do varstva podatkov in zasebnosti.
(57)
Systemy AI wykorzystywane w obszarze zatrudnienia, zarządzania pracownikami i dostępu do samozatrudnienia, w szczególności do rekrutacji i wyboru kandydatów, do podejmowania decyzji mających wpływ na warunki stosunków pracy, decyzji o awansie i rozwiązaniu umownego stosunku pracy, do spersonalizowanego przydzielania zadań w oparciu o indywidualne zachowania, cechy osobowości lub charakter i do monitorowania lub oceny osób pozostających w umownych stosunkach pracy, należy również zaklasyfikować jako systemy wysokiego ryzyka, ponieważ systemy te mogą w znacznym stopniu wpływać na przyszłe perspektywy zawodowe, źródła utrzymania tych osób i prawa pracownicze. Odpowiednie umowne stosunki pracy powinny w znaczący sposób obejmować pracowników i osoby pracujące za pośrednictwem platform internetowych, o czym mowa w programie prac Komisji na 2021 r. W całym procesie rekrutacji oraz w ramach oceniania, awansowania lub utrzymywania na stanowisku osób pozostających w umownych stosunkach pracy systemy takie mogą utrwalać historyczne wzorce dyskryminacji, na przykład wobec kobiet, niektórych grup wiekowych, osób z niepełnosprawnościami lub osób o określonym pochodzeniu rasowym lub etnicznym lub o określonej orientacji seksualnej. Systemy AI wykorzystywane do monitorowania wydajności i zachowania takich osób mogą również podważać ich prawa podstawowe w zakresie ochrony danych i prywatności.
(58)
Drugo področje, na katerem je treba posebno pozornost nameniti uporabi sistemov UI, je dostop do nekaterih bistvenih zasebnih in javnih storitev ter koristi, ki jih ljudje potrebujejo za polno udeležbo v družbi ali izboljšanje življenjskega standarda. Zlasti fizične osebe, ki zaprosijo za ali od javnih organov prejemajo bistvene ugodnosti in storitve javne pomoči, in sicer zdravstvene storitve, dajatve socialne varnosti, socialne storitve, ki zagotavljajo zaščito v primerih, kot so materinstvo, bolezen, nesreče pri delu, odvisnost ali starost ter izguba zaposlitve ter socialna in stanovanjska pomoč, so običajno odvisne od teh ugodnosti in storitev ter so v ranljivem položaju v odnosu do odgovornih organov. Če se sistemi UI uporabljajo za določanje, ali naj organi take ugodnosti in storitve odobrijo, zavrnejo, zmanjšajo, prekličejo ali zahtevajo povračilo, vključno s tem, ali so upravičenci legitimno upravičeni do takih ugodnosti ali storitev, lahko ti sistemi pomembno vplivajo na preživljanje oseb in kršijo njihove temeljne pravice, kot so pravica do socialne zaščite, nediskriminacije, človekovega dostojanstva ali učinkovitega pravnega sredstva, in bi zato morali biti opredeljeni kot visokotvegani sistemi UI. Kljub temu ta uredba ne bi smela ovirati razvoja in uporabe inovativnih pristopov v javni upravi, ki bi imela koristi od širše uporabe skladnih in varnih sistemov UI, če ti sistemi ne pomenijo visokega tveganja za pravne in fizične osebe. Poleg tega bi bilo treba sisteme UI, ki se uporabljajo za ocenjevanje kreditne ocene ali kreditne sposobnosti fizičnih oseb, razvrstiti kot visokotvegane sisteme UI, saj določajo dostop teh oseb do finančnih sredstev ali bistvenih storitev, kot so stanovanja, električna energija in telekomunikacijske storitve. Sistemi UI, ki se uporabljajo v te namene, lahko povzročijo diskriminacijo oseb ali skupin in ohranijo vzorce diskriminacije iz preteklosti, na primer na podlagi rasnega ali etničnega porekla, spola, invalidnosti, starosti ali spolne usmerjenosti, ali ustvarijo nove oblike diskriminatornih vplivov. Vendar sistemi UI, ki so v pravu Unije določeni za namene odkrivanja goljufij pri ponujanju finančnih storitev ter za bonitetne namene za izračun kapitalskih zahtev kreditnih institucij in zavarovalnic, na podlagi te uredbe ne bi smeli šteti za sisteme visokega tveganja. Poleg tega lahko sistemi UI, namenjeni za oceno tveganja in oblikovanje cen v zvezi s fizičnimi osebami za zdravstveno in življenjsko zavarovanje, tudi pomembno vplivajo na preživetje oseb in lahko, če niso ustrezno zasnovani, razviti in uporabljeni, kršijo njihove temeljne pravice in povzročijo resne posledice za življenje in zdravje ljudi, vključno s finančno izključenostjo in diskriminacijo. Poleg tega bi bilo treba sisteme UI, ki se uporabljajo za ocenjevanje in razvrščanje klicev v sili fizičnih oseb ali za pošiljanje ali določanje prednosti pri napotitvi služb za ukrepanje ob nesrečah, vključno s policijo, gasilci in medicinsko pomočjo, ter sistemih triaže pacientov v nujnem zdravstvenem varstvu, razvrstiti med sisteme visokega tveganja, saj sprejemajo odločitve v zelo kritičnih razmerah za življenje in zdravje oseb ter njihovo premoženje.
(58)
Innym obszarem, w którym wykorzystanie systemów AI wymaga szczególnej uwagi, jest dostęp do niektórych podstawowych usług i świadczeń prywatnych i publicznych niezbędnych ludziom do pełnego uczestnictwa w życiu społecznym lub do poprawy poziomu życia oraz korzystanie z tych usług i świadczeń. W szczególności osoby fizyczne ubiegające się o podstawowe świadczenia i usługi w ramach pomocy publicznej lub korzystające z takich świadczeń i usług zapewnianych przez organy publiczne, a mianowicie usług opieki zdrowotnej, świadczeń z zabezpieczenia społecznego, usług społecznych zapewniających ochronę w przypadkach takich jak macierzyństwo, choroba, wypadki przy pracy, zależność lub podeszły wiek oraz utrata zatrudnienia, a także z pomocy społecznej i mieszkaniowej, są zazwyczaj zależne od tych świadczeń i usług oraz znajdują się w słabszym położeniu względem odpowiedzialnych organów. Jeżeli systemy AI są wykorzystywane do ustalenia, czy organy powinny przyznać takie świadczenia i usługi, odmówić ich, ograniczyć je, cofnąć lub odzyskać, w tym do stwierdzenia, czy świadczeniobiorcy są w świetle prawa uprawnieni do takich świadczeń lub usług, systemy te mogą mieć znaczący wpływ na źródła utrzymania osób i mogą naruszać ich prawa podstawowe, takie jak prawo do ochrony socjalnej, niedyskryminacji, godności człowieka lub skutecznego środka prawnego i w związku z tym systemy te należy zaklasyfikować jako systemy wysokiego ryzyka. Niniejsze rozporządzenie nie powinno jednak utrudniać rozwoju i stosowania innowacyjnych rozwiązań w administracji publicznej, która może odnieść korzyści z powszechniejszego wykorzystywania zgodnych i bezpiecznych systemów AI, pod warunkiem że systemy te nie stwarzają wysokiego ryzyka dla osób prawnych i fizycznych. Ponadto jako systemy wysokiego ryzyka należy zaklasyfikować systemy AI wykorzystywane do przeprowadzania scoringu kredytowego lub oceny zdolności kredytowej osób fizycznych, ponieważ systemy te decydują o dostępie tych osób do zasobów finansowych lub podstawowych usług, takich jak mieszkalnictwo, energia elektryczna i usługi telekomunikacyjne. Systemy AI wykorzystywane do tych celów mogą prowadzić do dyskryminacji osób lub grup i mogą utrwalać historyczne wzorce dyskryminacji, takie jak dyskryminacja ze względu na pochodzenie rasowe lub etniczne, płeć, niepełnosprawność, wiek, orientację seksualną, lub mogą powodować powstawanie nowych rodzajów dyskryminacji. Za systemy wysokiego ryzyka na mocy niniejszego rozporządzenia nie należy jednak uznawać systemów AI przewidzianych w prawie Unii do celów wykrywania oszustw w ramach oferowania usług finansowych oraz do celów ostrożnościowych do obliczania wymogów kapitałowych instytucji kredytowych i zakładów ubezpieczeń. Ponadto systemy AI przeznaczone do przeprowadzania oceny ryzyka w przypadku ubezpieczenia zdrowotnego i na życie dla osób fizycznych i ustalania cen tych ubezpieczeń mogą mieć również znaczący wpływ na źródła utrzymania osób, a jeżeli nie są odpowiednio zaprojektowane, rozwinięte i wykorzystywane, mogą naruszać ich prawa podstawowe i prowadzić do poważnych konsekwencji dla życia i zdrowia ludzi, w tym wykluczenia finansowego i dyskryminacji. Wreszcie systemy AI przeznaczone do przeprowadzania oceny i klasyfikowania zgłoszeń alarmowych dokonywanych przez osoby fizyczne lub do wysyłania lub ustalania priorytetów w wysyłaniu służb pierwszej pomocy, w tym policji, straży pożarnej i pomocy medycznej, a także w ramach systemów oceny stanu zdrowia pacjentów w nagłych wypadkach, należy zaklasyfikować jako systemy wysokiego ryzyka, ponieważ służą one do podejmowania decyzji o krytycznym znaczeniu dla życia i zdrowia osób oraz ich mienia.
(59)
Glede na vlogo in odgovornost organov za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, je za njihove ukrepe, ki vključujejo nekatere uporabe sistemov UI, značilna precejšnja stopnja neravnovesja moči, kar lahko vodi do nadzora, prijetja ali odvzema prostosti fizične osebe ter drugih škodljivih vplivov na temeljne pravice, ki jih zagotavlja Listina. Zlasti če se sistem UI ne uči z visokokakovostnimi podatki, ne izpolnjuje ustreznih zahtev glede zmogljivosti, točnosti ali robustnosti ali ni ustrezno zasnovan in testiran, preden je dan na trg ali na kakšen drug način v uporabo, lahko ljudi izpostavil na diskriminatoren ali kako drugače napačen ali nepravičen način. Poleg tega bi lahko bilo ovirano uveljavljanje pomembnih procesnih temeljnih pravic, kot so pravica do učinkovitega pravnega sredstva in nepristranskega sodišča ter pravica do obrambe in domneve nedolžnosti, zlasti kadar taki sistemi UI niso dovolj pregledni, obrazložljivi in dokumentirani. Zato je primerno, da se številni sistemi UI, kolikor je njihova uporaba dovoljena na podlagi zadevnega prava Unije in nacionalnega prava, namenjeni uporabi v okviru preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, razvrstijo med sisteme visokega tveganja, kjer so točnost, zanesljivost in preglednost še posebej pomembni, da se preprečijo škodljivi vplivi, ohrani zaupanje javnosti ter zagotovita odgovornost in učinkovito sodno varstvo. Glede na naravo dejavnosti in s tem povezana tveganja bi morali ti visokotvegani sistemi UI vključevati zlasti sisteme UI, ki so namenjeni uporabi s strani ali v imenu organov preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ali institucij, organov, uradov ali agencij Unije v podporo tem organom pri ocenjevanju tveganja, da fizična oseba postane žrtev kaznivih dejanj, kot so poligrafi in podobna orodja, za ocenjevanje zanesljivosti dokazov med preiskovanjem ali pregonom kaznivih dejanj in, če to ni prepovedano na podlagi te uredbe, za ocenjevanje tveganja, da fizična oseba stori ali ponovi kaznivo dejanje, ne izključno na podlagi oblikovanja profilov fizičnih oseb ali ocene osebnostnih lastnosti in značilnosti ali preteklega kaznivega ravnanja fizičnih oseb ali skupin, za oblikovanje profilov med odkrivanjem, preiskovanjem ali pregonom kaznivih dejanj. Sistemi UI, posebej namenjeni uporabi v upravnih postopkih s strani davčnih in carinskih organov ter finančnoobveščevalnih enot, ki izvajajo upravne naloge analiziranja informacij na podlagi prava Unije o preprečevanju pranja denarja, ne bi smeli biti opredeljeni kot visokotvegani sistemi UI, ki jih uporabljajo organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj za namen preprečevanja, odkrivanja, preiskovanja in pregona kaznivih dejanj. Organi preprečevanja, odkrivanja in preiskovanja kaznivih dejanj in drugi ustrezni organi orodij UI ne bi smeli uporabljati tako, da bi postala dejavnik pri neenakosti ali izključenosti. Ne bi smeli zanemariti vpliva uporabe orodij UI na pravice osumljencev do obrambe, zlasti težav pri pridobivanju smiselnih informacij o delovanju teh sistemov in posledičnih težav pri izpodbijanju njihovih rezultatov na sodišču, zlasti s strani fizičnih oseb, ki so predmet preiskave.
(59)
Ze względu na rolę i odpowiedzialność organów ścigania ich działania związane z niektórymi rodzajami wykorzystania systemów AI charakteryzują się znacznym brakiem równowagi sił i mogą prowadzić do objęcia osoby fizycznej nadzorem, do jej aresztowania lub pozbawienia wolności, jak również do zaistnienia innego niepożądanego wpływu na prawa podstawowe zagwarantowane w Karcie. W szczególności jeżeli system AI nie jest trenowany z wykorzystaniem danych wysokiej jakości, nie spełnia odpowiednich wymogów pod względem skuteczności jego działania, dokładności lub solidności lub nie został odpowiednio zaprojektowany i przetestowany przed wprowadzeniem do obrotu lub oddaniem do użytku w inny sposób, może on wskazywać osoby w sposób dyskryminacyjny lub w inny nieprawidłowy lub niesprawiedliwy sposób. Ponadto korzystanie z istotnych procesowych praw podstawowych, takich jak prawo do skutecznego środka prawnego i dostępu do bezstronnego sądu, jak również prawo do obrony i domniemania niewinności, może być utrudnione, w szczególności w przypadku gdy takie systemy AI nie są w wystarczającym stopniu przejrzyste, wyjaśnialne i udokumentowane. W związku z tym szereg systemów AI przeznaczonych do wykorzystania w kontekście ścigania przestępstw, w którym dokładność, wiarygodność i przejrzystość są szczególnie ważne dla uniknięcia niepożądanego wpływu, zachowania zaufania publicznego oraz zapewnienia odpowiedzialności i skutecznego dochodzenia roszczeń, należy klasyfikować jako systemy wysokiego ryzyka, o ile ich wykorzystanie jest dozwolone zgodnie z właściwymi przepisami prawa Unii i prawa krajowego. Ze względu na charakter działań i związane z nimi ryzyko do takich systemów AI wysokiego ryzyka należy zaliczyć w szczególności systemy AI przeznaczone do wykorzystywania przez organy ścigania lub w ich imieniu lub przez instytucje, organy i jednostki organizacyjne Unii w ramach wsparcia udzielanego organom ścigania w zakresie oceny ryzyka, że osoba fizyczna stanie się ofiarą przestępstwa, takie jak wariografy i podobne narzędzia, do oceny wiarygodności dowodów podczas prowadzenia postępowań przygotowawczych w sprawie przestępstw lub ich ścigania oraz, o ile nie jest to zakazane na mocy niniejszego rozporządzenia, do oceny ryzyka popełnienia przestępstwa lub ponownego popełnienia przestępstwa przez osobę fizyczną niewyłącznie na podstawie profilowania osób fizycznych lub oceny cech osobowości i charakteru lub wcześniejszego zachowania przestępnego osób fizycznych lub grup, do profilowania w trakcie wykrywania przestępstw, prowadzenia postępowań przygotowawczych w ich sprawie lub ich ścigania. Systemów AI przeznaczonych specjalnie do wykorzystania w postępowaniach administracyjnych prowadzonych przez organy podatkowe i celne, jak również przez jednostki analityki finansowej wykonujące zadania administracyjne dotyczące analizy informacji na podstawie przepisów prawa Unii dotyczących przeciwdziałania praniu pieniędzy, nie należy zaklasyfikować jako systemów AI wysokiego ryzyka wykorzystywanych przez organy ścigania do celów zapobiegania przestępstwom, ich wykrywania, prowadzenia postępowań przygotowawczych w ich sprawie i ich ścigania. Wykorzystanie narzędzi sztucznej inteligencji przez organy ścigania i inne odpowiednie organy nie powinno stać się czynnikiem powodującym nierówności lub wykluczenie. Nie należy ignorować wpływu wykorzystania narzędzi AI na prawo podejrzanych do obrony, w szczególności na trudności w uzyskaniu istotnych informacji na temat funkcjonowania tych systemów oraz wynikające z tego trudności w kwestionowaniu dostarczanych przez nie wyników przed sądem, w szczególności przez osoby fizyczne objęte postępowaniem przygotowawczym.
(60)
Sistemi UI, ki se uporabljajo pri upravljanju migracij, azila in nadzora meje, vplivajo na osebe, ki so pogosto v posebej ranljivem položaju ter so odvisne od izida ukrepov pristojnih javnih organov. Točnost, nediskriminatornost in preglednost sistemov UI, ki se uporabljajo v teh kontekstih, so zato zlasti pomembni za zagotavljanje spoštovanja temeljnih pravic zadevnih oseb, zlasti njihovih pravic do prostega gibanja, nediskriminacije, varstva zasebnega življenja in osebnih podatkov, mednarodnega varstva in dobrega upravljanja. Zato je primerno, da se med sisteme visokega tveganja razvrstijo sistemi UI, ki so na podlagi ustreznega prava Unije in nacionalnega prava dovoljeni za uporabo s strani ali v imenu pristojnih javnih organov ali institucij, organov, uradov ali agencij Unije, zadolženih za naloge na področju migracij, azila in upravljanja nadzora meja, kot so poligrafi in podobna orodja, za ocenjevanje nekaterih tveganj, ki jih predstavljajo fizične osebe, ki vstopajo na ozemlje države članice ali zaprosijo za vizum ali azil, za pomoč pristojnim javnim organom pri obravnavi, vključno s povezano oceno zanesljivosti dokazov, prošenj za azil, vizumov in dovoljenj za prebivanje ter s tem povezanih pritožb zaradi ugotavljanja upravičenosti fizičnih oseb, ki zaprosijo za status, za namene odkrivanja, priznavanja ali identifikacije fizičnih oseb v okviru upravljanja migracij, azila in nadzora meja, z izjemo preverjanja potnih listin. Sistemi UI na področju migracij, azila in upravljanja nadzora meja, ki jih zajema ta uredba, bi morali biti skladni z ustreznimi postopkovnimi zahtevami iz Uredbe (ES) št. 810/2009 Evropskega parlamenta in Sveta (32), Direktive 2013/32/EU Evropskega parlamenta in Sveta (33) ter drugega ustreznega prava Unije. Države članice ali institucije, organi, uradi ali agencije Unije v nobenem primeru ne bi smeli uporabljati sistemov UI na področju migracij, azila in upravljanja nadzora meja kot sredstvo za izogibanje svojim mednarodnim obveznostim iz Konvencije ZN o statusu beguncev, podpisane v Ženevi 28. julija 1951, kakor je bila spremenjena s Protokolom z dne 31. januarja 1967. Prav tako se ne smejo uporabljati za kakršno koli kršitev načela nevračanja ali za odrekanje varnih in učinkovitih zakonitih poti na ozemlje Unije, vključno s pravico do mednarodne zaščite.
(60)
Systemy AI wykorzystywane w zarządzaniu migracją, azylem i kontrolą graniczną mają wpływ na osoby, które często znajdują się w szczególnie trudnej sytuacji i które są zależne od rezultatów działań właściwych organów publicznych. Dokładność, niedyskryminujący charakter i przejrzystość systemów AI wykorzystywanych w tych kontekstach są zatem szczególnie istotne w celu zapewnienia poszanowania praw podstawowych osób, na które AI ma wpływ, w szczególności ich prawa do swobodnego przemieszczania się, niedyskryminacji, ochrony życia prywatnego i danych osobowych, ochrony międzynarodowej i dobrej administracji. O ile wykorzystanie systemów AI jest dozwolone zgodnie z właściwymi przepisami prawa Unii i prawa krajowego, za systemy wysokiego ryzyka należy zatem uznać systemy AI przeznaczone do wykorzystywania przez właściwe organy publiczne lub w ich imieniu lub przez instytucje, organy i jednostki organizacyjne Unii odpowiedzialne za wykonywanie zadań w dziedzinach zarządzania migracją, azylem i kontrolą graniczną, takie jak wariografy i podobne narzędzia, gdy systemy te stosuje się do oceny niektórych rodzajów ryzyka stwarzanych przez osoby fizyczne wjeżdżające na terytorium państwa członkowskiego lub ubiegające się o wizę lub azyl, do wspierania właściwych organów publicznych przy rozpatrywaniu wniosków o udzielenie azylu, o wydanie wizy i dokumentów pobytowych oraz związanych z nimi skarg w odniesieniu do celu, jakim jest ustalenie kwalifikowalności osób fizycznych ubiegających się o przyznanie określonego statusu, w tym przy powiązanej ocenie wiarygodności dowodów, do celów wykrywania, rozpoznawania lub identyfikacji osób fizycznych w kontekście zarządzania migracją, azylem i kontrolą graniczną, z wyjątkiem weryfikacji dokumentów podróży. Systemy AI w obszarze zarządzania migracją, azylem i kontrolą graniczną objęte niniejszym rozporządzeniem powinny być zgodne z odpowiednimi wymogami proceduralnymi określonymi w rozporządzeniu Parlamentu Europejskiego i Rady (WE) nr 810/2009 (32), dyrektywie Parlamentu Europejskiego i Rady 2013/32/UE (33) i w innych właściwych przepisach prawa Unii. Wykorzystanie systemów AI w zarządzaniu migracją, azylem i kontrolą graniczną nie powinno w żadnym wypadku być wykorzystywane przez państwa członkowskie lub instytucje, organy i jednostki organizacyjne Unii jako sposób na obejście ich międzynarodowych zobowiązań wynikających z Konwencji ONZ dotyczącej statusu uchodźców sporządzonej w Genewie dnia 28 lipca 1951 r., zmienionej protokołem z dnia 31 stycznia 1967 r. Nie powinny być one również wykorzystywane w żaden sposób do naruszania zasady non-refoulement ani do odmawiania bezpiecznych i skutecznych legalnych sposobów wjazdu na terytorium Unii, w tym prawa do ochrony międzynarodowej.
(61)
Nekatere sisteme UI, namenjene razsojanju in demokratičnim procesom, bi bilo treba razvrstiti med sisteme visokega tveganja zaradi njihovega potencialno pomembnega vpliva na demokracijo, pravno državo, osebne svoboščine ter pravico do učinkovitega pravnega sredstva in nepristranskega sodišča. Zlasti zato, da bi zmanjšali tveganja morebitnih pristranskosti, napak in nepreglednosti, je primerno, da se visokotvegani sistemi UI, namenjeni uporabi s strani sodnega organa ali v njegovem imenu za pomoč sodnim organom pri raziskovanju in razlagi dejstev in prava ter pri uporabi prava za konkreten sklop dejstev, opredelijo kot sistemi visokega tveganja. Tudi sisteme UI, ki naj bi jih za te namene uporabljali organi za alternativno reševanje sporov, bi bilo treba šteti za sisteme visokega tveganja, če imajo rezultati postopkov alternativnega reševanja sporov pravne učinke za stranke. Orodja UI se lahko uporabljajo kot pomoč sodnikom pri odločanju ali podpora neodvisnosti sodstva, vendar jih ne bi smela nadomeščati: končno odločanje mora ostati dejavnost, ki jo vodi človek. Razvrščanje sistemov UI kot sistemov visokega tveganja pa se ne bi smelo uporabljati tudi za sisteme UI, namenjene izključno pomožnim upravnim dejavnostim, ki ne vplivajo na dejansko razsojanje v posameznih primerih, kot so anonimizacija ali psevdonimizacija sodnih odločb, dokumentov ali podatkov, komunikacije med osebjem ali upravnih nalog.
(61)
Niektóre systemy AI przeznaczone na potrzeby sprawowania wymiaru sprawiedliwości i procesów demokratycznych należy zaklasyfikować jako systemy wysokiego ryzyka, biorąc pod uwagę ich potencjalnie istotny wpływ na demokrację, praworządność, wolności osobiste, a także prawo do skutecznego środka prawnego i dostępu do bezstronnego sądu. W szczególności, aby wyeliminować potencjalne ryzyko stronniczości, błędów i efektu czarnej skrzynki, jako systemy wysokiego ryzyka należy zakwalifikować systemy AI przeznaczone do wykorzystania przez organy wymiaru sprawiedliwości lub w ich imieniu, aby pomóc tym organom w poszukiwaniu i interpretacji faktów i prawa oraz w stosowaniu przepisów prawa do konkretnego stanu faktycznego. Systemy AI przeznaczone do wykorzystania w tych celach przez organy alternatywnego rozstrzygania sporów również należy uznać za systemy wysokiego ryzyka, jeżeli wyniki postępowania w sprawie alternatywnego rozstrzygania sporów wywołują skutki prawne dla stron. Wykorzystanie narzędzi AI może wspierać uprawnienia decyzyjne sędziów lub niezależność sądownictwa, ale nie powinno ich zastępować; podejmowanie ostatecznej decyzji musi pozostać działaniem kierowanym przez człowieka. Kwalifikacja systemów AI jako systemów AI wysokiego ryzyka nie powinna jednak rozciągać się na systemy AI przeznaczone do czysto pomocniczych czynności administracyjnych, które nie mają wpływu na faktyczne sprawowanie wymiaru sprawiedliwości w poszczególnych przypadkach, takich jak anonimizacja lub pseudonimizacja orzeczeń sądowych, dokumentów lub danych, komunikacja między członkami personelu, zadania administracyjne.
(62)
Brez poseganja v pravila iz Uredbe (EU) 2024/900 Evropskega parlamenta in Sveta (34) ter za obravnavanje tveganj neupravičenega zunanjega poseganja v volilno pravico iz člena 39 Listine in nesorazmernih učinkov na demokracijo in pravno državo bi bilo treba sisteme UI, namenjene vplivanju na izid volitev ali referenduma ali na volilno vedenje fizičnih oseb pri glasovanju na volitvah ali referendumih, razvrstiti kot visokotvegane sisteme UI, razen kadar gre za sisteme UI, pri katerih fizične osebe niso neposredno izpostavljene njihovim izhodnim podatkom, kot so orodja, ki se uporabljajo za organizacijo, optimizacijo in strukturiranje političnih kampanj z upravnega in logističnega vidika.
(62)
Bez uszczerbku dla przepisów ustanowionych w rozporządzeniu Parlamentu Europejskiego i Rady (UE) 2024/900 (34) oraz aby zapobiec ryzyku nadmiernej zewnętrznej ingerencji w prawo do głosowania zapisane w art. 39 Karty oraz niepożądanemu wpływowi na demokrację i praworządność, systemy AI przeznaczone do wykorzystania, by wpływać na wynik wyborów lub referendum lub na zachowania wyborcze osób fizycznych podczas głosowania w wyborach lub referendach, należy zaklasyfikować jako systemy AI wysokiego ryzyka, z wyjątkiem systemów AI, na których wyniki osoby fizyczne nie są bezpośrednio narażone, takich jak narzędzia wykorzystywane do organizowania, optymalizacji i strukturyzowania kampanii politycznych z administracyjnego i logistycznego punktu widzenia.
(63)
Dejstva, da je sistem UI na podlagi te uredbe razvrščen kot visokotvegani sistem UI, se ne bi smelo razlagati tako, da pomeni, da je njegova uporaba zakonita na podlagi drugih aktov prava Unije ali na podlagi nacionalnega prava, združljivim s pravom Unije, kot so varstvo osebnih podatkov, uporaba poligrafov in podobnih orodij ali drugih sistemov za zaznavanje čustvenega stanja fizičnih oseb. Vsaka taka uporaba bi se morala še naprej izvajati izključno v skladu z veljavnimi zahtevami, ki izhajajo iz Listine ter veljavnih aktov sekundarnega prava Unije in nacionalnega prava. Te uredbe ne bi smeli razumeti kot pravne podlage za obdelavo osebnih podatkov, vključno s posebnimi vrstami osebnih podatkov, kadar je to ustrezno, razen če je v tej uredbi izrecno določeno drugače.
(63)
Faktu, że dany system AI został zaklasyfikowany jako system AI wysokiego ryzyka zgodnie z niniejszym rozporządzeniem, nie należy interpretować jako wskazującego na to, że korzystanie z tego systemu jest zgodne z prawem na podstawie innych aktów prawa Unii lub prawa krajowego zgodnego z prawem Unii, na przykład w zakresie ochrony danych osobowych, stosowania wariografów i podobnych narzędzi lub innych systemów służących wykrywaniu stanu emocjonalnego osób fizycznych. Każde takie wykorzystanie można kontynuować wyłącznie w sposób zgodny z mającymi zastosowanie wymogami wynikającymi z Karty oraz z mającymi zastosowanie aktami prawa wtórnego Unii i prawa krajowego. Niniejszego rozporządzenia nie należy rozumieć jako ustanawiającego podstawę prawną przetwarzania danych osobowych, w tym w stosownych przypadkach szczególnych kategorii danych osobowych, o ile niniejsze rozporządzenie nie stanowi wyraźnie inaczej.
(64)
Da bi zmanjšali tveganja iz visokotveganih sistemov UI, ki so dani na trg ali v uporabo, in zagotovili visoko raven zanesljivosti, bi bilo treba za visokotvegane sisteme UI uporabljati nekatere obvezne zahteve in pri tem upoštevati predvideni namen in kontekst uporabe sistema UI ter sistem obvladovanja tveganja, ki ga vzpostavi ponudnik. Ponudniki bi pri ukrepih, ki jih sprejmejo za izpolnjevanje obveznih zahtev iz te uredbe, morali upoštevati splošno priznane najsodobnejše tehnološke dosežke na področju UI; ti ukrepi bi morali biti sorazmerni in učinkoviti za doseganje ciljev te uredbe. Kot je pojasnjeno v obvestilu Komisije „Modri vodnik“ o izvajanju pravil EU o proizvodih iz leta 2022, je na podlagi novega zakonodajnega okvira splošno pravilo, da se več kot en pravni akt harmonizacijske zakonodaje Unije lahko uporablja za en proizvod, saj se lahko dostopnost ali dajanje v uporabo izvede le, če je proizvod skladen z vso veljavno harmonizacijsko zakonodajo Unije. Nevarnosti sistemov UI, za katere veljajo zahteve iz te uredbe, se nanašajo na vidike, ki se razlikujejo od obstoječe harmonizacijske zakonodaje Unije, zato naj bi zahteve iz te uredbe dopolnjevale obstoječi del harmonizacijske zakonodaje Unije. Na primer stroji ali medicinski pripomočki, ki vključujejo sistem UI, lahko pomenijo tveganja, ki v bistvenih zdravstvenih in varnostnih zahtevah iz ustrezne harmonizirane zakonodaje Unije niso zajeta, saj navedeno sektorsko pravo ne obravnava tveganj, značilnih za sisteme UI. To zahteva hkratno in dopolnjevalno uporabo različnih zakonodajnih aktov. Da bi zagotovili doslednost in preprečili nepotrebno upravno breme ali nepotrebne stroške, bi morali ponudnikom proizvoda, ki vsebuje enega ali več visokotveganih sistemov UI, za katere se uporabljajo zahteve iz te uredbe in harmonizacijske zakonodaje Unije, ki temelji na novem zakonodajnem okviru in je navedena v prilogi k tej uredbi, omogočiti prožnost glede operativnih odločitev o tem, kako na optimalen način zagotoviti skladnost proizvoda, ki vsebuje enega ali več sistemov UI, z vsemi veljavnimi zahtevami harmonizirane zakonodaje Unije. Ta prožnost bi lahko na primer pomenila odločitev ponudnika, da del potrebnih postopkov testiranja in poročanja, informacij in dokumentacije, ki se zahtevajo na podlagi te uredbe, vključi v dokumentacijo in postopke, ki že obstajajo in se zahtevajo na podlagi harmonizacijske zakonodaje Unije, ki temelji na novem zakonodajnem okviru in je navedena v prilogi k tej uredbi. To nikakor ne bi smelo ogroziti obveznosti ponudnika, da izpolnjuje vse veljavne zahteve.
(64)
Aby ograniczyć ryzyko stwarzane przez systemy AI wysokiego ryzyka wprowadzone do obrotu lub oddawane do użytku oraz aby zapewnić wysoki poziom wiarygodności, należy stosować pewne obowiązkowe wymogi do systemów AI wysokiego ryzyka, z uwzględnieniem przeznaczenia systemu AI i kontekstu jego wykorzystania oraz zgodnie z systemem zarządzania ryzykiem, który ma zostać ustanowiony przez dostawcę. Środki przyjęte przez dostawców w celu zapewnienia zgodności z obowiązkowymi wymogami niniejszego rozporządzenia powinny uwzględniać powszechnie uznany stan wiedzy technicznej w zakresie AI, być proporcjonalne i skuteczne do osiągnięcia celów niniejszego rozporządzenia. W oparciu o nowe ramy prawne, jak wyjaśniono w zawiadomieniu Komisji „Niebieski przewodnik – wdrażanie unijnych przepisów dotyczących produktów 2022”, ogólna zasada stanowi, że do jednego produktu można stosować więcej niż jedne akt prawny unijnego prawodawstwa harmonizacyjnego, ponieważ udostępnianie lub oddawanie do użytku może mieć miejsce tylko wtedy, gdy produkt jest zgodny z całością obowiązującego unijnego prawodawstwa harmonizacyjnego. Zagrożenia związane z systemami AI objętymi wymogami niniejszego rozporządzenia dotyczą innych aspektów niż obowiązujące unijne prawodawstwo harmonizacyjne, w związku z czym wymogi niniejszego rozporządzenia uzupełnią obowiązujące unijne prawodawstwo harmonizacyjne. Na przykład maszyny lub wyroby medyczne zawierające system AI mogą stwarzać ryzyko, które nie zostało uwzględnione w zasadniczych wymogach w zakresie zdrowia i bezpieczeństwa ustanowionych w odpowiednim unijnym prawodawstwie harmonizacyjnym, ponieważ to prawo sektorowe nie reguluje ryzyka specyficznego dla systemów AI. Wymaga to jednoczesnego i komplementarnego stosowania różnych aktów ustawodawczych. Aby zapewnić spójność i uniknąć niepotrzebnych obciążeń administracyjnych i niepotrzebnych kosztów, dostawcy produktu, który zawiera co najmniej jeden system AI wysokiego ryzyka, do którego stosuje się wymogi niniejszego rozporządzenia i unijnego prawodawstwa harmonizacyjnego opartego na nowych ramach prawnych, wymienionego w załączniku do niniejszego rozporządzenia, powinni mieć swobodę w zakresie decyzji operacyjnych dotyczących sposobu zapewnienia w optymalny sposób zgodności produktu zawierającego co najmniej jeden system AI ze wszystkimi mającymi zastosowanie wymogami unijnego prawodawstwa harmonizacyjnego. Swoboda ta może oznaczać na przykład decyzję dostawcy o włączeniu części niezbędnych procesów testowania i sprawozdawczości, informacji i dokumentacji wymaganych na mocy niniejszego rozporządzenia do już istniejącej dokumentacji i procedur wymaganych na mocy obowiązującego unijnego prawodawstwa harmonizacyjnego opartego na nowych ramach prawnych i wymienionego w załączniku do niniejszego rozporządzenia. Nie powinno to w żaden sposób podważać spoczywającego na dostawcy obowiązku zapewnienia zgodności z wszystkimi mającymi zastosowanie wymogami.
(65)
Sestavni del sistema obvladovanja tveganja bi moral biti neprekinjen ponavljajoč se proces, ki se načrtuje in izvaja v celotnem življenjskem ciklu visokotveganega sistema UI. Ta proces bi moral biti usmerjen v prepoznavanje in zmanjšanje relevantnih tveganj sistemov UI za zdravje, varnost in temeljne pravice. Sistem obvladovanja tveganj bi bilo treba redno pregledovati in posodabljati, da bi zagotovili njegovo stalno učinkovitost ter utemeljitev in dokumentiranje vseh pomembnih odločitev in ukrepov, sprejetih v skladu s to uredbo. S tem postopkom bi bilo treba zagotoviti, da ponudnik opredeli tveganja ali škodljive vplive ter izvaja ukrepe za zmanjšanje znanih in razumno predvidljivih tveganj sistemov UI za zdravje, varnost in temeljne pravice glede na njihov predvideni namen in razumno predvidljivo napačno uporabo, vključno z morebitnimi tveganji, ki izhajajo iz interakcije med sistemom UI in okoljem, v katerem deluje. V okviru sistema obvladovanja tveganj bi bilo treba sprejeti najprimernejše ukrepe za obvladovanje tveganja glede na najsodobnejše tehnološke dosežke na področju UI. Ponudnik bi moral pri opredeljevanju najustreznejših ukrepov za obvladovanje tveganja dokumentirati in pojasniti sprejete odločitve ter po potrebi vključiti strokovnjake in zunanje deležnike. Pri identifikaciji razumno predvidljive napačne uporabe visoko tveganih sistemov UI bi moral ponudnik zajeti uporabe sistemov UI, za katere se kljub temu, da niso neposredno zajete s predvidenim namenom in določene v navodilih za uporabo, lahko razumno pričakuje, da bodo posledica enostavno predvidljivega človeškega vedenja v okviru posebnih značilnosti in uporabe določenega sistema UI. Vse znane ali predvidljive okoliščine, povezane z uporabo visokotveganega sistema UI v skladu s predvidenim namenom ali v razmerah razumno predvidljive napačne uporabe, ki lahko povzročijo tveganja za zdravje in varnost ali temeljne pravice, bi morale biti vključene v navodila za uporabo, ki jih zagotovi ponudnik. S tem se zagotovi, da je uvajalec seznanjen z njimi in jih upošteva pri uporabi visokotveganega sistema UI. Pri opredeljevanju in izvajanju ukrepov za zmanjšanje tveganja za predvidljivo napačno uporabo na podlagi te uredbe ponudnik v okviru obravnavanja predvidljive napačne uporabe ne bi smel zahtevati posebnega dodatnega učenja za visokotvegani sistem UI. Vendar se ponudnike spodbuja, naj po potrebi in če je to ustrezno razmislijo o takih dodatnih ukrepih za učenje, da bi ublažili razumno predvidljive napačne uporabe.
(65)
System zarządzania ryzykiem powinien obejmować ciągły, iteracyjny proces, który jest planowany i realizowany przez cały cykl życia systemu AI wysokiego ryzyka. Proces ten powinien mieć na celu identyfikację i ograniczenie istotnego ryzyka, jakie systemy AI stwarzają dla zdrowia, bezpieczeństwa i praw podstawowych. System zarządzania ryzykiem powinien podlegać regularnym przeglądom i aktualizacji, aby zapewnić jego stałą skuteczność oraz uzasadnienie i dokumentację wszelkich istotnych decyzji i działań podjętych zgodnie z niniejszym rozporządzeniem. Proces ten powinien zapewniać, aby dostawca identyfikował ryzyko lub niepożądany wpływ oraz wdrażał środki ograniczające znane i racjonalnie przewidywalne ryzyko dla zdrowia, bezpieczeństwa i praw podstawowych związane z systemami AI w świetle ich przeznaczenia i dającego się racjonalnie przewidzieć niewłaściwego wykorzystania, w tym możliwego ryzyka wynikającego z interakcji między systemem AI a środowiskiem, w którym ten system działa. W systemie zarządzania ryzykiem należy przyjąć najbardziej odpowiednie – w świetle aktualnego stanu wiedzy technicznej w dziedzinie AI – środki zarządzania ryzykiem. Przy określaniu najbardziej odpowiednich środków zarządzania ryzykiem dostawca powinien udokumentować i wyjaśnić dokonane wybory oraz, w stosownych przypadkach, zaangażować ekspertów i zewnętrzne zainteresowane strony. Identyfikując dające się racjonalnie przewidzieć niewłaściwe wykorzystanie systemów AI wysokiego ryzyka, dostawca powinien uwzględnić przypadki wykorzystania systemów AI, w odniesieniu do których można zasadnie oczekiwać, że będą one wynikać z łatwo przewidywalnego zachowania ludzkiego w kontekście szczególnych cech i wykorzystania danego systemu AI, chociaż takich przypadków wykorzystania nie przewidziano w przeznaczeniu danego systemu ani w jego instrukcji obsługi. Wszelkie znane lub dające się przewidzieć okoliczności związane z wykorzystaniem systemu AI wysokiego ryzyka zgodnie z jego przeznaczeniem lub w warunkach dającego się racjonalnie przewidzieć niewłaściwego wykorzystania, mogące powodować ryzyko dla zdrowia i bezpieczeństwa lub praw podstawowych, powinny zostać uwzględnione w instrukcji obsługi dostarczonej przez dostawcę. Ma to na celu zapewnienie, aby podmiot stosujący był ich świadomy i uwzględniał je przy korzystaniu z systemu AI wysokiego ryzyka. Określenie i wdrożenie – na podstawie niniejszego rozporządzenia – środków ograniczających ryzyko w odniesieniu dodającego się przewidzieć niewłaściwego wykorzystania nie powinno wymagać od dostawcy wprowadzenia szczególnego dodatkowego szkolenia, by zaradzić temu dającemu się przewidzieć niewłaściwemu wykorzystaniu. Zachęca się jednak dostawców do rozważenia takich dodatkowych środków szkoleniowych w celu ograniczenia dającego się racjonalnie przewidzieć niewłaściwego wykorzystania, o ile będzie to konieczne i stosowne.
(66)
Za visokotvegane sisteme UI bi morale veljati zahteve glede obvladovanja tveganja, kakovosti in relevantnosti uporabljenih naborov podatkov, tehnične dokumentacije in vodenja evidenc, preglednosti in zagotavljanja informacij uvajalcem, človekovega nadzora ter robustnosti, točnosti in varnosti. Te zahteve so potrebne za učinkovito zmanjšanje tveganj za zdravje, varnost in temeljne pravice. Ker ni v razumni meri na voljo drugih manj omejevalnih ukrepov za trgovino, te zahteve ne predstavljajo neupravičene omejitve trgovine.
(66)
Do systemów AI wysokiego ryzyka należy stosować wymogi dotyczące zarządzania ryzykiem, jakości i istotności wykorzystywanych zbiorów danych, dokumentacji technicznej i rejestrowania zdarzeń, przejrzystości i przekazywania informacji podmiotom stosującym, nadzoru ze strony człowieka oraz solidności, dokładności i cyberbezpieczeństwa. Wymogi te są konieczne, aby skutecznie ograniczyć ryzyko dla zdrowia, bezpieczeństwa i praw podstawowych. Z uwagi na brak innych racjonalnie dostępnych środków, które powodowałyby mniejsze ograniczenia w handlu, wymogi te nie stanowią nieuzasadnionych ograniczeń w handlu.
(67)
Visokokakovostni podatki in dostop do njih imajo ključno vlogo pri zagotavljanju strukture in zmogljivosti številnih sistemov UI, zlasti kadar se uporabljajo tehnike, ki vključujejo učenje modelov, s katerim bi zagotovili, da bo visokotvegani sistem UI deloval, kot je predvideno, in varno ter da ne bo postal vir diskriminacije, ki je prepovedana s pravom Unije. Visokokakovostni nabori učnih, testnih in validacijskih podatkov zahtevajo izvajanje ustreznih prakse vodenja in upravljanja podatkov. Nabori učnih, testnih in validacijskih podatkov, vključno z oznakami, bi morali biti ustrezni, dovolj reprezentativni in v največji možni meri brez napak in popolni glede na predvideni namen. Da bi olajšali skladnost s pravom Unije o varstvu podatkov, kot je Uredba (EU) 2016/679, bi morale prakse vodenja in upravljanja podatkov v primeru osebnih podatkov vključevati preglednost prvotnega namena zbiranja podatkov. Nabori podatkov bi morali imeti tudi ustrezne statistične lastnosti, tudi kar zadeva osebe ali skupine oseb, v zvezi s katerimi naj bi se uporabljal visokotvegani sistem UI, s posebnim poudarkom na zmanjševanju morebitnih pristranskosti v naborih podatkov, ki bi lahko vplivale na zdravje in varnost oseb, negativno vplivale na temeljne pravice ali povzročile diskriminacijo, prepovedano na podlagi prava Unije, zlasti kadar izhodni podatki vplivajo na vhodne podatke za prihodnje operacije (povratne zanke). Na primer, pristranskost je lahko inherentno prisotna v osnovnih naborih podatkov, zlasti kadar se uporabljajo pretekli podatki, ali se ustvari, ko se sistemi izvajajo v realnih razmerah. Takšna inherentna pristranskost bi lahko vplivala na rezultate sistemov UI in se tudi običajno postopoma povečuje, zaradi česar se ohranja in povečuje tudi obstoječa diskriminacija, zlasti za osebe, ki pripadajo določenim ranljivim skupinam, vključno z rasnimi ali etničnimi skupinami. Zahteva, da morajo biti nabori podatkov čim bolj popolni in brez napak, ne bi smela vplivati na uporabo tehnik za ohranjanje zasebnosti v okviru razvoja in testiranja sistemov UI. Nabori podatkov morali zlasti v obsegu, ki ga zahteva njihov predvideni namen, upoštevati lastnosti, značilnosti ali elemente, ki so značilni za določeno geografsko, kontekstualno, vedenjsko ali funkcionalno okolje, v katerem naj bi se uporabljal sistem UI. Zahteve v zvezi z upravljanjem podatkov se lahko izpolnijo s pomočjo tretjih oseb, ki ponujajo certificirane storitve zagotavljanja skladnosti s predpisi, vključno s preverjanjem upravljanja podatkov, celovitosti nabora podatkov, praks učenja, validacije in testiranja podatkov, če je zagotovljena skladnost z zahtevami glede podatkov iz te uredbe.
(67)
Wysokiej jakości dane i dostęp do wysokiej jakości danych odgrywają kluczową rolę w ustanawianiu struktury i zapewnianiu skuteczności działania wielu systemów AI, w szczególności w przypadku stosowania technik obejmujących trenowanie modeli, w celu zapewnienia, aby system AI wysokiego ryzyka działał zgodnie z przeznaczeniem i bezpiecznie oraz aby nie stał się źródłem zakazanej przez prawo Unii dyskryminacji. Wysokiej jakości zbiory danych treningowych, walidacyjnych i testowych wymagają wdrożenia odpowiednich praktyk w zakresie administrowania i zarządzania danymi. Zbiory danych treningowych, walidacyjnych i testowych, w tym etykiety, powinny być adekwatne, wystarczająco reprezentatywne oraz w jak największym stopniu wolne od błędów i kompletne z punktu widzenia przeznaczenia systemu. Aby ułatwić zapewnienie zgodności z prawem Unii o ochronie danych, takim jak rozporządzenie (UE) 2016/679, praktyki w zakresie administrowania i zarządzania danymi powinny przewidywać, w przypadku danych osobowych, zapewnianie przejrzystości pierwotnego celu zbierania danych. Te zbiory danych powinny również charakteryzować się odpowiednimi właściwościami statystycznymi, w tym w odniesieniu do osób lub grup osób, wobec których system AI wysokiego ryzyka ma być wykorzystywany, ze szczególnym uwzględnieniem ograniczania ewentualnej stronniczości w zbiorach danych, która może mieć wpływ na zdrowie i bezpieczeństwo osób, negatywnie oddziaływać na prawa podstawowe lub prowadzić do dyskryminacji zakazanej na mocy prawa Unii, zwłaszcza w przypadku gdy dane wyjściowe wpływają na dane wejściowe wykorzystywane na potrzeby przyszłych operacji (sprzężenie zwrotne, ang. feedback loops). Stronniczość może być na przykład nieodłączną cechą źródłowych zbiorów danych, szczególnie jeżeli używa się danych historycznych lub wygenerowanych na etapie wdrażania systemów w warunkach rzeczywistych. Na wyniki generowane przez systemy AI może wpływać taka nieodłączna stronniczość, która z zasady stopniowo zwiększa się, a tym samym utrwala i pogłębia istniejącą dyskryminację, zwłaszcza w odniesieniu do osób należących do grup szczególnie wrażliwych, w tym grup rasowych lub etnicznych. Wymóg, aby zbiory danych były w jak największym stopniu kompletne i wolne od błędów, nie powinien wpływać na stosowanie technik ochrony prywatności w kontekście wdrażania i testowania systemów AI. W szczególności zbiory danych powinny uwzględniać – w zakresie wymaganym z uwagi na ich przeznaczenie – cechy, właściwości lub elementy, które są specyficzne dla określonego otoczenia geograficznego, kontekstualnego, behawioralnego lub funkcjonalnego, w którym dany system AI ma być wykorzystywany. Zgodność z wymogami związanymi z zarządzaniem danymi można zapewnić, korzystając z usług stron trzecich, które oferują certyfikowane usługi w zakresie zgodności, w tym weryfikację zarządzania danymi i integralności zbioru danych oraz praktyki w zakresie trenowania, walidacji i testowania danych, o ile zapewniona jest zgodność z wymogami dotyczącymi danych określonymi w niniejszym rozporządzeniu.
(68)
Za razvoj in ocenjevanje visokotveganih sistemov UI bi morali imeti nekateri akterji, kot so ponudniki, priglašeni organi in drugi ustrezni subjekti, kot evropska vozlišča za digitalne inovacije, centri za testiranje in eksperimentiranje ter raziskovalci, možnost dostopa do visokokakovostnih naborov podatkov in njihove uporabe na ustreznih področjih dejavnosti, povezanih s to uredbo. Evropski skupni podatkovni prostori, ki jih je vzpostavila Komisija, ter olajšanje souporabe podatkov med podjetji in z vlado v javnem interesu bodo bistveni za zagotavljanje zaupanja vrednega, odgovornega in nediskriminatornega dostopa do visokokakovostnih podatkov za učenje, potrjevanje in testiranje sistemov UI. Evropski zdravstveni podatkovni prostor bo na področju zdravja na primer olajšal nediskriminatoren dostop do zdravstvenih podatkov in učenje algoritmov UI na teh naborih podatkov na varen, pravočasen, pregleden in zaupanja vreden način ter z ustreznim institucionalnim upravljanjem. Ustrezni pristojni organi, vključno s sektorskimi, ki zagotavljajo ali podpirajo dostop do podatkov, lahko podpirajo tudi zagotavljanje visokokakovostnih podatkov za učenje, validacijo in testiranje sistemov UI.
(68)
Przy wdrażaniu i ocenie systemów AI wysokiego ryzyka niektóre podmioty, takie jak dostawcy, jednostki notyfikowane i inne odpowiednie podmioty, takie jak europejskie centra innowacji cyfrowych, ośrodki testowo-doświadczalne i naukowcy, powinny mieć możliwość uzyskania dostępu do wysokiej jakości zbiorów danych i korzystania z nich w zakresie obszarów działalności tych podmiotów związanych z niniejszym rozporządzeniem. Wspólne europejskie przestrzenie danych ustanowione przez Komisję oraz ułatwienie wymiany danych między przedsiębiorstwami i udostępniania danych administracji publicznej w interesie publicznym będą miały zasadnicze znaczenie dla zapewnienia zaufanego, odpowiedzialnego i niedyskryminacyjnego dostępu do danych wysokiej jakości na potrzeby trenowania, walidacji i testowania systemów AI. Na przykład w dziedzinie zdrowia europejska przestrzeń danych dotyczących zdrowia ułatwi niedyskryminacyjny dostęp do danych dotyczących zdrowia oraz trenowanie algorytmów AI na tych zbiorach danych w sposób bezpieczny, terminowy, przejrzysty, wiarygodny i zapewniający ochronę prywatności oraz z odpowiednim zarządzaniem instytucjonalnym. Odpowiednie właściwe organy, w tym organy sektorowe, zapewniające dostęp do danych lub wspierające taki dostęp, mogą również wspierać dostarczanie wysokiej jakości danych na potrzeby trenowania, walidacji i testowania systemów AI.
(69)
Pravica do zasebnosti in varstva osebnih podatkov mora biti zagotovljena v celotni življenjski dobi sistema UI. V zvezi s tem se pri obdelavi osebnih podatkov uporabljata načeli najmanjšega obsega podatkov ter vgrajenega in privzetega varstva podatkov, kot sta določeni v pravu Unije o varstvu podatkov. Ukrepi, ki jih ponudniki sprejmejo za zagotovitev skladnosti s temi načeli, lahko vključujejo ne le anonimizacijo in šifriranje, temveč tudi uporabo tehnologije, ki omogoča vnos algoritmov v podatke in učenje sistemov UI brez prenosa med stranmi ali kopiranja samih neobdelanih ali strukturiranih podatkov in brez poseganja v zahteve glede upravljanja podatkov iz te uredbe.
(69)
Prawo do prywatności i ochrony danych osobowych musi być zagwarantowane przez cały cykl życia systemu AI. W tym względzie, gdy przetwarzane są dane osobowe, zastosowanie mają zasady minimalizacji danych oraz uwzględnienia ochrony danych już w fazie projektowania i domyślnej ochrony danych, które określono w prawie Unii o ochronie danych. Środki podejmowane przez dostawców w celu zapewnienia zgodności z tymi zasadami mogą obejmować nie tylko anonimizację i szyfrowanie, ale również wykorzystanie technologii, która umożliwia wprowadzanie algorytmów do danych i umożliwia trenowanie systemów AI bez przekazywania między stronami lub kopiowania samych surowych lub ustrukturyzowanych danych, bez uszczerbku dla wymogów dotyczących zarządzania danymi przewidzianych w niniejszym rozporządzeniu.
(70)
Da bi zaščitili pravico drugih pred diskriminacijo, ki bi lahko nastala zaradi pristranskosti v sistemih UI, bi morali imeti ponudniki možnost, da izjemoma, če je to nujno potrebno za zagotavljanje odkrivanja in popravljanja pristranskosti v zvezi z visokotveganimi sistemi UI, ob upoštevanju ustreznih zaščitnih ukrepov za temeljne pravice in svoboščine fizičnih oseb ter ob uporabi vseh veljavnih pogojev iz te uredbe ter pogojev iz uredb (EU) 2016/679 in (EU) 2018/1725 ter Direktive (EU) 2016/680, obdelujejo tudi posebne kategorije osebnih podatkov kot zadevo bistvenega javnega interesa v smislu člena 9(2), točka (g), Uredbe (EU) 2016/679 in člena 10(2), točka (g), Uredbe (EU) 2018/1725.
(70)
W celu ochrony praw innych osób przed dyskryminacją, która może wynikać ze stronniczości systemów AI, dostawcy powinni wyjątkowo, w zakresie, w jakim jest to bezwzględnie konieczne do celów zapewnienia wykrywania i korygowania stronniczości w odniesieniu do systemów AI wysokiego ryzyka – z zastrzeżeniem odpowiednich zabezpieczeń w zakresie podstawowych praw i wolności osób fizycznych oraz po spełnieniu wszystkich mających zastosowanie warunków ustanowionych w niniejszym rozporządzeniu, w uzupełnieniu warunków ustanowionych w rozporządzeniach (UE) 2016/679 i (UE) 2018/1725 oraz w dyrektywie (UE) 2016/680 – mieć możliwość przetwarzania również szczególnych kategorii danych osobowych w związku z istotnym interesem publicznym w rozumieniu art. 9 ust. 2 lit. g) rozporządzenia (UE) 2016/679 i art. 10 ust. 2 lit. g) rozporządzenia (UE) 2018/1725.
(71)
Razumljive informacije o tem, kako so bili visokotvegani sistemi UI razviti in kako delujejo skozi celotno življenjsko dobo, so bistvene za omogočanje sledljivosti teh sistemov, preverjanje skladnosti z zahtevami iz te uredbe ter spremljanje njihovega delovanja in spremljanje po dajanju na trg. To zahteva vodenje evidenc in razpoložljivost tehnične dokumentacije, ki vsebuje informacije, potrebne za oceno skladnosti sistema UI z ustreznimi zahtevami in olajšanje spremljanja po dajanju na trg. Takšne informacije bi morale vključevati splošne značilnosti, zmogljivosti in omejitve sistema, uporabljene algoritme, podatke, postopke učenja, testiranja in potrjevanja ter dokumentacijo o ustreznem sistemu obvladovanja tveganja in biti pripravljene v jasni in celoviti obliki. Tehnično dokumentacijo bi bilo treba ustrezno posodabljati v celotni življenjski dobi sistema UI. Poleg tega bi morali visokotvegani sistemi UI tehnično omogočati samodejno beleženje dogodkov z dnevniki v celotni življenjski dobi sistema.
(71)
Dysponowanie zrozumiałymi informacjami na temat tego, w jaki sposób rozwinięto systemy AI wysokiego ryzyka i jak działają one w całym cyklu życia, ma zasadnicze znaczenie dla umożliwienia identyfikowalności tych systemów, weryfikacji zgodności z wymogami określonymi w niniejszym rozporządzeniu, a także dla monitorowania ich działania i monitorowania po wprowadzeniu do obrotu. W tym celu konieczne jest prowadzenie rejestrów zdarzeń oraz zapewnienie dostępności dokumentacji technicznej zawierającej informacje niezbędne do oceny zgodności systemu AI z odpowiednimi wymogami i do ułatwienia monitorowania po wprowadzeniu do obrotu. Informacje takie powinny być podane w jasnej i kompleksowej formie i obejmować ogólne cechy, zdolności i ograniczenia systemu, algorytmy, dane, procesy związane z trenowaniem, testowaniem i walidacją, a także dokumentację dotyczącą odpowiedniego systemu zarządzania ryzykiem. Dokumentacja techniczna powinna podlegać odpowiedniej aktualizacji w całym cyklu życia systemu AI. Ponadto w systemach AI wysokiego ryzyka powinno być technicznie możliwe automatyczne rejestrowanie zdarzeń – za pomocą rejestrów zdarzeń – w całym cyklu życia systemu.
(72)
Pri reševanju problemov v zvezi z nepreglednostjo in kompleksnostjo nekaterih sistemov UI ter za pomoč uvajalcem pri izpolnjevanju njihovih obveznosti iz te uredbe bi bilo treba za visokotvegane sisteme UI zahtevati preglednost, preden se dajo na trg ali v uporabo. Visokotvegani sistemi UI bi morali biti zasnovani tako, da bi uvajalci lahko razumeli, kako sistem UI deluje, ocenili njegovo funkcionalnost ter razumeli njegove prednosti in omejitve. Visokotveganim sistemom UI bi morale biti priložene ustrezne informacije v obliki navodil za uporabo. Takšne informacije bi morale vključevati značilnosti, zmogljivosti in omejitve zmogljivosti sistema UI. Ti naj bi zajemali informacije o morebitnih znanih in predvidljivih okoliščinah, povezanih z uporabo visokotveganega sistema UI, vključno z ukrepi uvajalcev, ki lahko vplivajo na vedenje in zmogljivost sistema, v katerih lahko sistem UI povzroči tveganja za zdravje, varnost in temeljne pravice, o spremembah, ki jih je ponudnik vnaprej določil in ocenil glede skladnosti, ter o ustreznih ukrepih za človeški nadzor, vključno z ukrepi za lažjo razlago izhodnih podatkov sistema UI s strani uvajalcev. Preglednost, vključno s priloženimi navodili za uporabo, bi morala pomagati uvajalcem pri uporabi sistema in sprejemanju informiranih odločitev. Uvajalci bi morali biti med drugim v boljšem položaju za pravilno izbiro sistema, ki ga nameravajo uporabljati glede na obveznosti, ki veljajo zanje, biti poučeni o nameravani in izključeni uporabi ter pravilno in ustrezno uporabljati sistem UI. Da bi izboljšali čitljivost in dostopnost informacij, vključenih v navodila za uporabo, bi bilo treba, kadar je ustrezno vključiti ponazoritvene primere, na primer glede omejitev ter predvidene in izključene uporabe sistema UI. Ponudniki bi morali zagotoviti, da vsa dokumentacija, vključno z navodili za uporabo, vsebuje smiselne, celovite, dostopne in razumljive informacije, ob upoštevanju potreb in predvidljivega znanja ciljnih uvajalcev. Navodila za uporabo bi morala biti na voljo v jeziku, ki ga določi zadevna država članica in ga ciljni uvajalci brez težav razumejo.
(72)
Aby zająć się kwestiami związanymi z efektem czarnej skrzynki i złożonością niektórych systemów AI i pomóc podmiotom stosującym w spełnianiu ich obowiązków ustanowionych w niniejszym rozporządzeniu, od systemów AI wysokiego ryzyka należy wymagać określonego stopnia przejrzystości przed wprowadzeniem ich do obrotu lub oddaniem ich do użytku. Systemy AI wysokiego ryzyka należy projektować w taki sposób, aby umożliwić podmiotom stosującym zrozumienie funkcjonowania systemu AI, ocenę jego funkcjonalności oraz zrozumienie jego mocnych stron i ograniczeń. Systemom AI wysokiego ryzyka powinny towarzyszyć odpowiednie informacje w formie instrukcji obsługi. Takie informacje powinny obejmować cechy, zdolności i ograniczenia skuteczności działania systemu AI. Obejmowałyby one informacje na temat ewentualnych znanych i dających się przewidzieć okoliczności związanych z wykorzystaniem systemu AI wysokiego ryzyka, w tym działań podmiotu stosującego, które mogą wpływać na zachowanie i skuteczność działania systemu, i w których to okolicznościach system AI może powodować ryzyko dla zdrowia, bezpieczeństwa i praw podstawowych; a także informacje na temat zmian, które zostały z góry zaplanowane i ocenione pod kątem zgodności przez dostawcę, oraz na temat odpowiednich środków nadzoru ze strony człowieka, w tym środków ułatwiających podmiotom stosującym AI interpretację wyników systemu AI. Przejrzystość, w tym towarzyszące instrukcje obsługi, powinny pomóc podmiotom stosującym w korzystaniu z systemu i wspierać podejmowanie przez te podmioty świadomych decyzji. Podmioty stosujące powinny, między innymi, być lepiej przygotowane, aby dokonać właściwego wyboru systemu, z którego zamierzają korzystać w świetle mających do nich zastosowanie obowiązków, mieć wiedzę na temat zamierzonych i wykluczonych sposobów wykorzystania oraz prawidłowo i odpowiednio korzystać z systemu AI. Aby zwiększyć czytelność i dostępność informacji zawartych w instrukcji obsługi, w stosownych przypadkach należy uwzględnić konkretne przykłady, takie jak przykłady ograniczeń czy zamierzonych i wykluczonych sposobów wykorzystania systemu AI. Dostawcy powinni zapewnić, aby wszelka dokumentacja, w tym instrukcje obsługi, zawierała istotne, wyczerpujące, dostępne i zrozumiałe informacje, z uwzględnieniem potrzeb docelowych podmiotów stosujących i prawdopodobnie posiadanej przez te podmioty wiedzy. Instrukcje obsługi powinny być udostępniane w języku łatwo zrozumiałym dla docelowych podmiotów stosujących, określonym przez zainteresowane państwo członkowskie.
(73)
Visokotvegani sistemi UI bi morali biti zasnovani in razviti tako, da lahko fizične osebe nadzorujejo njihovo delovanje, zagotavljajo, da se uporabljajo, kot je bilo predvideno, in da se njihovi vplivi obravnavajo v celotnem življenjskem ciklu sistema. V ta namen bi moral ponudnik sistema pred dajanjem sistema na trg ali v uporabo določiti ustrezne ukrepe za človeški nadzor. Zlasti bi morali taki ukrepi, kadar je primerno, zagotavljati, da za sistem veljajo vgrajene operativne omejitve, ki jih sistem sam ne more razveljaviti, da se sistem odziva na človeškega operaterja ter da imajo fizične osebe, ki jim je bil dodeljen človekov nadzor, potrebne kompetence, usposobljenost in pooblastila za opravljanje te vloge. Prav tako je bistveno po potrebi zagotoviti, da visokotvegani sistemi UI vključujejo mehanizme za usmerjanje in obveščanje fizične osebe, ki ji je bil dodeljen človeški nadzor, za sprejemanje informiranih odločitev o tem, ali, kdaj in kako posredovati, da bi se izognili negativnim posledicam ali tveganjem, ali ustaviti sistem, če ne deluje, kot je bilo predvideno. Glede na pomembne posledice, ki jih napačno ujemanje v nekaterih sistemih za biometrično identifikacijo ljudi pomeni za osebe, je za te sisteme ustrezno določiti okrepljeno zahtevo po človekovem nadzoru, tako da uvajalec ne more sprejeti ukrepa ali odločitve na podlagi identifikacije, ki izhaja iz sistema, če tega nista ločeno preverili in potrdili vsaj dve fizični osebi. Ti osebi sta lahko iz enega ali več subjektov in vključujeta osebo, ki upravlja ali uporablja sistem. Ta zahteva ne bi smela ustvariti nepotrebnega bremena ali zamud, in lahko bi zadoščalo, da bi se ločena preverjanja različnih oseb samodejno zabeležila v dnevnikih, ki jih ustvari sistem. Glede na posebnosti področij preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, migracij, nadzora meje in azila se ta zahteva ne bi smela uporabljati, kadar je v skladu s pravom Unije ali nacionalnim pravom uporaba te zahteve nesorazmerna.
(73)
Systemy AI wysokiego ryzyka należy projektować i rozwijać w taki sposób, aby osoby fizyczne mogły nadzorować ich funkcjonowanie, zapewniać, by ich wykorzystanie było zgodne z przeznaczeniem oraz zapewniać, aby skutki ich wykorzystania były uwzględniane w całym cyklu życia systemu. W tym celu przed wprowadzeniem systemu do obrotu lub oddaniem go do użytku dostawca systemu powinien określić odpowiednie środki związane z nadzorem ze strony człowieka. W szczególności, w stosownych przypadkach, takie środki powinny gwarantować, że system podlega wbudowanym ograniczeniom operacyjnym, których sam nie jest w stanie obejść, i reaguje na działania człowieka – operatora systemu, oraz że osoby fizyczne, którym powierzono sprawowanie nadzoru ze strony człowieka, posiadają niezbędne kompetencje, przeszkolenie i uprawnienia do pełnienia tej funkcji. W stosownych przypadkach istotne jest także zapewnienie, aby systemy AI wysokiego ryzyka obejmowały mechanizmy udzielania wskazówek i informacji osobom fizycznym, którym powierzono nadzór ze strony człowieka, aby mogły one podejmować świadome decyzje, czy, kiedy i w jaki sposób należy interweniować w celu uniknięcia negatywnych konsekwencji lub ryzyka lub zatrzymać system, jeżeli nie działa on zgodnie z przeznaczeniem. Zważywszy na istotne konsekwencje dla osób w przypadku nieprawidłowego dopasowania przez niektóre systemy identyfikacji biometrycznej, należy wprowadzić wymóg sprawowania w odniesieniu do tych systemów wzmocnionego nadzoru ze strony człowieka, tak aby podmiot stosujący nie mógł podejmować żadnych działań ani decyzji na podstawie identyfikacji wynikającej z systemu, dopóki nie została ona odrębnie zweryfikowana i potwierdzona przez co najmniej dwie osoby fizyczne. Osoby te mogą pochodzić z różnych podmiotów i mogą to być osoby obsługujące system lub z niego korzystające. Wymóg ten nie powinien powodować niepotrzebnych obciążeń ani opóźnień i powinno wystarczyć, że odrębne weryfikacje dokonywane przez różne osoby będą automatycznie rejestrowane w wygenerowanych przez system rejestrach zdarzeń. Biorąc pod uwagę specyfikę obszarów ścigania przestępstw, migracji, kontroli granicznej i azylu, wymóg ten nie powinien mieć zastosowania, jeżeli na mocy prawa Unii lub prawa krajowego stosowanie tego wymogu uznaje się za nieproporcjonalne.
(74)
Visokotvegani sistemi UI bi morali v celotni življenjski dobi delovati dosledno ter izpolnjevati ustrezno raven točnosti, robustnosti in kibernetske varnosti glede na njihov predvideni namen in v skladu s splošno priznanimi najsodobnejšimi tehnološkimi dosežki. Komisijo ter ustrezne organizacije in deležnike se spodbuja, naj ustrezno upoštevajo zmanjšanje tveganj in negativne učinke sistema UI. Pričakovano raven metrik zmogljivosti bi bilo treba navesti v priloženih navodilih za uporabo. Ponudniki so pozvani, naj te informacije sporočijo uvajalcem na jasen in lahko razumljiv način, brez nesporazumov ali zavajajočih izjav. Namen prava Unije o zakonskem meroslovju, vključno z direktivama 2014/31/EU (35) in 2014/32/EU (36) Evropskega parlamenta in Sveta, je zagotoviti točnost meritev ter prispevati k preglednosti in poštenosti trgovinskih poslov. V zvezi s tem bi morala Komisija v sodelovanju z ustreznimi deležniki in organizacijami, kot so organi za meroslovje in primerjalno analizo, po potrebi spodbujati razvoj referenčnih vrednosti in metodologij merjenja za sisteme UI. Pri tem bi se morala Komisija seznaniti z mednarodnimi partnerji, ki se ukvarjajo z meroslovjem in ustreznimi kazalniki merjenja v zvezi z UI, ter z njimi sodelovati.
(74)
Systemy AI wysokiego ryzyka powinny działać w sposób spójny w całym cyklu życia i charakteryzować się odpowiednim poziomem dokładności, solidności i cyberbezpieczeństwa – w świetle ich przeznaczenia i zgodnie z powszechnie uznawanym stanem wiedzy technicznej. Komisję oraz odpowiednie organizacje i zainteresowane strony zachęca się, by należycie uwzględniały ograniczanie ryzyka i negatywnych skutków związanych z systemem AI. Oczekiwany poziom wskaźników skuteczności działania należy zadeklarować w załączonej instrukcji obsługi. Dostawców wzywa się, by przekazywali te informacje podmiotom stosującym w jasny i łatwo zrozumiały sposób, wolny od dwuznaczności i stwierdzeń wprowadzających w błąd. Prawo Unii dotyczące metrologii prawnej, w tym dyrektywy Parlamentu Europejskiego i Rady 2014/31/UE (35) i 2014/32/UE (36), ma na celu zapewnienie dokładności pomiarów oraz wspieranie przejrzystości i uczciwości transakcji handlowych. W tym kontekście, we współpracy z odpowiednimi zainteresowanymi stronami i organizacjami, takimi jak organy ds. metrologii i organy ds. analizy porównawczej, Komisja powinna w stosownych przypadkach zachęcać do opracowywania poziomów odniesienia i metod pomiaru dotyczących systemów AI. Komisja powinna przy tym współpracować z partnerami międzynarodowymi pracującymi nad metrologią i odpowiednimi wskaźnikami pomiarowymi związanymi z AI oraz uwzględniać ich działania.
(75)
Tehnična robustnost je ključna zahteva za visokotvegane sisteme UI. Morali bi biti odporni na škodljivo ali kako drugače nezaželeno ravnanje, ki je lahko posledica omejitev znotraj sistema ali okolja, v katerem sistem deluje (npr. napake, okvare, nedoslednosti, nepričakovane situacije). Zato bi bilo treba sprejeti tehnične in organizacijske ukrepe za zagotovitev odpornosti visokotveganih sistemov UI, na primer z zasnovo in razvojem ustreznih tehničnih rešitev za preprečevanje ali zmanjšanje škodljivega ali drugače nezaželenega vedenja. Takšne tehnične rešitve lahko na primer vključujejo mehanizme, ki sistemu omogočajo varno prekinitev delovanja (načrti varne odpovedi), če so prisotne določene nepravilnosti ali delovanje poteka zunaj določenih vnaprej določenih meja. Neuspešna zaščita pred temi tveganji bi lahko imela varnostne posledice ali negativno vplivala na temeljne pravice, na primer zaradi napačnih odločitev ali napačnih ali pristranskih izhodnih podatkov, ki jih ustvari sistem UI.
(75)
Kluczowym wymogiem dotyczącym systemów AI wysokiego ryzyka jest solidność techniczna. Powinny one być odporne na szkodliwe lub w inny sposób niepożądane zachowania, które mogą wynikać z ograniczeń w systemach lub ze środowiska, w którym te systemy działają (np. błędy, usterki, niespójności, nieoczekiwane sytuacje). W związku z tym należy wprowadzić środki techniczne i organizacyjne, by zapewnić solidność systemów AI wysokiego ryzyka, na przykład poprzez projektowanie i rozwijanie odpowiednich rozwiązań technicznych w celu zapobiegania szkodliwym lub innym niepożądanym zachowaniom lub ich ograniczania. Takie rozwiązania techniczne mogą obejmować na przykład mechanizmy umożliwiające bezpieczne przerwanie działania systemu (przejście systemu w stan bezpieczny – tzw. „fail-safe”), jeśli zaistnieją pewne nieprawidłowości lub gdy działanie wykracza poza określone z góry granice. Brak ochrony przed tym ryzykiem może mieć konsekwencje dla bezpieczeństwa lub negatywnie wpłynąć na prawa podstawowe, na przykład z powodu błędnych decyzji lub nieprawidłowych lub stronniczych wyników generowanych przez system AI.
(76)
Kibernetska varnost ima ključno vlogo pri zagotavljanju odpornosti sistemov UI proti poskusom spreminjanja njihove uporabe, vedenja, zmogljivosti ali ogrožanja njihovih varnostnih lastnosti s strani zlonamernih tretjih oseb, ki izkoriščajo šibke točke sistema. Kibernetski napadi na sisteme UI lahko izkoristijo posebna sredstva UI, kot so nabori učnih podatkov (npr. zastrupitev podatkov) ali naučeni modeli (npr. nasprotovalni napadi ali sklepanje o članstvu), ali pa šibke točke digitalnih sredstev sistema UI ali osnovne infrastrukture IKT. Da bi zagotovili raven kibernetske varnosti, ki ustreza tveganjem, bi morali ponudniki visokotveganih sistemov UI sprejeti ustrezne ukrepe, kot je varnostni nadzor, in pri tem po potrebi tudi upoštevati osnovne infrastrukture IKT.
(76)
Cyberbezpieczeństwo odgrywa kluczową rolę w zapewnianiu odporności systemów AI na próby modyfikacji ich wykorzystania, zachowania, skuteczności działania lub obejścia ich zabezpieczeń przez działające w złej wierze osoby trzecie wykorzystujące słabe punkty systemu. Cyberataki na systemy AI mogą polegać na wykorzystaniu konkretnych zasobów AI, takich jak zbiory danych treningowych (np. zatruwanie danych) lub trenowane modele (np. ataki kontradyktoryjne lub ataki wnioskowania o członkostwie), lub wykorzystaniu słabych punktów w zasobach cyfrowych systemu AI lub w bazowej infrastrukturze ICT. Aby zapewnić poziom cyberbezpieczeństwa odpowiedni do ryzyka, dostawcy systemów AI wysokiego ryzyka powinni zatem wdrożyć odpowiednie środki, takie jak mechanizmy kontroli bezpieczeństwa, uwzględniając również w stosownych przypadkach infrastrukturę ICT, na której opiera się dany system.
(77)
Brez poseganja v zahteve v zvezi z robustnostjo in natančnostjo iz te uredbe se lahko skladnost visokotveganih sistemov UI, ki spadajo na področje uporabe uredbe Evropskega parlamenta in Sveta o horizontalnih zahtevah glede kibernetske varnosti za izdelke z digitalnimi elementi, v skladu z navedeno uredbo, z zahtevami glede kibernetske varnosti iz te uredbe dokaže z izpolnjevanjem bistvenih zahtev glede kibernetske varnosti iz navedene uredbe. Če visokotvegani sistemi UI izpolnjujejo bistvene zahteve iz uredbe o horizontalnih zahtevah glede kibernetske varnosti za izdelke z digitalnimi elementi, štejejo za skladne z zahtevami glede kibernetske varnosti iz te uredbe, če je izpolnjevanje navedenih zahtev dokazano v EU izjavi o skladnosti ali delih izjave, izdane na podlagi navedene uredbe. V ta namen bi bilo treba pri oceni tveganj za kibernetsko varnost, povezanih s proizvodom z digitalnimi elementi, razvrščenimi kot visokotvegani sistem UI v skladu s to uredbo, ki se izvede na podlagi uredbe o horizontalnih zahtevah glede kibernetske varnosti za izdelke z digitalnimi elementi, upoštevati tveganja za kibernetsko odpornost sistema UI na poskuse nepooblaščenih tretjih oseb, da z izkoriščanjem šibkih točk sistema spremenijo njegovo uporabo, vedenje ali zmogljivost, vključno s šibkimi točkami, ki so specifične za UI, kot so zastrupitev podatkov ali nasprotovalni napadi, ter v zvezi s tveganji za temeljne pravice, kot je zahtevano v tej uredbi.
(77)
Bez uszczerbku dla wymogów związanych z solidnością i dokładnością określonych w niniejszym rozporządzeniu systemy AI wysokiego ryzyka, które wchodzą w zakres stosowania rozporządzenia Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi, zgodnie z tym rozporządzeniem mogą wykazać zgodność z wymogami w zakresie cyberbezpieczeństwa określonymi w niniejszym rozporządzeniu w drodze spełnienia zasadniczych wymogów w zakresie cyberbezpieczeństwa ustanowionych w tym rozporządzeniu. W przypadku gdy systemy AI wysokiego ryzyka spełniają zasadnicze wymogi rozporządzenia Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi, należy uznać, że wykazują zgodność z wymogami w zakresie cyberbezpieczeństwa ustanowionymi w niniejszym rozporządzeniu w zakresie, w jakim spełnienie tych wymogów wykazano w deklaracji zgodności UE lub w jej częściach wydanych zgodnie z tym rozporządzeniem. W tym celu ocena ryzyka dotyczącego cyberbezpieczeństwa związanego z produktem z elementami cyfrowymi, które zaklasyfikowano jako system AI wysokiego ryzyka zgodnie z niniejszym rozporządzeniem, przeprowadzana na podstawie rozporządzenia Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi, powinna uwzględniać ryzyko dla cyberodporności systemu AI w odniesieniu do podejmowanych przez nieupoważnione osoby trzecie prób zmiany jego wykorzystania, zachowania lub skuteczności działania, w tym uwzględniać charakterystyczne dla AI słabe punkty, takie jak ryzyko zatruwania danych lub ataki kontradyktoryjne, a także, w stosownych przypadkach, uwzględniać ryzyko dla praw podstawowych zgodnie z wymogami niniejszego rozporządzenia.
(78)
Postopek ugotavljanja skladnosti iz te uredbe bi bilo treba uporabljati v zvezi z bistvenimi zahtevami glede kibernetske varnosti proizvoda z digitalnimi elementi, ki jih zajema uredba o horizontalnih zahtevah glede kibernetske varnosti za izdelke z digitalnimi elementi in je razvrščen kot visokotvegani sistem UI na podlagi te uredbe. Vendar to pravilo ne bi smelo povzročiti znižanja potrebne ravni zanesljivosti za kritične proizvode z digitalnimi elementi, ki jih zajema uredba o horizontalnih zahtevah glede kibernetske varnosti za izdelke z digitalnimi elementi. Zato z odstopanjem od tega pravila za visokotvegane sisteme UI, ki spadajo na področje uporabe te uredbe in so opredeljeni tudi kot pomembni in kritični proizvodi z digitalnimi elementi na podlagi uredbe o horizontalnih zahtevah glede kibernetske varnosti za izdelke z digitalnimi elementi ter se zanje uporablja postopek ugotavljanja skladnosti na podlagi notranjega nadzora iz ene od prilog k tej uredbi, veljajo določbe o ugotavljanju skladnosti iz uredbe o horizontalnih zahtevah glede kibernetske varnosti za izdelke z digitalnimi elementi, kar zadeva bistvene zahteve glede kibernetske varnosti iz navedene uredbe. V tem primeru bi bilo treba za vse druge vidike, ki jih zajema ta uredba, uporabljati ustrezne določbe o ugotavljanju skladnosti na podlagi notranjega nadzora iz ene od prilog k tej uredbi. Komisija bi morala na podlagi poznavanja področja in strokovnega znanja agencije ENISA o politiki kibernetske varnosti in nalogah, dodeljenih agenciji ENISA na podlagi Uredbe (EU) 2019/881 Evropskega parlamenta in Sveta (37), sodelovati z agencijo ENISA pri vprašanjih, povezanih s kibernetsko varnostjo sistemov UI.
(78)
Procedura oceny zgodności przewidziana w niniejszym rozporządzeniu powinna mieć zastosowanie do zasadniczych wymogów w zakresie cyberbezpieczeństwa produktu z elementami cyfrowymi objętego rozporządzeniem Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi i zaklasyfikowanego jako system AI wysokiego ryzyka na podstawie niniejszego rozporządzenia. Zasada ta nie powinna jednak powodować zmniejszenia niezbędnego poziomu ufności w odniesieniu do produktów krytycznych z elementami cyfrowymi objętych rozporządzeniem Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi. W związku z tym, na zasadzie odstępstwa od tej zasady, systemy AI wysokiego ryzyka, które wchodzą w zakres niniejszego rozporządzenia i są również kwalifikowane jako ważne i krytyczne produkty z elementami cyfrowymi zgodnie z rozporządzeniem Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi i do których ma zastosowanie procedura oceny zgodności oparta na kontroli wewnętrznej określona w załączniku do niniejszego rozporządzenia, podlegają przepisom dotyczącym oceny zgodności zawartym w rozporządzeniu Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi w zakresie, w jakim dotyczy to zasadniczych wymogów w zakresie cyberbezpieczeństwa określonych w tym rozporządzeniu. W tym przypadku do wszystkich pozostałych aspektów objętych niniejszym rozporządzeniem należy stosować odpowiednie przepisy dotyczące oceny zgodności opierającej się na kontroli wewnętrznej określone w załączniku do niniejszego rozporządzenia. By wykorzystać wiedzę teoretyczną i fachową ENISA w zakresie polityki cyberbezpieczeństwa i w oparciu o zadania powierzone ENISA na podstawie rozporządzenia Parlamentu Europejskiego i Rady (UE) 2019/881 (37), Komisja powinna współpracować z ENISA w kwestiach związanych z cyberbezpieczeństwem systemów AI.
(79)
Primerno je, da določena fizična ali pravna oseba, opredeljena kot ponudnik, prevzame odgovornost za dajanje visokotveganega sistema UI na trg ali v uporabo, ne glede na to, ali je ta oseba tista, ki je zasnovala ali razvila sistem.
(79)
Należy zapewnić, aby odpowiedzialność za wprowadzenie do obrotu lub oddanie do użytku systemu AI wysokiego ryzyka ponosiła konkretna osoba fizyczna lub prawna określona jako dostawca, niezależnie od tego, czy ta osoba fizyczna lub prawna jest osobą, która zaprojektowała lub rozwinęła system.
(80)
Kot podpisnice Konvencije Organizacije združenih narodov o pravicah invalidov so Unija in države članice pravno zavezane, da ščitijo invalide pred diskriminacijo in spodbujajo njihovo enakost, jim zagotovijo, da imajo enako kot drugi dostop do informacijskih in komunikacijskih tehnologij in sistemov, ter da se spoštuje njihova zasebnost. Ob vse večjem pomenu in uporabi sistemov UI bi morala uporaba načel univerzalnega oblikovanja pri vseh novih tehnologijah in storitvah zagotoviti popoln in enakopraven dostop vsem, ki so lahko izpostavljeni tehnologijam UI ali te tehnologije uporabljajo, tudi invalidom, na način, ki v celoti upošteva njihovo prirojeno dostojanstvo in raznolikost. Zato je bistvenega pomena, da ponudniki zagotavljajo popolno skladnost z zahtevami glede dostopnosti, tudi z Direktivo (EU) 2016/2102 Evropskega parlamenta in Sveta (38) in Direktivo (EU) 2019/882. Ponudniki bi morali zagotoviti skladnost s temi zahtevami že pri zasnovi. Zato bi bilo treba potrebne ukrepe v čim večji meri vključiti v zasnovo visokotveganega sistema UI.
(80)
Jako sygnatariusze Konwencji ONZ o prawach osób niepełnosprawnych Unia i państwa członkowskie są prawnie zobowiązane do ochrony osób z niepełnosprawnościami przed dyskryminacją i do propagowania ich równości, do zapewnienia im dostępu na równych zasadach z innymi osobami do technologii i systemów informacyjno-komunikacyjnych oraz do zapewnienia poszanowania ich prywatności. Z uwagi na rosnące znaczenie i wykorzystanie systemów sztucznej inteligencji stosowanie zasad projektowania uniwersalnego do wszystkich nowych technologii i usług powinno zapewniać pełny i równy dostęp dla wszystkich osób, których potencjalnie dotyczą technologie AI lub które je stosują, w tym osób z niepełnosprawnościami, w sposób uwzględniający w pełni ich przyrodzoną godność i różnorodność. Istotne jest zatem, aby dostawcy zapewniali pełną zgodność z wymogami dostępności, w tym z dyrektywą Parlamentu Europejskiego i Rady (UE) 2016/2102 (38) i dyrektywą (UE) 2019/882. Dostawcy powinni zapewnić zgodność z tymi wymogami już na etapie projektowania. W związku z tym w projektowaniu systemu AI wysokiego ryzyka należy w jak największym stopniu uwzględnić niezbędne środki.
(81)
Ponudnik bi moral vzpostaviti zanesljiv sistem upravljanja kakovosti, zagotoviti izvedbo zahtevanega postopka ugotavljanja skladnosti, pripraviti ustrezno dokumentacijo in vzpostaviti robusten sistem spremljanja po dajanju na trg. Ponudniki visokotveganih sistemov UI, za katere veljajo obveznosti v zvezi s sistemi upravljanja kakovosti na podlagi ustreznega sektorskega prava Unije, bi morali imeti možnost, da elemente sistema upravljanja kakovosti iz te uredbe vključijo v obstoječi sistem upravljanja kakovosti, določen v navedenem drugem sektorskem pravu Unije. Pri prihodnjih dejavnostih standardizacije ali smernicah, ki jih sprejme Komisija, bi bilo treba upoštevati tudi dopolnjevanje med to uredbo in obstoječim sektorskim pravom Unije. Javni organi, ki visokotvegane sisteme UI dajo v uporabo za lastno uporabo, lahko sprejmejo in izvajajo pravila za sistem upravljanja kakovosti kot del sistema upravljanja kakovosti, sprejetega bodisi na nacionalni ali na regionalni ravni, ob upoštevanju posebnosti sektorja ter pristojnosti in organizacije zadevnega javnega organa.
(81)
Dostawca powinien ustanowić solidny system zarządzania jakością, zapewnić przeprowadzenie wymaganej procedury oceny zgodności, sporządzić odpowiednią dokumentację i ustanowić solidny system monitorowania po wprowadzeniu do obrotu. Dostawcy systemów AI wysokiego ryzyka, którzy podlegają obowiązkom dotyczącym systemów zarządzania jakością na mocy odpowiednich sektorowych przepisów prawa Unii, powinni mieć możliwość włączenia elementów systemu zarządzania jakością przewidzianego w niniejszym rozporządzeniu do istniejącego systemu zarządzania jakością przewidzianego w innych sektorowych przepisach prawa Unii. Komplementarność między niniejszym rozporządzeniem a obowiązującymi sektorowymi przepisami prawa Unii powinna być również brana pod uwagę w przyszłych działaniach normalizacyjnych lub wytycznych przyjmowanych przez Komisję. Organy publiczne, które oddają do użytku systemy AI wysokiego ryzyka do celów własnych, mogą – w ramach przyjętego, odpowiednio, na poziomie krajowym lub regionalnym systemu zarządzania jakością – przyjąć i wdrożyć zasady dotyczące systemu zarządzania jakością, z uwzględnieniem specyfiki sektora oraz kompetencji i organizacji danego organu publicznego.
(82)
Da se omogoči izvajanje te uredbe in ustvarijo enaki konkurenčni pogoji za operaterje ter ob upoštevanju različnih oblik omogočanja dostopnosti digitalnih proizvodov, je pomembno zagotoviti, da lahko oseba s sedežem v Uniji v vseh okoliščinah organom zagotovi vse potrebne informacije o skladnosti sistema UI. Zato bi morali ponudniki s sedežem v tretjih državah pred dajanjem svojih sistemov UI na voljo v Uniji, s pisnim pooblastilom imenovati pooblaščenega zastopnika s sedežem v Uniji. Ta pooblaščeni zastopnik ima ključno vlogo pri zagotavljanju skladnosti visokotveganih sistemov UI, ki jih ti ponudniki, ki nimajo sedeža v Uniji, dajejo na trg ali v uporabo v Uniji, in je njihova kontaktna oseba s sedežem v Uniji.
(82)
W celu umożliwienia egzekwowania przepisów niniejszego rozporządzenia i stworzenia równych warunków działania dla operatorów, a także uwzględniając różne formy udostępniania produktów cyfrowych, należy zapewnić, aby w każdych okolicznościach osoba, która ma miejsce zamieszkania lub siedzibę w Unii, była w stanie przekazać organom wszystkie niezbędne informacje dotyczące zgodności danego systemu AI. W związku z tym dostawcy mający miejsce zamieszkania lub siedzibę w państwach trzecich przed udostępnieniem swoich systemów AI w Unii powinni ustanowić – na podstawie pisemnego pełnomocnictwa – upoważnionego przedstawiciela mającego miejsce zamieszkania lub siedzibę w Unii. Ten upoważniony przedstawiciel odgrywa kluczową rolę w zapewnianiu zgodności systemów AI wysokiego ryzyka wprowadzanych do obrotu lub oddawanych do użytku w Unii przez dostawców, którzy nie mają miejsca zamieszkania lub siedziby w Unii, oraz w pełnieniu funkcji ich osoby kontaktowej mającej miejsce zamieszkania lub siedzibę w Unii.
(83)
Glede na naravo in kompleksnost verige vrednosti za sisteme UI ter v skladu z novim zakonodajnim okvirom je bistveno zagotoviti pravno varnost in olajšati skladnost s to uredbo. Zato je treba pojasniti vlogo in posebne obveznosti zadevnih operaterjev v tej verigi vrednosti, kot so uvozniki in distributerji, ki lahko prispevajo k razvoju sistemov UI. V nekaterih situacijah bi lahko ti operaterji imeli več kot eno vlogo hkrati in bi morali zato kumulativno izpolnjevati vse zadevne obveznosti, povezane s temi vlogami. Tako bi na primer operater lahko hkrati bil distributer in uvoznik.
(83)
W świetle charakteru i złożoności łańcucha wartości systemów AI oraz zgodnie z nowymi ramami prawnymi konieczne jest zapewnienie pewności prawa i ułatwienie zgodności z niniejszym rozporządzeniem. W związku z tym konieczne jest wyjaśnienie roli i konkretnych obowiązków odpowiednich operatorów w całym łańcuchu wartości, takich jak importerzy i dystrybutorzy, którzy mogą przyczyniać się do rozwoju systemów AI. W niektórych sytuacjach operatorzy ci mogą odgrywać więcej niż jedną rolę jednocześnie i w związku z tym powinni łącznie spełniać wszystkie odpowiednie obowiązki związane z tymi rolami. Na przykład operator może występować jednocześnie jako dystrybutor i importer.
(84)
Za zagotovitev pravne varnosti je treba pojasniti, da bi bilo treba pod določenimi pogoji vsakega distributerja, uvoznika, uvajalca ali druge tretje osebe šteti za ponudnika visokotveganega sistema UI in bi zato moral prevzeti vse zadevne obveznosti. To bi veljalo, če ta stranka svoje ime ali znamko vnese v visokotvegani sistem UI, ki je že dan na trg ali v uporabo, brez poseganja v pogodbene dogovore, ki določajo, da se obveznosti dodelijo drugače. To bi veljalo tudi, če ta stranka bistveno spremeni visokotvegani sistem UI, ki je že bil dan na trg ali v uporabo, na način, da ostane visokotvegani sistem UI v skladu s to uredbo, ali če spremeni predvideni namen sistema UI, vključno z sistemom UI za splošne namene, ki ni bil razvrščen kot sistem visokega tveganja in je že bil dan na trg ali v uporabo, na način, da sistem UI postane sistem visokega tveganja v skladu s to uredbo. Te določbe bi bilo treba uporabljati brez poseganja v bolj specifične določbe v okviru določene harmonizacijske zakonodaje, temelječe na novem zakonodajnem okviru, ki naj bi se uporabljala skupaj s to uredbo. Na primer člen 16(2) Uredbe (EU) 2017/745, v katerem je določeno, da nekatere spremembe ne bi smele šteti kot spremembe pripomočka, ki bi lahko vplivale na skladnost z veljavnimi zahtevami, bi bilo treba še naprej uporabljati za visokotvegane sisteme UI, ki so medicinski pripomočki v smislu navedene uredbe.
(84)
Aby zapewnić pewność prawa, należy wyjaśnić, że w pewnych określonych warunkach każdego dystrybutora, importera, podmiot stosujący lub inną stronę trzecią należy uznać za dostawcę systemu AI wysokiego ryzyka i w związku z tym powinni oni przyjąć na siebie wszystkie związane z tym obowiązki. Miałoby to miejsce w przypadku, gdy strona ta umieszcza swoją nazwę lub znak towarowy w systemie AI wysokiego ryzyka, który został już wprowadzony do obrotu lub oddany do użytku, bez uszczerbku dla ustaleń umownych przewidujących odmienny podział obowiązków. Miałoby to miejsce również w przypadku, gdy strona ta dokonuje istotnej zmiany w systemie AI wysokiego ryzyka, który został już wprowadzony do obrotu lub oddany do użytku, w taki sposób, że pozostaje on systemem AI wysokiego ryzyka zgodnie z niniejszym rozporządzeniem, lub jeżeli zmieni przeznaczenie systemu AI, w tym systemu AI ogólnego przeznaczenia, który nie został zaklasyfikowany jako system wysokiego ryzyka i został już wprowadzony do obrotu lub oddany do użytku, w taki sposób, że ten system AI staje się systemem wysokiego ryzyka zgodnie z niniejszym rozporządzeniem. Przepisy te należy stosować bez uszczerbku dla bardziej szczegółowych przepisów ustanowionych w unijnym prawodawstwie harmonizacyjnym opartym o nowe ramy prawne, wraz z którymi należy stosować niniejsze rozporządzenie. Na przykład do systemów AI wysokiego ryzyka będących wyrobami medycznymi w rozumieniu rozporządzenia (UE) 2017/745, należy nadal stosować art. 16 ust. 2 tego rozporządzenia stanowiący, że niektórych zmian nie należy uznawać za modyfikację wyrobu mogącą wpłynąć na jego zgodność z obowiązującymi wymogami.
(85)
Sistemi UI za splošne namene se lahko uporabljajo kot samostojni visokotvegani sistemi UI ali pa so komponente drugih visokotveganih sistemov UI. Zato bi morali ponudniki takih sistemov zaradi njihove posebne narave in za zagotovitev pravične delitve odgovornosti v verigi vrednosti UI ne glede na to, ali lahko drugi ponudniki te sisteme uporabljajo kot samostojne visokotvegane sisteme UI ali kot komponente visokotveganih sistemov UI in če v tej uredbi ni določeno drugače, tesno sodelovati s ponudniki zadevnih visokotveganih sistemov UI, da bi jim omogočili izpolnjevanje obveznosti iz te uredbe, in s pristojnimi organi, ustanovljenimi na podlagi te uredbe.
(85)
Systemy AI ogólnego przeznaczenia mogą być wykorzystywane jako samodzielne systemy AI wysokiego ryzyka lub stanowić element innych systemów AI wysokiego ryzyka. W związku z tym z uwagi na ich szczególny charakter i aby zapewnić sprawiedliwy podział odpowiedzialności w całym łańcuchu wartości AI, dostawcy takich systemów, niezależnie od tego, czy ich mogą być one wykorzystywane jako systemy AI wysokiego ryzyka przez innych dostawców czy jako elementy systemów AI wysokiego ryzyka, powinni ściśle współpracować – o ile niniejsze rozporządzenie nie stanowi inaczej – z dostawcami odpowiednich systemów AI wysokiego ryzyka, aby umożliwić im spełnianie odpowiednich obowiązków ustanowionych w niniejszym rozporządzeniu, oraz z właściwymi organami ustanowionymi na podstawie niniejszego rozporządzenia.
(86)
Kadar na podlagi pogojev iz te uredbe ponudnik, ki je sistem UI prvotno dal na trg ali v uporabo, za namene te uredbe ne bi smel več šteti za ponudnika in če ta ponudnik ni izrecno izključil spremembe sistema UI v visokotvegani sistem UI, bi moral nekdanji ponudnik kljub temu tesno sodelovati in dati na voljo potrebne informacije ter zagotoviti razumno pričakovani tehnični dostop in drugo pomoč, ki so potrebni za izpolnjevanje obveznosti iz te uredbe, zlasti v zvezi s skladnostjo visokotveganih sistemov UI z ugotavljanjem skladnosti.
(86)
W przypadku gdy zgodnie z warunkami ustanowionymi w niniejszym rozporządzeniu dostawcy, który pierwotnie wprowadził system AI do obrotu lub oddał go do użytku, nie należy już uznawać za dostawcę do celów niniejszego rozporządzenia, a dostawca ten nie wykluczył wyraźnie, że system AI może zostać zmieniony w system AI wysokiego ryzyka, ten pierwszy dostawca powinien nadal ściśle współpracować i udostępniać niezbędne informacje oraz zapewniać dostęp techniczny i inną pomoc, których można zasadnie oczekiwać i które są wymagane do spełnienia obowiązków ustanowionych w niniejszym rozporządzeniu, w szczególności w zakresie wymogów dotyczących oceny zgodności systemów AI wysokiego ryzyka.
(87)
Poleg tega, kadar visokotvegani sistem UI, ki je varnostna komponenta proizvoda, ki spada na področje uporabe harmonizacijske zakonodaje Unije na podlagi novega zakonodajnega okvira, ni dan na trg ali v uporabo neodvisno od proizvoda, bi moral proizvajalec proizvoda, opredeljen v navedeni zakonodaji, izpolnjevati obveznosti ponudnika iz te uredbe in zlasti zagotoviti, da sistem UI, vgrajen v končni proizvod, izpolnjuje zahteve iz te uredbe.
(87)
Ponadto w przypadku gdy system AI wysokiego ryzyka będący związanym z bezpieczeństwem elementem produktu, który wchodzi w zakres stosowania unijnego prawodawstwa harmonizacyjnego opartego na nowych ramach prawnych, nie jest wprowadzany do obrotu ani oddawany do użytku niezależnie od tego produktu, producent produktu – w rozumieniu tego prawodawstwa – powinien spełniać obowiązki dostawcy ustanowione w niniejszym rozporządzeniu, a w szczególności zapewnić zgodność systemu AI wbudowanego w produkt końcowy z wymogami niniejszego rozporządzenia.
(88)
V verigi vrednosti UI sisteme UI, orodja in storitve, pa tudi komponente ali procese, ki jih ponudnik vključi v sistem UI z različnimi cilji, vključno z učenjem modelov, ponovnim učenjem modelov, testiranjem in ocenjevanjem modelov, vključevanjem v programsko opremo ali drugimi vidiki razvoja modela, pogosto dobavlja več strani. Te strani imajo pomembno vlogo v verigi vrednosti v odnosu do ponudnika visokotveganega sistema UI, v katerega so vključeni njihovi sistemi UI, orodja, storitve, komponente ali procesi, in bi morale temu ponudniku v pisni obliki zagotoviti potrebne informacije, zmogljivosti, tehnični dostop in drugo pomoč na podlagi splošno priznanih najsodobnejših tehnoloških dosežkov, da bi lahko ponudnik v celoti izpolnjeval obveznosti iz te uredbe, ne da bi bile pri tem ogrožene njegove pravice intelektualne lastnine ali poslovne skrivnosti.
(88)
W całym łańcuchu wartości AI wiele podmiotów często dostarcza systemy AI, narzędzia i usługi, ale również elementy lub procesy, które są włączane przez dostawcę do systemu AI w różnych celach, w tym trenowania modelu, retrenowania modelu, testowania i oceny modelu, integracji z oprogramowaniem lub innych aspektów rozwoju modelu. Podmioty te mają do odegrania ważną rolę w łańcuchu wartości w stosunku do dostawcy systemu AI wysokiego ryzyka, z którym to systemem zintegrowane są ich systemy AI, narzędzia, usługi, elementy lub procesy; podmioty te powinny zapewnić temu dostawcy na podstawie pisemnej umowy niezbędne informacje, zdolności, dostęp techniczny i inną pomoc w oparciu o powszechnie uznany stan wiedzy technicznej, aby umożliwić dostawcy pełne spełnienie obowiązków ustanowionych w niniejszym rozporządzeniu, bez uszczerbku dla ich własnych praw własności intelektualnej lub tajemnic przedsiębiorstwa.
(89)
Za tretje osebe, ki javnosti omogočajo dostop do orodij, storitev, postopkov ali komponent UI, ki niso modeli UI za splošne namene, ne bi smela veljati obveznost glede izpolnjevanja zahtev, ki se nanašajo na odgovornosti v verigi vrednosti UI, zlasti do ponudnika, ki jih je uporabil ali vključil, če so ta orodja, storitve, postopki ali komponente UI dostopni na podlagi proste in odprtokodne licence. Razvijalce brezplačnih in odprtokodnih orodij, storitev, postopkov ali komponent UI, ki niso modeli UI za splošne namene, pa bi bilo treba spodbujati k izvajanju splošno sprejetih dokumentacijskih praks, kot so vzorčne kartice in podatkovni listi, da bi pospešili izmenjavo informacij v verigi vrednosti UI, kar bi omogočilo spodbujanje zaupanja vrednih sistemov UI v Uniji.
(89)
Strony trzecie udostępniające publicznie narzędzia, usługi, procesy lub elementy AI, inne niż modele AI ogólnego przeznaczenia, nie powinny być zobowiązane do zapewnienia zgodności z wymogami dotyczącymi odpowiedzialności w całym łańcuchu wartości AI, w szczególności wobec dostawcy, który je wykorzystał lub zintegrował, jeżeli te narzędzia, usługi, procesy lub elementy AI są udostępniane na podstawie bezpłatnej licencji otwartego oprogramowania. Należy zachęcać twórców narzędzi, usług, procesów lub elementów AI, innych niż modele AI ogólnego przeznaczenia, które są udostępniane na bezpłatnej licencji otwartego oprogramowania, do wdrażania powszechnie przyjętych praktyk w zakresie dokumentacji, takich jak karta modelu i karta charakterystyki, jako sposobu na przyspieszenie wymiany informacji w całym łańcuchu wartości AI, co umożliwi promowanie godnych zaufania systemów AI w Unii.
(90)
Komisija bi lahko razvila in priporočila prostovoljne vzorčne pogodbene pogoje med ponudniki visokotveganih sistemov UI in tretjimi osebami, ki zagotavljajo orodja, storitve, komponente ali procese, ki se uporabljajo ali vključujejo v visokotvegane sisteme UI, da bi olajšali sodelovanje v verigi vrednosti. Komisija bi morala pri oblikovanju prostovoljnih vzorčnih pogodbenih pogojev upoštevati morebitne pogodbene zahteve, ki se uporabljajo v posameznih sektorjih ali poslovnih primerih.
(90)
Komisja mogłaby opracować dobrowolne wzorcowe postanowienia umowne między dostawcami systemów AI wysokiego ryzyka a stronami trzecimi dostarczającymi narzędzia, usługi, elementy lub procesy, które są wykorzystywane w systemach AI wysokiego ryzyka lub z nimi zintegrowane, i zalecać stosowanie tych modelowych postanowień, aby ułatwić współpracę w całym łańcuchu wartości. Przy opracowywaniu dobrowolnych wzorcowych postanowień umownych, Komisja powinna też brać pod uwagę wymogi umowne, które mogą mieć zastosowanie w szczególnych sektorach lub przypadkach biznesowych.
(91)
Glede na naravo sistemov UI ter tveganja za varnost in temeljne pravice, ki so morda povezana z njihovo uporabo, tudi kar zadeva potrebo po zagotovitvi ustreznega spremljanja zmogljivosti sistema UI v realnem življenju, je primerno določiti posebne odgovornosti za uvajalce. Uvajalci bi morali zlasti sprejeti ustrezne tehnične in organizacijske ukrepe za zagotovitev, da uporabljajo visokotvegane sisteme UI v skladu z navodili za uporabo, pri čemer bi bilo treba določiti nekatere druge obveznosti v zvezi s spremljanjem delovanja sistemov UI in v zvezi z vodenjem evidenc, če je to primerno. Poleg tega bi morali uvajalci zagotoviti, da imajo osebe, dodeljene za izvajanje navodil za uporabo in človeški nadzor, kot je določeno v tej uredbi, potrebne kompetence, zlasti ustrezno raven pismenosti, usposobljenosti in pooblastil na področju UI za pravilno izpolnjevanje teh nalog. Te obveznosti ne bi smele posegati v druge obveznosti uvajalcev v zvezi z visokotveganimi sistemi UI na podlagi prava Unije ali nacionalnega prava.
(91)
Ze względu na charakter systemów AI oraz ryzyko dla bezpieczeństwa i praw podstawowych, jakie może wiązać się z ich wykorzystywaniem, uwzględniając przy tym potrzebę zapewnienia właściwego monitorowania skuteczności działania systemu AI w warunkach rzeczywistych, należy określić szczególne obowiązki podmiotów stosujących. Podmioty stosujące powinny w szczególności wprowadzić odpowiednie środki techniczne i organizacyjne w celu zapewnienia, aby systemy AI wysokiego ryzyka były wykorzystywane przez nich zgodnie z instrukcjami obsługi, a w stosownych przypadkach należy przewidzieć określone inne obowiązki w odniesieniu do monitorowania funkcjonowania systemów AI oraz rejestrowania zdarzeń. Ponadto podmioty stosujące powinny zapewnić, aby osoby wyznaczone do stosowania instrukcji obsługi i sprawowania nadzoru ze strony człowieka, zgodnie z niniejszym rozporządzeniem, posiadały niezbędne kompetencje, w szczególności odpowiedni poziom kompetencji w zakresie AI oraz odpowiedni poziom przeszkolenia i uprawnień, aby właściwie wykonywać te zadania. Obowiązki te powinny pozostawać bez uszczerbku dla innych wynikających z prawa Unii lub prawa krajowego obowiązków podmiotów stosujących w odniesieniu do systemów AI wysokiego ryzyka.
(92)
Ta uredba ne posega v obveznosti delodajalcev, da delavce ali njihove predstavnike obveščajo ali se z njimi posvetujejo na podlagi prava Unije ali nacionalnega prava in prakse, vključno z Direktivo 2002/14/ES Evropskega parlamenta in Sveta (39) o odločitvah o dajanju v uporabo ali uporabi sistemov UI. Še naprej je treba zagotavljati informacije delavcem in njihovim predstavnikom o načrtovani uvedbi visokotveganih sistemov UI na delovnem mestu, kadar niso izpolnjeni pogoji za te obveznosti glede obveščanja ali obveščanja in posvetovanja iz drugih pravnih instrumentov. Poleg tega je taka pravica do obveščenosti pomožna in potrebna za cilj varstva temeljnih pravic, na katerem temelji ta uredba. Zato bi bilo treba v tej uredbi določiti zahtevo po informacijah v ta namen, ne da bi to vplivalo na obstoječe pravice delavcev.
(92)
Niniejsze rozporządzenie pozostaje bez uszczerbku dla obowiązków pracodawców w zakresie informowania pracowników lub ich przedstawicieli i konsultowania się z nimi na podstawie prawa Unii o prawa krajowego oraz unijnej lub krajowej praktyki, w tym dyrektywy 2002/14/WE Parlamentu Europejskiego i Rady (39), na temat decyzji o oddaniu do użytku lub korzystaniu z systemów AI. Nadal konieczne jest zapewnienie pracownikom i ich przedstawicielom informacji na temat planowanego wdrożenia systemów AI wysokiego ryzyka w miejscu pracy, w przypadku gdy warunki dotyczące tych obowiązków w zakresie informowania lub informowania i przeprowadzania konsultacji określone w innych instrumentach prawnych nie są spełnione. Ponadto takie prawo do informacji ma charakter pomocniczy i konieczny w stosunku do leżącego u podstaw niniejszego rozporządzenia celu, jakim jest ochrona praw podstawowych. W związku z tym w niniejszym rozporządzeniu należy ustanowić wymóg informowania w tym zakresie, nie naruszając żadnych istniejących praw pracowników.
(93)
Poleg tega, da lahko tveganja, povezana s sistemi UI, nastanejo zaradi načina zasnove takih sistemov, lahko tveganja izvirajo tudi iz tega, kako se taki sistemi uporabljajo. Uvajalci visokotveganega sistema UI imajo zato ključno vlogo pri skrbi za zaščito temeljnih pravic, kar dopolnjuje obveznosti ponudnika pri razvoju sistema UI. Uvajalci najbolje razumejo, kako se bo visokotvegani sistem UI dejansko uporabljal, in lahko tako opredelijo potencialna velika tveganja, ki niso bila predvidena v fazi razvoja, saj natančneje poznajo okoliščine uporabe, osebe ali skupine oseb, ki bodo verjetno izpostavljene, vključno z ranljivimi skupinami. Uvajalci visokotveganih sistemov UI, navedeni v eni od prilog k tej uredbi, imajo tudi ključno vlogo pri obveščanju fizičnih oseb in bi morali pri sprejemanju odločitev ali pomoči pri sprejemanju odločitev v zvezi s fizičnimi osebami po potrebi obvestiti fizične osebe, da se zanje uporablja visokotvegani sistem UI. Te informacije bi morale vključevati njegov predvideni namen in vrsto odločitev, ki jih sprejema. Uvajalec bi moral fizične osebe obvestiti tudi o njihovi pravici do obrazložitve iz te uredbe. Kar zadeva visokotvegane sisteme UI, ki se uporabljajo za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, bi bilo treba to obveznost izvajati v skladu s členom 13 Direktive (EU) 2016/680.
(93)
Ryzyko związane z systemami AI może wynikać ze sposobu zaprojektowania takich systemów, jak również ze sposobu ich wykorzystania. Podmioty stosujące systemy AI wysokiego ryzyka odgrywają zatem kluczową rolę w zapewnianiu ochrony praw podstawowych w uzupełnieniu obowiązków dostawcy podczas rozwoju systemu AI. Podmioty stosujące najlepiej rozumieją, jak konkretnie wykorzystywany będzie system AI wysokiego ryzyka, i mogą w związku z tym zidentyfikować potencjalne znaczące ryzyko, które nie zostało przewidziane na etapie rozwoju, dzięki bardziej precyzyjnej wiedzy na temat kontekstu wykorzystania, osób lub grup osób, na które system może wywierać wpływ, w tym grup szczególnie wrażliwych. Podmioty stosujące systemy AI wysokiego ryzyka wymienione w załączniku do niniejszego rozporządzenia również odgrywają kluczową rolę w informowaniu osób fizycznych i powinny – gdy podejmują decyzje lub pomagają w podejmowaniu decyzji dotyczących osób fizycznych, w stosownych przypadkach, informować osoby fizyczne, że jest w stosunku do nich wykorzystywany system AI wysokiego ryzyka. Taka informacja powinna obejmować przeznaczenie systemu i typ podejmowanych przez niego decyzji. Podmiot stosujący informuje również osoby fizyczne o przysługujących im prawie do uzyskania wyjaśnienia, które przewiduje niniejsze rozporządzenie. W odniesieniu do systemów AI wysokiego ryzyka wykorzystywanych do celów ścigania przestępstw obowiązek ten należy wykonywać zgodnie z art. 13 dyrektywy (UE) 2016/680.
(94)
Vsaka obdelava biometričnih podatkov, vključena v uporabo sistemov UI za biometrično identifikacijo za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, mora biti skladna s členom 10 Direktive (EU) 2016/680, ki omogoča tako obdelavo le, kadar je to nujno potrebno, ob upoštevanju ustreznih zaščitnih ukrepov za pravice in svoboščine posameznika, na katerega se nanašajo osebni podatki, in kadar je to dovoljeno v skladu s pravom Unije ali pravom države članice. Kadar je taka uporaba odobrena, je treba spoštovati tudi načela iz člena 4(1) Direktive (EU) 2016/680, vključno z zakonitostjo, pravičnostjo in preglednostjo, omejitvijo namena, točnostjo in omejitvijo shranjevanja.
(94)
Wszelkie przetwarzanie danych biometrycznych związane z wykorzystywaniem systemów AI do identyfikacji biometrycznej do celów ścigania przestępstw musi być zgodne z art. 10 dyrektywy (UE) 2016/680, który zezwala na takie przetwarzanie wyłącznie wtedy, jeżeli jest to bezwzględnie konieczne, z zastrzeżeniem odpowiednich zabezpieczeń w zakresie praw i wolności osoby, której dane dotyczą, oraz jeżeli jest to dopuszczone prawem Unii lub prawem państwa członkowskiego. Takie wykorzystanie, jeżeli jest dozwolone, musi być również zgodne z zasadami określonymi w art. 4 ust. 1 dyrektywy (UE) 2016/680, w tym zasadami zgodności z prawem, rzetelności i przejrzystości, celowości, dokładności i ograniczenia przechowywania.
(95)
Brez poseganja v veljavno pravo Unije, zlasti v Uredbo (EU) 2016/679 in Direktivo (EU) 2016/680, in ob upoštevanju intruzivne narave sistemov za naknadno biometrično identifikacijo na daljavo, bi bilo treba za uporabo sistemov za naknadno biometrično identifikacijo na daljavo uporabljati zaščitne ukrepe. Sisteme za naknadno biometrično identifikacijo na daljavo bi bilo treba vedno uporabljati na način, ki je sorazmeren, zakonit in nujno potreben ter tako ciljno usmerjen v smislu posameznikov, ki jih je treba identificirati, lokacije, časovnega obsega in na podlagi zaprtega nabora podatkov iz zakonito pridobljenih videoposnetkov. V nobenem primeru sistemov za naknadno biometrično identifikacijo na daljavo ne bi smeli uporabljati v okviru preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, da ne bi povzročili neselektivnega nadzora. Pogoji za naknadno biometrično identifikacijo na daljavo v nobenem primeru ne bi smeli biti podlaga za izogibanje pogojem prepovedi in strogim izjemam za biometrično identifikacijo na daljavo v realnem času.
(95)
Bez uszczerbku dla mającego zastosowanie prawa Unii, w szczególności rozporządzenia (UE) 2016/679 i dyrektywy (UE) 2016/680, biorąc pod uwagę inwazyjny charakter systemów zdalnej identyfikacji biometrycznej post factum, korzystanie z takich systemów powinno podlegać zabezpieczeniom. Systemy identyfikacji biometrycznej post factum powinny być zawsze wykorzystywane w sposób proporcjonalny, zgodny z prawem i jeżeli jest to bezwzględnie konieczne, a tym samym ukierunkowane na osoby fizyczne, które mają zostać zidentyfikowane, na określoną lokalizację i zakres czasowy, oraz opierać się na zamkniętym zbiorze danych pochodzących z legalnie uzyskanych materiałów wideo. W żadnym wypadku systemy zdalnej identyfikacji biometrycznej post factum nie powinny być wykorzystywane w ramach ścigania przestępstw w celu prowadzenia niezróżnicowanego nadzoru. Warunki zdalnej identyfikacji biometrycznej post factum nie powinny w żadnym wypadku stanowić podstawy do obchodzenia warunków zakazu i ścisłych wyjątków dotyczących zdalnej identyfikacji biometrycznej w czasie rzeczywistym.
(96)
Da bi učinkovito zagotovili varstvo temeljnih pravic, bi morali uvajalci visokotveganih sistemov UI, ki so osebe javnega prava, ali zasebni subjekti, ki zagotavljajo javne storitve, in uvajalci, ki uporabljajo nekatere visokotvegane sisteme UI, navedene v eni od prilog k tej uredbi, kot so bančni ali zavarovalniški subjekti, pred začetkom uporabe izvesti oceno učinka na temeljne pravice. Storitve, pomembne za posameznike, ki so javne narave, lahko zagotavljajo tudi zasebni subjekti. Zasebni subjekti, ki zagotavljajo takšne javne storitve, so povezani z nalogami v javnem interesu, na primer na področjih izobraževanja, zdravstvenega varstva, socialnih storitev, stanovanj in razsojanja. Cilj ocene učinka na temeljne pravice je, da uvajalec opredeli posebna tveganja za pravice posameznikov ali skupin posameznikov, ki bodo verjetno izpostavljene, in ukrepe, ki jih je treba sprejeti v primeru uresničitve teh tveganj. Oceno učinka bi bilo treba opraviti pred uvedbo visokotveganega sistema UI in bi jo bilo treba posodobiti, kadar uvajalec meni, da se je spremenil kateri od pomembnih dejavnikov. V oceni učinka bi bilo treba opredeliti ustrezne procese uvajalca, v katerih se bo visokotvegani sistem UI uporabljal v skladu s predvidenim namenom, ter opis obdobja in pogostosti uporabe sistema ter posebnih kategorij fizičnih oseb in skupin, ki bodo verjetno izpostavljene v posebnih okoliščinah uporabe. Ocena bi morala vključevati tudi opredelitev posebnih tveganj škode, ki bi lahko vplivala na temeljne pravice teh oseb ali skupin. Da bi zagotovili pravilno izvedbo te ocene učinka, bi moral uvajalec pri njenem izvajanju upoštevati ustrezne informacije, med drugim tudi tiste, ki jih ponudnik visokotveganega sistema UI navede v navodilih za uporabo. Glede na ugotovljena tveganja bi morali uvajalci določiti ukrepe, ki jih je treba sprejeti v primeru uresničitve teh tveganj, vključno na primer z ureditvami upravljanja v tem posebnem okviru uporabe, kot so ureditve za človeški nadzor v skladu z navodili za uporabo ali obravnavanje pritožb in postopki pravnega varstva, saj bi lahko bili ključni za zmanjšanje tveganj za temeljne pravice v konkretnih primerih uporabe. Po izvedbi te ocene učinka bi moral uvajalec o tem obvestiti ustrezni organ za nadzor trga. Za zbiranje ustreznih informacij, potrebnih za izvedbo ocene učinka, bi lahko uvajalci visokotveganega sistema UI, zlasti kadar se sistemi UI uporabljajo v javnem sektorju, v izvajanje takih ocen učinka in oblikovanje ukrepov, ki jih je treba sprejeti v primeru uresničitve tveganj, po potrebi vključili ustrezne deležnike, vključno s predstavniki skupin oseb, na katere bo sistem UI verjetno vplival, neodvisne strokovnjake in organizacije civilne družbe. Evropski urad za umetno inteligenco (v nadaljnjem besedilu: Urad za UI) bi moral pripraviti predlogo vprašalnika, da bi olajšali skladnost in zmanjšali upravno breme za uvajalce.
(96)
Aby skutecznie zapewnić ochronę praw podstawowych, podmioty stosujące systemy AI wysokiego ryzyka będące podmiotami prawa publicznego lub podmiotami prywatnymi świadczącymi usługi publiczne i podmioty stosujące niektóre systemy AI wysokiego ryzyka wymienione w załączniku do niniejszego rozporządzenia, tacy jak podmioty bankowe lub ubezpieczeniowe, powinni przed wprowadzeniem tych systemów do użytku przeprowadzić ocenę skutków dla praw podstawowych. Usługi o charakterze publicznym ważne dla osób fizycznych mogą być również świadczone przez podmioty prywatne. Podmioty prywatne świadczące takie usługi publiczne działają w powiązaniu z zadaniami świadczonymi w interesie publicznym, takimi jak edukacja, opieka zdrowotna, usługi społeczne, mieszkalnictwo, sprawowanie wymiaru sprawiedliwości. Celem oceny skutków dla praw podstawowych jest zidentyfikowanie przez podmiot stosujący konkretnych rodzajów ryzyka dla praw osób fizycznych lub grup osób fizycznych, na które AI może mieć wpływ, oraz określenie środków, które należy podjąć w przypadku urzeczywistnienia się tego ryzyka. Ocena skutków powinna być przeprowadzana przed wdrożeniem systemu AI wysokiego ryzyka i powinna być aktualizowana, gdy podmiot stosujący uzna, że którykolwiek z istotnych czynników uległ zmianie. W ocenie skutków należy określić odpowiednie procesy podmiotu stosującego, w których system AI wysokiego ryzyka będzie wykorzystywany zgodnie z jego przeznaczeniem; powinna ona przedstawiać informacje o okresie, w którym system ma być wykorzystywany, i o częstotliwości jego wykorzystania, a także opis konkretnych kategorii osób fizycznych i grup, na które AI może mieć wpływ w tym konkretnym kontekście wykorzystania. Ocena powinna również obejmować określenie szczególnego ryzyka szkody, które może mieć wpływ na prawa podstawowe tych osób lub grup. Przeprowadzając tę ocenę, podmiot stosujący powinien uwzględnić informacje istotne dla właściwej oceny skutków, w tym między innymi informacje podane przez dostawcę systemu AI wysokiego ryzyka w instrukcji obsługi. W świetle zidentyfikowanego ryzyka podmioty stosujące powinny określić środki, które należy podjąć w przypadku urzeczywistnienia się tego ryzyka, w tym na przykład rozwiązania dotyczące zarządzania w tym konkretnym kontekście wykorzystania, np. dotyczące nadzoru ze strony człowieka zgodnie z instrukcją obsługi lub procedury rozpatrywania skarg i dochodzenia roszczeń, ponieważ mogą one odegrać zasadniczą rolę w ograniczaniu ryzyka dla praw podstawowych w konkretnych przypadkach wykorzystania. Po przeprowadzeniu tej oceny skutków podmiot stosujący powinien powiadomić odpowiedni organ nadzoru rynku. W stosownych przypadkach w celu zebrania odpowiednich informacji niezbędnych do przeprowadzenia oceny skutków podmioty stosujące system AI wysokiego ryzyka, w szczególności gdy systemy AI są wykorzystywane w sektorze publicznym, mogą angażować odpowiednie zainteresowane strony, w tym przedstawicieli grup osób, na które system AI może mieć wpływ, niezależnych ekspertów i organizacje społeczeństwa obywatelskiego w przeprowadzanie takich ocen skutków i opracowywanie środków, które należy wprowadzić w przypadku urzeczywistnienia się ryzyka. Europejski Urząd ds. Sztucznej Inteligencji (zwany dalej „Urzędem ds. AI”) powinien opracować wzór kwestionariusza, by ułatwić zapewnienie zgodności przez podmioty stosujące i zmniejszyć obciążenia administracyjne dla tych podmiotów.
(97)
Da bi omogočili pravno varnost, bi moral biti pojem modelov UI za splošne namene jasno opredeljen in ločen od pojma sistemov UI. Opredelitev bi morala temeljiti na ključnih funkcionalnih značilnostih modela UI za splošne namene, zlasti na splošnosti in sposobnosti opravljanja širokega nabora različnih nalog. Ti modeli se običajno učijo s pomočjo velikih količin podatkov z različnimi metodami, kot so samonadzorovano, nenadzorovano ali okrepljeno učenje. Modeli UI za splošne namene se lahko dajo na trg na različne načine, tudi prek knjižnic, vmesnikov za aplikacijsko programiranje (API), kot neposredni prenos ali kot fizična kopija. Ti modeli se lahko dodatno spremenijo ali prilagodijo novim modelom. Čeprav so modeli UI bistvene komponente sistemov UI, sami po sebi niso sistemi UI. Da bi modeli UI postali sistemi UI, jim je treba dodati dodatne komponente, kot je na primer uporabniški vmesnik. Modeli UI so običajno vključeni v sisteme UI in so njihov sestavni del. V tej uredbi so določena posebna pravila za modele UI za splošne namene in modele UI za splošne namene, ki predstavljajo sistemska tveganja, ki bi jih bilo treba uporabljati tudi, kadar so ti modeli vključeni v sistem UI ali tvorijo del sistema UI. Razumeti bi bilo treba, da bi bilo treba obveznosti ponudnikov modelov UI za splošne namene uporabljati, ko bodo ti modeli dani na trg. Če ponudnik modela UI za splošne namene vključi lastni model v svoj sistem UI, ki je dostopen na trgu ali je v uporabi, bi bilo treba šteti, da je ta model dan na trg, zato bi bilo treba še naprej uporabljati obveznosti iz te uredbe za modele, poleg tistih za sisteme UI. Obveznosti, ki so določene za modele, se v nobenem primeru ne bi smeli uporabljati, če se lastni model uporablja za izključno notranje postopke, ki niso bistveni za zagotavljanje proizvoda ali storitve tretjim osebam, in to ne vpliva na pravice fizičnih oseb. Glede na njihove morebitne znatne negativne učinke bi morale za modele UI za splošne namene s sistemskim tveganjem vedno veljati ustrezne obveznosti iz te uredbe. Opredelitev ne bi smela zajemati modelov UI, ki se uporabljajo pred dajanjem na trg izključno za namene raziskav, razvoja in izdelave prototipov. To ne posega v obveznost skladnosti s to uredbo, kadar se po takšnih dejavnostih model da na trg.
(97)
Należy jasno zdefiniować pojęcie modeli AI ogólnego przeznaczenia i oddzielić je od pojęcia systemów AI, aby zapewnić pewność prawa. Definicja powinna opierać się na kluczowych cechach funkcjonalnych modelu AI ogólnego przeznaczenia, w szczególności na ogólnym charakterze i zdolności do kompetentnego wykonywania szerokiego zakresu różnych zadań. Modele te są zazwyczaj trenowane w oparciu o dużą ilość danych za pomocą różnych metod, takich jak uczenie się samodzielnie nadzorowane, nienadzorowane lub uczenie przez wzmacnianie. Modele AI ogólnego przeznaczenia mogą być wprowadzane do obrotu na różne sposoby, w tym za pośrednictwem bibliotek, interfejsów programowania aplikacji (API), przez bezpośrednie pobieranie lub w wersji fizycznej. Modele te mogą być dalej zmieniane lub dostosowywane jako baza do tworzenia nowych modeli. Chociaż modele AI są zasadniczymi elementami systemów AI, nie stanowią same w sobie systemów AI. Aby model AI mógł stać się systemem AI należy dodać do niego dodatkowe elementy, takie jak na przykład interfejs użytkownika. Modele AI są zwykle zintegrowane z systemami AI i stanowią ich część. Niniejsze rozporządzenie ustanawia przepisy szczególne dotyczące modeli AI ogólnego przeznaczenia oraz modeli AI ogólnego przeznaczenia, które stwarzają ryzyko systemowe, a przepisy te powinny być stosowane również wtedy, gdy modele te są zintegrowane z systemem AI lub stanowią jego część. Należy rozumieć, że obowiązki dostawców modeli AI ogólnego przeznaczenia powinny mieć zastosowanie od momentu wprowadzenia do obrotu modeli AI ogólnego przeznaczenia. W przypadku gdy dostawca modelu AI ogólnego przeznaczenia zintegruje własny model z własnym systemem AI, który jest udostępniany na rynku lub oddany do użytku, model ten należy uznać za wprowadzony do obrotu i w związku z tym ustanowione w niniejszym rozporządzeniu obowiązki dotyczące modeli powinny nadal mieć zastosowanie obok obowiązków dotyczących systemów AI. Obowiązki ustanowione w odniesieniu do modeli nie powinny w żadnym przypadku mieć zastosowania, jeżeli model własny jest stosowany w czysto wewnętrznych procesach, które nie są niezbędne do dostarczania produktu lub usługi osobom trzecim, a prawa osób fizycznych nie są naruszone. Biorąc pod uwagę ich potencjalne znacząco negatywne skutki, modele AI ogólnego przeznaczenia z ryzykiem systemowym powinny zawsze podlegać odpowiednim obowiązkom ustanowionym w niniejszym rozporządzeniu. Definicja nie powinna obejmować modeli AI wykorzystywanych przed wprowadzeniem ich do obrotu wyłącznie do celów działalności badawczo-rozwojowej i tworzenia prototypów. Pozostaje to bez uszczerbku dla obowiązku zapewnienia zgodności z niniejszym rozporządzeniem w przypadku wprowadzenia do obrotu danego modelu w następstwie takiej działalności.
(98)
Medtem ko bi bilo mogoče splošnost modela med drugim določiti tudi s številnimi parametri, bi bilo treba šteti, da modeli z vsaj milijardo parametrov in naučeni z veliko količino podatkov, ki uporabljajo samonadzor v velikem obsegu, kažejo znatno splošnost in so sposobni kompetentno opravljati širok nabor različnih nalog.
(98)
Mając na uwadze, że ogólny charakter modelu można określić między innymi na podstawie liczby parametrów, należy uznać, że modele o co najmniej miliardzie parametrów i trenowane w oparciu o dużą ilość danych z wykorzystaniem nadzoru własnego na dużą skalę są bardzo ogólne i kompetentnie wykonują szeroki zakres różnych zadań.
(99)
Veliki generativni modeli UI so tipičen primer modela UI za splošne namene, saj omogočajo prilagodljivo ustvarjanje vsebin, kot so besedilo, zvočni zapisi, slike ali videoposnetki, ki se lahko zlahka prilagodijo širokemu spektru različnih nalog.
(99)
Duże generatywne modele AI są typowym przykładem modelu AI ogólnego przeznaczenia, biorąc pod uwagę, że umożliwiają elastyczne generowanie treści, np. w postaci tekstu, dźwięku, obrazów lub materiałów wideo, i mogą z łatwością wykonywać szeroki zakres różnych zadań.
(100)
Kadar je model UI za splošne namene vključen v sistem UI ali je del sistema UI, bi bilo treba ta sistem šteti za sistem UI za splošne namene, če se lahko zaradi te vključitve ta sistem uporablja za različne namene. Sistem UI za splošne namene se lahko uporablja neposredno ali pa se lahko vključi v druge sisteme UI.
(100)
Jeżeli model AI ogólnego przeznaczenia jest zintegrowany z systemem AI lub stanowi jego część, system ten należy uznać za system AI ogólnego przeznaczenia, jeżeli w wyniku zintegrowania modelu system ten może służyć różnym celom. System AI ogólnego przeznaczenia może być wykorzystywany bezpośrednio lub być zintegrowany z innymi systemami AI.
(101)
Ponudniki modelov UI za splošne namene imajo posebno vlogo in odgovornost vzdolž verige vrednosti UI, saj so lahko modeli, ki jih zagotavljajo, podlaga za vrsto sistemov nižje v verigi, ki jih pogosto zagotavljajo ponudniki nižje v verigi, ki potrebujejo dobro razumevanje modelov in njihovih zmogljivosti, da bi omogočili vključitev takih modelov v njihove proizvode in izpolnili svoje obveznosti iz te uredbe ali drugih predpisov. Zato bi bilo treba določiti sorazmerne ukrepe za preglednost, vključno s pripravo in posodabljanjem dokumentacije ter zagotavljanjem informacij o modelu UI za splošne namene, ki ga lahko uporabljajo ponudniki nižje v verigi. Ponudnik modela UI za splošne namene bi moral pripraviti in posodabljati tehnično dokumentacijo, da bi jo na zahtevo dal na voljo Uradu za UI in pristojnim nacionalnim organom. Minimalni sklop elementov, ki jih je treba vključiti v tako dokumentacijo, bi bilo treba določiti v posebnih prilogah k tej uredbi. Na Komisijo bi bilo treba prenesti pooblastilo za spreminjanje navedenih prilog z delegiranimi akti glede na hiter tehnološki razvoj.
(101)
Dostawcy modeli AI ogólnego przeznaczenia odgrywają szczególną rolę i ponoszą szczególną odpowiedzialność w całym łańcuchu wartości AI, ponieważ modele, które dostarczają, mogą stanowić podstawę szeregu systemów niższego szczebla, często dostarczanych przez dostawców niższego szczebla, które to systemy wymagają dobrego zrozumienia modeli i ich zdolności, zarówno by umożliwić integrację takich modeli z ich produktami, jak i by spełniać obowiązki ustanowione w niniejszym rozporządzeniu lub innych przepisach. W związku z tym należy ustanowić proporcjonalne środki w zakresie przejrzystości, w tym sporządzanie i aktualizowanie dokumentacji oraz dostarczanie informacji na temat modelu AI ogólnego przeznaczenia do wykorzystania przez dostawców niższego szczebla. Dostawca modelu AI ogólnego przeznaczenia powinien przygotować i aktualizować dokumentację techniczną w celu udostępnienia jej na wniosek Urzędowi ds. AI i właściwym organom krajowym. Minimalny zbiór elementów do uwzględnienia w takiej dokumentacji należy określić w szczególnych załącznikach do niniejszego rozporządzenia. Komisja powinna być uprawniona do zmiany tych załączników w drodze aktów delegowanych w świetle postępu technicznego.
(102)
Programska oprema in podatki, vključno z modeli, objavljenimi na podlagi proste in odprtokodne licence, ki omogoča njihovo prosto izmenjavo in če uporabniki lahko prosto dostopajo do njih ali njihovih spremenjenih različic, jih uporabljajo, spreminjajo in ponovno distribuirajo, lahko prispevajo k raziskavam in inovacijam na trgu ter gospodarstvu Unije zagotovijo znatne priložnosti za rast. Razmisliti bi bilo treba o modelih UI za splošne namene, objavljenih na podlagi prostih in odprtokodnih licenc, da bi zagotovili visoko raven preglednosti in odprtosti, če so njihovi parametri, vključno z utežmi, informacijami o arhitekturi modela in informacijami o uporabi modela, javno dostopni. Licenca bi morala šteti za prosto in odprtokodno, tudi kadar uporabnikom omogoča uporabo, kopiranje, distribucijo, preučevanje, spreminjanje in izboljševanje programske opreme in podatkov, vključno z modeli, pod pogojem, da se navede originalni ponudnik modela in da se upoštevajo enaki ali primerljivi pogoji distribucije.
(102)
Oprogramowanie i dane, w tym modele, udostępniane na podstawie bezpłatnej licencji otwartego oprogramowania, która umożliwia ich ogólne upowszechnianie i zezwala użytkownikom na swobodny dostęp do nich, ich wykorzystywanie, zmianę i ich redystrybucję lub ich zmienionych wersji, mogą przyczynić się do badań naukowych i innowacji na rynku oraz zapewnić gospodarce Unii znaczne możliwości wzrostu. Należy uznać, że modele AI ogólnego przeznaczenia udostępniane na podstawie bezpłatnych licencji otwartego oprogramowania zapewniają wysoki poziom przejrzystości i otwartości, jeżeli ich parametry, w tym wagi, informacje na temat architektury modelu oraz informacje na temat wykorzystania modelu, są publicznie dostępne. Licencję należy uznać za bezpłatną licencję otwartego oprogramowania również wtedy, gdy umożliwia użytkownikom obsługę, kopiowanie, dystrybucję, badanie, zmianę i ulepszanie oprogramowania i danych, w tym modeli, pod warunkiem że umieszcza się wzmiankę o pierwotnym dostawcy modelu i że przestrzega się identycznych lub porównywalnych warunków dystrybucji.
(103)
Brezplačne in odprtokodne komponente UI zajemajo programsko opremo in podatke, vključno z modeli in modeli UI za splošne namene, orodji, storitvami ali procesi sistema UI. Brezplačne in odprtokodne komponente UI se lahko zagotovijo prek različnih kanalov, vključno z njihovim razvojem v odprtih odložiščih. Za namene te uredbe komponente UI, ki se zagotavljajo proti plačilu ali so kako drugače monetizirane, med drugim z zagotavljanjem tehnične podpore ali drugih storitev, tudi prek platforme programske opreme, povezane s komponento UI, ali z uporabo osebnih podatkov iz razlogov, ki niso izključno namenjeni izboljšanju varnosti, združljivosti ali interoperabilnosti programske opreme, z izjemo transakcij med mikropodjetji, ne bi smele biti upravičene do izjem, določenih za brezplačne in odprtokodne komponente UI. Dejstvo, da so komponente UI na voljo prek odprtih odložišč, samo po sebi ne bi smelo pomeniti monetizacije.
(103)
Elementy AI na bezpłatnej licencji otwartego oprogramowania obejmują oprogramowanie i dane, w tym modele i modele AI ogólnego przeznaczenia, narzędzia, usługi lub procesy systemu AI. Elementy AI na bezpłatnej licencji otwartego oprogramowania mogą być dostarczane za pośrednictwem różnych kanałów, w tym rozwijane w otwartych repozytoriach. Do celów niniejszego rozporządzenia elementy AI, które są dostarczane odpłatnie lub w inny sposób monetyzowane, w tym poprzez zapewnianie wsparcia technicznego lub innych usług związanych z elementem AI, w tym poprzez platformy oprogramowania, lub wykorzystywanie danych osobowych z powodów innych niż wyłącznie poprawa bezpieczeństwa, kompatybilności lub interoperacyjności oprogramowania, z wyjątkiem transakcji między mikroprzedsiębiorstwami, nie powinny korzystać ze zwolnień przewidzianych w odniesieniu do bezpłatnych i otwartych elementów AI. Fakt udostępniania elementów AI w otwartych repozytoriach nie powinien sam w sobie stanowić monetyzacji.
(104)
Za ponudnike modelov UI za splošne namene, ki se objavijo na podlagi proste in odprtokodne licence ter katerih parametri, vključno z utežmi, informacijami o arhitekturi modela in informacijami o uporabi modela, so javno dostopni, bi morale veljati izjeme v zvezi z zahtevami glede preglednosti, ki veljajo za modele UI za splošne namene, razen če lahko šteje, da predstavljajo sistemsko tveganje; v tem primeru okoliščina, da je model pregleden in ga spremlja odprtokodna licenca, ne bi smela šteti za zadosten razlog za izključitev izpolnjevanja obveznosti iz te uredbe. V vsakem primeru pa glede na to, da objava modelov UI za splošne namene v okviru proste in odprtokodne licence ne razkrije nujno bistvenih informacij o naboru podatkov, ki se uporablja za učenje ali izpopolnjevanje modela, in o tem, kako je bila s tem zagotovljena skladnost z avtorskim pravom, se izjema, določena za modele UI za splošne namene, od skladnosti z zahtevami, povezanimi s preglednostjo, ne bi smela nanašati na obveznost priprave povzetka vsebine, ki se uporablja za učenje modelov, in obveznost vzpostavitve politike za skladnost z avtorskim pravom Unije, zlasti za opredelitev in skladnost s pridržkom pravic na podlagi člena 4(3) Direktive (EU) 2019/790 Evropskega parlamenta in Sveta (40).
(104)
Dostawcy modeli AI ogólnego przeznaczenia, które są udostępniane na podstawie bezpłatnej licencji otwartego oprogramowania i których parametry, w tym wagi, informacje o architekturze modelu oraz informacje na temat korzystania z modelu, są udostępniane publicznie, powinni podlegać zwolnieniom w odniesieniu do wymogów związanych z przejrzystością nałożonych na modele AI ogólnego przeznaczenia, chyba że można uznać, że modele te stwarzają ryzyko systemowe, w którym to przypadku fakt, że model jest przejrzysty i że towarzyszy mu licencja otwartego oprogramowania, nie powinien być uznawany za wystarczający powód zwolnienia ze spełnienia obowiązków ustanowionych w niniejszym rozporządzeniu. W każdym razie, biorąc pod uwagę, że udostępnianie modeli AI ogólnego przeznaczenia na podstawie bezpłatnej licencji otwartego oprogramowania niekoniecznie prowadzi do ujawnienia istotnych informacji na temat zbioru danych wykorzystywanego do trenowania lub dostrajania modelu oraz na temat sposobu zapewnienia tym samym zgodności z prawem autorskim, przewidziane w odniesieniu do modeli AI ogólnego przeznaczenia zwolnienie z obowiązku spełnienia wymogów związanych z przejrzystością nie powinno dotyczyć obowiązku sporządzenia streszczenia dotyczącego treści wykorzystywanych do trenowania modeli oraz obowiązku wprowadzenia polityki w celu zapewnienie zgodności z unijnym prawem autorskim, w szczególności w celu zidentyfikowania i zastosowania się do zastrzeżenia praw zgodnie z art. 4 ust. 3 dyrektywy Parlamentu Europejskiego i Rady (UE) 2019/790 (40).
(105)
Modeli UI za splošne namene, zlasti veliki generativni modeli UI, ki lahko ustvarijo besedilo, slike in druge vsebine, predstavljajo edinstvene priložnosti za inovacije, pa tudi izzive za umetnike, avtorje in druge ustvarjalce ter njihov način ustvarjanja, razširjanja, uporabe in koriščenja njihovih ustvarjalnih vsebin. Za razvoj in učenje takih modelov je potreben dostop do velikih količin besedil, slik, videoposnetkov in drugih podatkov. Za pridobivanje in analizo takih vsebin, ki so lahko zaščitene z avtorskimi in sorodnimi pravicami, se lahko v tem kontekstu obsežno uporabljajo tehnike besedilnega in podatkovnega rudarjenja. Za vsako uporabo avtorsko zaščitenih vsebin je potrebno dovoljenje zadevnega imetnika pravic, razen če se uporabljajo ustrezne izjeme in omejitve avtorskih pravic. Z Direktivo (EU) 2019/790 so bile uvedene izjeme in omejitve, ki pod določenimi pogoji omogočajo reprodukcije in izvlečke del ali drugih zaščitenih predmetov za namene besedilnega in podatkovnega rudarjenja. Na podlagi teh pravil se lahko imetniki pravic odločijo, da bodo svoje pravice pridržali za svoja dela ali druge zaščitene predmete, da bi preprečili besedilno in podatkovno rudarjenje, razen če se to izvaja za namene znanstvenega raziskovanja. Kadar so pravice do izvzetja izrecno in na ustrezen način pridržane, morajo ponudniki modelov UI za splošne namene pridobiti dovoljenje imetnikov pravic, če želijo v zvezi s takimi deli izvajati besedilno in podatkovno rudarjenje.
(105)
Modele AI ogólnego przeznaczenia, w szczególności duże generatywne modele AI, zdolne do generowania tekstów, obrazów i innych treści, stwarzają wyjątkowe możliwości w zakresie innowacji, ale także wyzwania dla artystów, autorów i innych twórców oraz w odniesieniu do sposobu tworzenia, rozpowszechniania, wykorzystywania i konsumowania ich treści kreatywnych. Rozwój i trenowanie takich modeli wymaga dostępu do ogromnych ilości tekstów, obrazów, materiałów wideo i innych danych. Techniki eksploracji tekstów i danych mogą być w tym kontekście szeroko wykorzystywane do wyszukiwania i analizy takich treści, które mogą być chronione prawem autorskim i prawami pokrewnymi. Każde wykorzystanie treści chronionych prawem autorskim wymaga zezwolenia danego podmiotu praw, chyba że zastosowanie mają odpowiednie wyjątki i ograniczenia dotyczące praw autorskich. Na mocy dyrektywy (UE) 2019/790 wprowadzono wyjątki i ograniczenia umożliwiające, pod pewnymi warunkami, zwielokrotnianie i pobieranie utworów lub innych przedmiotów objętych ochroną do celów eksploracji tekstów i danych. Zgodnie z tymi przepisami podmioty uprawnione mogą zastrzec swoje prawa do swoich utworów lub innych przedmiotów objętych ochroną, aby zapobiec eksploracji tekstów i danych, chyba że odbywa się to do celów badań naukowych. W przypadku gdy prawo do wyłączenia z eksploracji zostało w odpowiedni sposób wyraźnie zastrzeżone, dostawcy modeli AI ogólnego przeznaczenia muszą uzyskać zezwolenie od podmiotów uprawnionych, jeżeli chcą dokonywać eksploracji tekstów i danych odnośnie do takich utworów.
(106)
Ponudniki, ki dajejo modele UI za splošne namene na trg Unije, bi morali zagotoviti skladnost z ustreznimi obveznostmi iz te uredbe. V ta namen bi morali ponudniki modelov UI za splošne namene vzpostaviti politiko za skladnost s pravom Unije o avtorskih in sorodnih pravicah, zlasti za opredelitev pridržka pravic, ki jih izrazijo imetniki pravic na podlagi člena 4(3) Direktive (EU) 2019/790, in skladnost z njim. Vsak ponudnik, ki daje model UI za splošne namene na trg Unije, bi moral to obveznost izpolnjevati ne glede na jurisdikcijo, v kateri se izvajajo dejanja, povezana z avtorskimi pravicami, na katerih temelji učenje teh modelov UI za splošno rabo. To je potrebno za zagotovitev enakih konkurenčnih pogojev med ponudniki modelov UI za splošne namene, pri čemer noben ponudnik ne bi smel imeti konkurenčne prednosti na trgu Unije z uporabo standardov avtorskih pravic, ki so nižji od standardov, določenih v Uniji.
(106)
Dostawcy wprowadzający modele AI ogólnego przeznaczenia do obrotu w Unii powinni zapewnić, aby ustanowione w niniejszym rozporządzeniu odpowiednie obowiązki zostały spełnione. W tym celu dostawcy modeli AI ogólnego przeznaczenia powinni wprowadzić politykę w celu zapewnienia zgodności z prawem Unii dotyczącym prawa autorskiego i praw pokrewnych, w szczególności w celu identyfikacji i zastosowania się do zastrzeżenia praw wyrażonego przez podmioty uprawnione zgodnie z art. 4 ust. 3 dyrektywy (UE) 2019/790. Każdy dostawca wprowadzający do obrotu w Unii model AI ogólnego przeznaczenia powinien spełniać ten obowiązek, niezależnie od jurysdykcji, w której mają miejsce czynności regulowane prawem autorskim stanowiące podstawę trenowania tych modeli AI ogólnego przeznaczenia. Jest to konieczne do zapewnienia równych warunków działania dostawcom modeli AI ogólnego przeznaczenia, tak aby żaden dostawca nie mógł uzyskać przewagi konkurencyjnej na rynku Unii poprzez stosowanie niższych standardów praw autorskich niż normy przewidziane w Unii.
(107)
Da bi izboljšali preglednost podatkov, ki se uporabljajo pri predhodnem učenju in učenju modelov UI za splošne namene, vključno z besedilom in podatki, zaščitenimi z avtorskim pravom, je ustrezno, da ponudniki takih modelov pripravijo in objavijo dovolj podroben povzetek vsebine, ki se uporablja za učenje modela UI za splošne namene. Upoštevajoč potrebo po varovanju poslovnih skrivnosti in zaupnih poslovnih informacij bi moral biti ta povzetek v svojem področju uporabe na splošno izčrpen in ne tehnično podroben, da bi strankam z zakonitimi interesi, vključno z imetniki avtorskih pravic, olajšali uveljavljanje in izvajanje njihovih pravic na podlagi prava Unije, na primer z navedbo glavnih zbirk podatkov ali naborov podatkov, ki so bili uporabljeni pri učenju, kot so velike zasebne ali javne podatkovne zbirke ali podatkovni arhivi, ter z opisno razlago drugih uporabljenih virov podatkov. Primerno je, da Urad za UI zagotovi predlogo za povzetek, ki bi moral biti preprost in učinkovit ter ponudniku omogočiti, da zagotovi zahtevani povzetek v opisni obliki.
(107)
W celu zwiększenia przejrzystości dotyczącej danych wykorzystywanych do pretrenowania i trenowania modeli AI ogólnego przeznaczenia, w tym w zakresie tekstów i danych chronionych prawem autorskim, właściwe jest, aby dostawcy takich modeli sporządzali i udostępniali publicznie wystarczająco szczegółowe streszczenie na temat treści wykorzystywanych do trenowania modelu AI ogólnego przeznaczenia. Przy należytym uwzględnieniu potrzeby ochrony tajemnic przedsiębiorstwa i poufnych informacji handlowych streszczenie to nie powinno skupiać się na szczegółach technicznych, lecz mieć zasadniczo kompleksowy charakter, aby ułatwić stronom mającym uzasadniony interes, w tym posiadaczom praw autorskich, wykonywanie i egzekwowanie ich praw wynikających z prawa Unii; streszczenie to powinno więc na przykład wymieniać główne zbiory danych, które wykorzystano do trenowania modelu, takie jak duże prywatne lub publiczne bazy lub archiwa danych, oraz powinno zawierać opisowe wyjaśnienie innych wykorzystanych źródeł danych. Urząd ds. AI powinien zapewnić wzór streszczenia, który powinien być prosty i skuteczny oraz umożliwiać dostawcy przedstawienie wymaganego streszczenia w formie opisowej.
(108)
Kar zadeva obveznosti ponudnikov modelov UI za splošne namene, da vzpostavijo politiko za skladnost z avtorskim pravom Unije in javno objavijo povzetek vsebine, uporabljene za učenje, bi moral Urad za UI spremljati, ali je ponudnik izpolnil te obveznosti brez preverjanja ali ocene učnih podatkov za vsak posamezen primer posebej z vidika njihove skladnosti z avtorskimi pravicami. Ta uredba ne vpliva na izvrševanje pravil o avtorskih pravicah, kot je določeno na podlagi prava Unije.
(108)
Urząd ds. AI powinien monitorować, czy dostawca spełnił obowiązki nałożone na dostawców modeli AI ogólnego przeznaczenia dotyczące wprowadzenia polityki w celu zapewnienia zgodności z unijnym prawem autorskim i podania do wiadomości publicznej streszczenia na temat treści wykorzystywanych do trenowania, jednak nie powinien weryfikować danych treningowych pod kątem zgodności z prawami autorskimi ani przystępować do oceny tych danych w podziale na poszczególne utwory. Niniejsze rozporządzenie nie wpływa na egzekwowanie przepisów dotyczących praw autorskich przewidzianych w prawie Unii.
(109)
Izpolnjevanje obveznosti, ki veljajo za ponudnike modelov UI za splošne namene, bi moralo biti sorazmerno in primerno vrsti ponudnika modela, pri čemer bi bilo treba izključiti potrebo glede izpolnjevanja teh obveznosti za osebe, ki razvijajo ali uporabljajo modele za nepoklicne ali znanstvenoraziskovalne namene, vendar bi jih bilo treba kljub temu spodbujati k prostovoljnemu izpolnjevanju teh obveznosti. Brez poseganja v avtorsko pravo Unije bi bilo treba pri izpolnjevanju teh obveznosti ustrezno upoštevati velikost ponudnika in omogočiti poenostavljene načine izpolnjevanja obveznosti za MSP, vključno z zagonskimi podjetji, ki ne bi smeli predstavljati pretiranih stroškov in ne bi smeli odvračati od uporabe takih modelov. V primeru spremembe ali izpopolnjevanja modela bi morale biti obveznosti ponudnikov modelov UI za splošne namene omejene na to spremembo ali izpopolnitev, na primer z dopolnitvijo že obstoječe tehnične dokumentacije z informacijami o spremembah, vključno z novimi viri učnih podatkov, da bi izpolnili obveznosti glede verige vrednosti iz te uredbe.
(109)
Spełnianie obowiązków mających zastosowanie do dostawców modeli AI ogólnego przeznaczenia powinno być współmierne i proporcjonalne do rodzaju dostawcy modeli, z wyłączeniem konieczności ich spełnienia przez osoby, które rozwijają lub wykorzystują modele do celów pozazawodowych lub badań naukowych – osoby te należy jednak zachęcać do dobrowolnego spełniania tych wymogów. Bez uszczerbku dla unijnego prawa autorskiego spełnianie tych obowiązków powinno odbywać się przy należytym uwzględnieniu wielkości dostawcy i umożliwiać uproszczone sposoby spełnienia tych obowiązków przez MŚP, w tym przedsiębiorstwa typu start-up, które nie powinny wiązać się z nadmiernymi kosztami i zniechęcać do korzystania z takich modeli. W przypadku zmiany lub dostrajania modelu obowiązki dostawców modeli AI ogólnego przeznaczenia powinny być ograniczone do tej zmiany lub dostrajania modelu, na przykład poprzez uzupełnienie już istniejącej dokumentacji technicznej o informacje na temat zmiany, w tym nowych źródeł danych treningowych, w celu spełnienia obowiązków związanych z łańcuchem wartości przewidzianych w niniejszym rozporządzeniu.
(110)
Modeli UI za splošne namene bi lahko predstavljali sistemska tveganja, ki med drugim vključujejo vse dejanske ali razumno predvidljive negativne učinke v zvezi z večjimi nesrečami, motnjami v kritičnih sektorjih ter resnimi posledicami za javno zdravje in varnost, vse dejanske ali razumno predvidljive negativne učinke na demokratične procese ter javno in gospodarsko varnost ter razširjanje nezakonitih, lažnih ali diskriminatornih vsebin. Sistemska tveganja bi bilo treba razumeti tako, da se povečujejo z zmogljivostmi in dosegom modela, da se lahko pojavijo v celotnem življenjskem ciklu modela in da nanje vplivajo pogoji napačne uporabe, zanesljivost modela, pravičnost modela in varnost modela, stopnja avtonomije modela, njegov dostop do orodij, novi ali kombinirani načini, strategije objave in distribucije, možnost odstranitve varovalnih mehanizmov in drugi dejavniki. V mednarodnih pristopih je bilo do zdaj zlasti ugotovljeno, da je treba pozornost nameniti tveganjem, ki izhajajo iz morebitne namerne napačne uporabe ali nenamernih problemov pri nadzoru v zvezi z usklajevanjem s človeškim namenom; kemičnim, biološkim, radiološkim in jedrskim tveganjem, kot so načini, kako zmanjšati vstopne ovire, vključno z razvojem orožja, nabavo njegove zasnove ali njegove uporabo; ofenzivnim kibernetskim zmogljivostim, kot so načini, ki omogočajo odkrivanje, izkoriščanje ali operativno uporabo šibkih točk; učinkom interakcije in uporabe orodij, vključno na primer z zmogljivostjo za nadzor fizičnih sistemov in motenj v kritični infrastrukturi; tveganjem, povezanimi z modeli, ki izdelujejo kopije ali se „samoreplicirajo“ ali učijo druge modele; načinom, kako lahko modeli povzročijo škodljivo pristranskost in diskriminacijo, ker ustvarjajo tveganja za posameznike, skupnosti ali družbe; omogočanju dezinformacij ali ogrožanju zasebnosti z grožnjami demokratičnim vrednotam in človekovim pravicam; tveganju, da bi določen dogodek lahko povzročil verižno reakcijo z znatnimi negativnimi učinki, ki bi lahko vplivali na celo mesto, celotno domeno dejavnosti ali celotno skupnost.
(110)
Modele AI ogólnego przeznaczenia mogą stwarzać ryzyko systemowe, które obejmuje między innymi wszelkie rzeczywiste lub racjonalnie przewidywalne negatywne skutki poważnych awarii, zakłóceń w sektorach krytycznych oraz poważne konsekwencje dla zdrowia i bezpieczeństwa publicznego; wszelkie rzeczywiste lub racjonalnie przewidywalne negatywne skutki dla procesów demokratycznych, bezpieczeństwa publicznego i gospodarczego; rozpowszechnianie nielegalnych, fałszywych lub dyskryminujących treści. Należy rozumieć, że ryzyko systemowe wzrasta wraz ze zdolnościami i zasięgiem modelu, może wystąpić w całym cyklu życia modelu i jest uzależnione od warunków niewłaściwego wykorzystania, niezawodności, bezstronności i bezpieczeństwa modelu, poziomu jego autonomii, dostępu do narzędzi, stosowania nowatorskich lub połączonych metod, strategii udostępniania i dystrybucji, możliwości w zakresie usuwania zabezpieczeń i innych czynników. W szczególności podejścia międzynarodowe wskazywały jak dotąd na potrzebę zwrócenia uwagi na ryzyko wynikające z potencjalnego umyślnego niewłaściwego wykorzystania lub niezamierzonych problemów z kontrolą związanych z dostosowaniem się do zamiaru człowieka; ryzyko chemiczne, biologiczne, radiologiczne i jądrowe, takie jak sposoby obniżania barier wejścia na rynek, w tym w zakresie opracowywania, projektowania, nabywania lub stosowania broni; ofensywne zdolności w zakresie cyberbezpieczeństwa, takie jak sposoby wykrywania, wykorzystywania lub operacyjnego stosowania podatności; skutki interakcji i wykorzystania narzędzi, w tym na przykład zdolność do kontrolowania systemów fizycznych i zakłócania infrastruktury krytycznej; ryzyko związane ze sporządzaniem kopii własnych przez modele lub samoreplikacji lub wynikające z trenowania innych modeli przez dany model; sposoby, w jakie modele mogą powodować szkodliwą stronniczość i dyskryminację zagrażające osobom fizycznym, społecznościom lub społeczeństwom; ułatwianie dezinformacji lub naruszanie prywatności, co przedstawia zagrożenie dla wartości demokratycznych i praw człowieka; ryzyko, że dane wydarzenie może spowodować reakcję łańcuchową o znacznych negatywnych skutkach, które mogą mieć wpływ nawet na całe miasta, na całą działalność w danym obszarze lub na całe społeczności.
(111)
Treba bi bilo določiti metodologijo za razvrstitev modelov UI za splošne namene kot modelov UI za splošne namene s sistemskimi tveganji. Ker sistemska tveganja izhajajo iz posebno visokih zmogljivosti, bi bilo treba za model UI za splošne namene šteti, da predstavlja sistemska tveganja, če ima zmogljivosti z visoko učinkovitostjo, ocenjene na podlagi ustreznih tehničnih orodij in metodologij, ali znaten vpliv na notranji trg zaradi svojega dosega. Zmogljivosti z visoko učinkovitostjo v modelih UI za splošne namene pomenijo zmogljivosti, ki so enake zmogljivostim, zabeleženim v najbolj naprednih modelih UI za splošne namene, ali jih presegajo. Celoten nabor zmogljivosti modela bi bilo mogoče bolje razumeti po tem, ko se da na trg ali ko so uvajalci v interakciji z modelom. V skladu z najsodobnejšimi tehnološkimi dosežki v času začetka veljavnosti te uredbe je kumulativni znesek izračuna, ki se uporablja za učenje modela UI za splošne namene, merjen z operacijami s plavajočo vejico, eden od ustreznih približkov za zmogljivosti modela. Kumulativni znesek izračuna, ki se uporablja za učenje, vključuje izračun, ki se uporablja za dejavnosti in metode, namenjene povečanju zmogljivosti modela pred uvedbo, kot so predhodno učenje, sintetično ustvarjanje podatkov in izpopolnjevanje. Zato bi bilo treba določiti začetni prag operacij s plavajočo vejico, ki, če ga doseže model UI za splošne namene, privede do domneve, da model šteje za model UI za splošne namene s sistemskimi tveganji. Ta prag bi bilo treba sčasoma prilagoditi, da bi odražal tehnološke in industrijske spremembe, kot so algoritemske izboljšave ali večja učinkovitost strojne opreme, dopolniti pa bi ga bilo treba z referenčnimi vrednostmi in kazalniki za zmogljivost modela. Za to bi moral Urad za UI sodelovati z znanstveno skupnostjo, industrijo, civilno družbo in drugimi strokovnjaki. Pragovi ter orodja in merila za ocenjevanje zmogljivosti z visoko učinkovitostjo bi morali v veliki meri predvideti splošno naravo, zmogljivosti in povezano sistemsko tveganje modelov UI za splošne namene ter bi lahko upoštevali način dajanja modela na trg ali število uporabnikov, na katere bi lahko vplival. Za dopolnitev tega sistema bi morala Komisija imeti možnost, da sprejme posamezne odločitve, s katerimi model UI za splošne namene določi kot model UI za splošne namene s sistemskim tveganjem, če se ugotovi, da ima tak model zmogljivosti ali učinek, enakovreden tistim, zajetim z določenim pragom. To odločitev bi bilo treba sprejeti na podlagi splošne ocene meril za določitev modela UI za splošne namene s sistemskim tveganjem iz ene od prilog k tej uredbi, kot so kakovost ali velikost nabora učnih podatkov, število poslovnih in končnih uporabnikov, načini njihovega vnosa in izhoda, stopnja avtonomije in nadgradljivosti ali orodja, do katerih ima dostop. Komisija bi morala na obrazloženo zahtevo ponudnika, katerega model je bil označen za model UI za splošne namene s sistemskim tveganjem, upoštevati zahtevo in se lahko odloči, da ponovno oceni, ali lahko za model UI za splošne namene še vedno šteje, da predstavlja sistemska tveganja.
(111)
Należy ustanowić metodykę klasyfikacji modeli AI ogólnego przeznaczenia jako modeli AI ogólnego przeznaczenia z ryzykiem systemowym. Ponieważ ryzyko systemowe wynika ze szczególnie wysokich zdolności, należy uznać, że model AI ogólnego przeznaczenia stwarza ryzyko systemowe, jeżeli wykazuje on zdolności dużego oddziaływania, oceniane na podstawie odpowiednich narzędzi technicznych i metodologii, lub jeżeli ze względu na swój zasięg ma znaczący wpływ na rynek wewnętrzny. Zdolności dużego oddziaływania w przypadku modeli AI ogólnego przeznaczenia oznaczają zdolności, które dorównują zdolnościom zapisanym w najbardziej zaawansowanych modelach AI ogólnego przeznaczenia lub je przewyższają. Pełny zakres zdolności danego modelu można lepiej zrozumieć po jego wprowadzeniu do obrotu lub w momencie, w którym podmioty stosujące wchodzą w interakcję z modelem. Zgodnie z aktualnym stanem wiedzy technicznej w momencie wejścia w życie niniejszego rozporządzenia jednym ze sposób przybliżonego określenia zdolności modelu jest łączna liczba obliczeń wykorzystanych do trenowania modelu AI ogólnego zastosowania mierzona w operacjach zmiennoprzecinkowych. Łączna liczba obliczeń wykorzystanych do trenowania obejmuje obliczenia stosowane w odniesieniu do wszystkich działań i metod, które mają na celu zwiększenie zdolności modelu przed wdrożeniem, takich jak pretrenowanie, generowanie danych syntetycznych i dostrajanie. W związku z tym należy określić próg minimalny operacjach zmiennoprzecinkowych, który, jeżeli zostanie spełniony przez model AI ogólnego przeznaczenia, stwarza domniemanie, że model ten jest modelem AI ogólnego przeznaczenia z ryzykiem systemowym. Próg ten powinien być z czasem dostosowywany w celu odzwierciedlenia zmian technologicznych i przemysłowych, takich jak ulepszenia algorytmiczne lub większa wydajność sprzętu, i powinien zostać uzupełniony o poziomy odniesienia i wskaźniki dotyczące zdolności modelu. W tym celu Urząd ds. AI powinien współpracować ze środowiskiem naukowym, przemysłem, społeczeństwem obywatelskim i innymi ekspertami. Progi, a także narzędzia i poziomy odniesienia na potrzeby oceny zdolności dużego oddziaływania powinny zapewniać mocne podstawy przewidywania ogólnego charakteru, zdolności i związanego z nimi ryzyka systemowego modeli AI ogólnego przeznaczenia; mogą one uwzględniać sposób, w jaki model zostanie wprowadzony do obrotu lub liczbę użytkowników, na które model ten może mieć wpływ. Aby uzupełnić ten system, Komisja powinna mieć możliwość podejmowania indywidualnych decyzji w sprawie uznania modelu AI ogólnego przeznaczenia za model AI ogólnego przeznaczenia z ryzykiem systemowym, jeżeli okaże się, że zdolności lub wpływ takiego modelu są równoważne z tymi, na które wskazuje ustalony próg. Decyzję tę należy podjąć na podstawie ogólnej oceny kryteriów do celów uznawania modelu AI ogólnego przeznaczenia za model z ryzykiem systemowym, określonych w załączniku do niniejszego rozporządzenia, takich jak jakość lub wielkość zbioru danych treningowych, liczba użytkowników biznesowych i końcowych, format danych wejściowych i wyjściowych modelu, poziom autonomii i skalowalności lub narzędzia, do których ma dostęp. Na uzasadniony wniosek dostawcy, którego model został uznany za model AI ogólnego przeznaczenia z ryzykiem systemowym, Komisja powinna odnieść się do tego wniosku i może podjąć decyzję o ponownej ocenie, czy model AI ogólnego przeznaczenia nadal można uznać za stwarzający ryzyko systemowe.
(112)
Pojasniti je treba tudi postopek za razvrstitev modela UI za splošne namene s sistemskimi tveganji. Za model UI za splošne namene, ki izpolnjuje veljavni prag za zmogljivosti z visoko učinkovitostjo, bi bilo treba domnevati, da je splošni model UI s sistemskim tveganjem. Ponudnik bi moral Urad za UI obvestiti najpozneje dva tedna po tem, ko so zahteve izpolnjene ali ko je znano, da bo model UI za splošne namene izpolnjeval zahteve, ki vodijo do te domneve. To je zlasti pomembno v zvezi s pragom operacij s plavajočo vejico, saj je pri učenju modelov UI za splošne namene potrebno precejšnje načrtovanje, ki vključuje vnaprejšnjo dodelitev računalniških virov, zato lahko ponudniki modelov UI za splošne namene vedo, ali bi njihov model dosegel prag pred zaključkom učenja. V okviru tega obvestila bi moral biti ponudnik sposoben dokazati, da model UI za splošne namene zaradi svojih posebnih značilnosti izjemoma ne predstavlja sistemskih tveganj in ga zato ne bi smeli razvrstiti kot model UI za splošne namene s sistemskimi tveganji. Te informacije so dragocene za Urad za UI pri predvidevanju dajanja modelov UI za splošne namene s sistemskimi tveganji na trg, ponudniki pa lahko začnejo zgodaj sodelovati z Uradom za UI. Te informacije so zlasti pomembne v zvezi z modeli UI za splošne namene, za katere se načrtuje, da bodo objavljeni kot odprtokodni, saj bo po objavi odprtokodnega modela morda težje izvajati potrebne ukrepe za zagotovitev skladnosti z obveznostmi iz te uredbe.
(112)
Konieczne jest również doprecyzowanie procedury klasyfikacji modelu AI ogólnego zastosowania z ryzykiem systemowym. W przypadku modelu AI ogólnego przeznaczenia, który osiąga mający zastosowanie próg dotyczący zdolności dużego oddziaływania, należy domniemywać, że jest on modelem AI ogólnego przeznaczenia z ryzykiem systemowym. Dostawca powinien powiadomić Urząd ds. AI najpóźniej dwa tygodnie od momentu spełnienia kryteriów lub po uzyskaniu wiedzy, że model AI ogólnego przeznaczenia będzie spełniał kryteria prowadzące do takiego domniemania. Jest to szczególnie istotne w odniesieniu do progu dotyczącego operacji zmiennoprzecinkowych, ponieważ trenowanie modeli AI ogólnego przeznaczenia wymaga znacznego planowania, co obejmuje przydział z góry zasobów obliczeniowych, w związku z czym dostawcy modeli AI ogólnego przeznaczenia są w stanie stwierdzić, czy ich model osiągnąłby ten próg przed zakończeniem trenowania. W kontekście tego powiadomienia dostawca powinien móc wykazać, że ze względu na swoje szczególne cechy model AI ogólnego przeznaczenia wyjątkowo nie stwarza ryzyka systemowego, a zatem nie powinien być zaklasyfikowany jako model AI ogólnego przeznaczenia z ryzykiem systemowym. Powiadomienia te to cenne informacje, które umożliwiają Urzędowi ds. AI przewidywanie, że modele AI sztucznej inteligencji ogólnego przeznaczenia z ryzykiem systemowym zostaną wprowadzone do obrotu, dostawcy mogą zatem rozpocząć współpracę z Urzędem ds. AI na wczesnym etapie. Informacje te są szczególnie ważne w odniesieniu do modeli AI ogólnego przeznaczenia, które mają zostać udostępnione jako otwarte oprogramowanie, zważywszy na to, że wdrożenie środków niezbędnych do zapewnienia spełnienia obowiązków ustanowionych w niniejszym rozporządzeniu może być trudniejsze po udostępnieniu modelu na zasadach otwartego oprogramowania.
(113)
Če Komisija ugotovi, da model UI za splošne namene izpolnjuje zahteve za razvrstitev kot model UI za splošne namene s sistemskim tveganjem, ki pred tem ni bil znan ali o njem zadevni ponudnik ni obvestil Komisije, bi morala biti Komisija pooblaščena, da ga tako označi. Sistem kvalificiranih opozoril bi moral zagotavljati, da znanstveni odbor obvešča Urad za UI o modelih UI za splošne namene, ki bi jih morebiti bilo treba razvrstiti kot modele UI za splošne namene s sistemskim tveganjem, ter da ima Urad pregled nad lastnimi dejavnostmi spremljanja.
(113)
Jeżeli Komisja dowie się o tym, że model AI ogólnego przeznaczenia spełnia kryteria, by zostać zaklasyfikowany jako model AI o ogólnym przeznaczeniu z ryzykiem systemowym, czego wcześniej nie było wiadomo lub w przypadku gdy odpowiedni dostawca nie wywiązał się z obowiązku powiadomienia o tym Komisji, Komisja powinna być uprawniona do uznania tego modelu za model o ogólnym przeznaczeniu z ryzykiem systemowym. Obok działań monitorujących prowadzonych przez Urząd ds. AI powinien istnieć system, w ramach którego panel naukowy za pośrednictwem ostrzeżeń kwalifikowanych informuje Urząd ds. AI o modelach AI ogólnego przeznaczenia, które należy ewentualnie zaklasyfikować jako modele AI ogólnego przeznaczenia z ryzykiem systemowym.
(114)
Za ponudnike modelov UI za splošne namene s sistemskimi tveganji bi morale poleg obveznosti, ki veljajo za ponudnike modelov UI za splošne namene, veljati tudi obveznosti, namenjene prepoznavanju in zmanjšanju teh tveganj ter zagotavljanju ustrezne ravni kibernetske varnosti, ne glede na to, ali se zagotavljajo kot samostojni modeli ali so vgrajeni v sistem UI ali proizvod. Za doseganje teh ciljev bi morala ta uredba od ponudnikov zahtevati, da izvedejo potrebne ocene modelov, zlasti pred prvim dajanjem na trg, vključno z izvajanjem in dokumentiranjem testiranja modelov po načelu kontradiktornosti, po potrebi tudi z notranjim ali neodvisnim zunanjim testiranjem. Poleg tega bi morali ponudniki modelov UI za splošne namene s sistemskimi tveganji redno ocenjevati in zmanjševati sistemska tveganja, med drugim na primer z uvedbo politik za obvladovanje tveganj, kot so postopki za zagotavljanje odgovornosti in upravljanja, spremljanjem po dajanju na trg, sprejetjem ustreznih ukrepov v celotnem življenjskem ciklu modela in sodelovanjem z ustreznimi akterji v celotni verigi vrednosti UI.
(114)
Dostawcy modeli AI ogólnego przeznaczenia stwarzających ryzyko systemowe powinni podlegać nie tylko obowiązkom nałożonym na dostawców modeli AI ogólnego przeznaczenia, ale także obowiązkom mającym na celu identyfikację i ograniczenie ryzyka systemowego oraz zapewnienie odpowiedniego poziomu ochrony cyberbezpieczeństwa, niezależnie od tego, czy modele te są dostarczane jako samodzielne modele czy wbudowane w system AI lub w produkt. Aby osiągnąć te cele, w niniejszym rozporządzeniu należy zobowiązać dostawców do przeprowadzania niezbędnych ocen modeli, w szczególności przed ich pierwszym wprowadzeniem do obrotu, w tym przeprowadzania wobec modeli i dokumentowania testów kontradyktoryjnych, również, w stosownych przypadkach, w drodze wewnętrznych lub niezależnych testów zewnętrznych. Ponadto dostawcy modeli AI ogólnego przeznaczenia z ryzykiem systemowym powinni stale oceniać i ograniczać ryzyko systemowe, w tym na przykład poprzez wprowadzanie strategii zarządzania ryzykiem, takich jak procesy rozliczalności i zarządzania, wdrażanie monitorowania po wprowadzeniu do obrotu, podejmowanie odpowiednich środków w całym cyklu życia modelu oraz współpracę z odpowiednimi podmiotami w całym łańcuchu wartości AI.
(115)
Ponudniki modelov UI za splošne namene s sistemskimi tveganji bi morali oceniti in zmanjšati morebitna sistemska tveganja. Če razvoj ali uporaba modela kljub prizadevanjem za prepoznavanje in preprečevanje tveganj, povezanih z modelom UI za splošne namene, ki lahko predstavlja sistemska tveganja, povzroči resen incident, bi ga moral ponudnik modela UI za splošne namene brez nepotrebnega odlašanja spremljati ter Komisiji in pristojnim nacionalnim organom poročati o vseh ustreznih informacijah in možnih popravnih ukrepih. Poleg tega bi morali ponudniki po potrebi zagotoviti ustrezno raven kibernetske varnosti modela in njegove fizične infrastrukture v celotnem življenjskem ciklu modela. Pri kibernetski varnosti zaradi sistemskih tveganj, povezanih z zlonamerno uporabo ali napadi, bi bilo treba ustrezno upoštevati naključno uhajanje iz modelov, nedovoljene različice, izogibanje varnostnim ukrepom in obrambo pred kibernetskimi napadi, nepooblaščenim dostopom ali krajo modela. Tovrstno varnost bi bilo mogoče olajšati z zaščito uteži modelov, algoritmov, strežnikov in naborov podatkov, na primer z operativnimi varnostnimi ukrepi za informacijsko varnost, posebnimi politikami na področju kibernetske varnosti, ustreznimi tehničnimi in uveljavljenimi rešitvami ter kibernetskim in fizičnim nadzorom dostopa, ki bi bili prilagojeni zadevnim okoliščinam in povezanim tveganjem.
(115)
Dostawcy modeli AI ogólnego przeznaczenia z ryzykiem systemowym powinni oceniać i ograniczać ewentualne ryzyko systemowe. Jeżeli pomimo wysiłków na rzecz zidentyfikowania ryzyka związanego z modelem AI ogólnego przeznaczenia, który może stwarzać ryzyko systemowe, i pomimo wysiłków na rzecz przeciwdziałania temu ryzyku, w wyniku rozwoju lub wykorzystania modelu wystąpi poważny incydent, dostawca modelu AI ogólnego przeznaczenia powinien bez zbędnej zwłoki zacząć śledzić jego przebieg i zgłosić wszelkie istotne informacje i możliwe środki naprawcze Komisji i właściwym organom krajowym. Ponadto dostawcy powinni zapewnić odpowiedni poziom ochrony cyberbezpieczeństwa w odniesieniu do modelu i jego infrastruktury fizycznej, w stosownych przypadkach, w całym cyklu życia modelu. Ochrona cyberbezpieczeństwa w kontekście ryzyka systemowego związanego ze złośliwym wykorzystaniem lub atakami powinna należycie uwzględniać przypadkowe przecieki modelu, nieuprawnione przypadki udostępnienia, obchodzenie środków bezpieczeństwa oraz ochronę przed cyberatakami, nieuprawnionym dostępem lub kradzieżą modelu. Ochronę tę można ułatwić poprzez zabezpieczenie wag modeli, algorytmów, serwerów i zbiorów danych, na przykład za pomocą operacyjnych środków bezpieczeństwa na rzecz bezpieczeństwa informacji, konkretnych strategii cyberbezpieczeństwa, odpowiednich rozwiązań technicznych i ustanowionych rozwiązań oraz kontroli dostępu fizycznego i w cyberprzestrzeni, odpowiednio do danych okoliczności i związanego z nimi ryzyka.
(116)
Urad za UI bi moral spodbujati in olajšati pripravo, pregled in prilagoditev kodeksov prakse in pri tem upoštevati mednarodne pristope. K sodelovanju bi lahko bili povabljeni vsi ponudniki modelov UI za splošne namene. Za zagotovitev, da se v kodeksih prakse odrazijo najsodobnejši tehnološki dosežki in ustrezno upoštevajo različni vidiki, bi moral Urad za UI pri pripravi teh kodeksov sodelovati z ustreznimi pristojnimi nacionalnimi organi, po potrebi pa bi se lahko posvetoval z organizacijami civilne družbe ter drugimi ustreznimi deležniki in strokovnjaki, vključno z znanstvenim odborom. V teh kodeksih prakse bi morale biti določene obveznosti za ponudnike modelov UI za splošne namene in modelov UI za splošne namene s sistemskimi tveganji. Kar zadeva sistemska tveganja, bi morali kodeksi prakse poleg tega prispevati k vzpostavitvi taksonomije tveganja za vrsto in naravo sistemskih tveganj na ravni Unije, vključno z njihovimi viri. Kodeksi prakse bi morali biti osredotočeni tudi na specifične ocene tveganja in ukrepe za zmanjšanje tveganj.
(116)
Urząd ds. AI powinien wspierać i ułatwiać opracowywanie, przegląd i dostosowywanie kodeksów praktyk, z uwzględnieniem podejść międzynarodowych. Do udziału można zaprosić wszystkich dostawców modeli AI ogólnego przeznaczenia. W celu zapewnienia, aby kodeksy praktyk odzwierciedlały aktualny stan wiedzy technicznej i należycie uwzględniały różne punkty widzenia, przy opracowania takich kodeksów Urząd ds. AI powinien współpracować z odpowiednimi właściwymi organami krajowymi i mógłby, w stosownych przypadkach, konsultować się z organizacjami społeczeństwa obywatelskiego i innymi odpowiednimi zainteresowanymi stronami i ekspertami, w tym z panelem naukowym. Kodeksy praktyk powinny obejmować obowiązki dostawców modeli AI ogólnego przeznaczenia i modeli AI ogólnego przeznaczenia stwarzających ryzyko systemowe. Ponadto w odniesieniu do ryzyka systemowego kodeksy praktyk powinny pomóc w ustanowieniu na poziomie Unii klasyfikacji tego ryzyka pod względem jego różnych rodzajów i charakteru, w tym jego źródeł. Kodeksy praktyk powinny również koncentrować się na konkretnych środkach oceny i ograniczania ryzyka.
(117)
Kodeksi prakse bi morali biti osrednje orodje za pravilno izpolnjevanje obveznosti za ponudnike modelov UI za splošne namene, ki so določene v tej uredbi. Ponudniki bi morali imeti možnost, da se pri dokazovanju izpolnjevanja obveznosti oprejo na kodekse prakse. Komisija se lahko odloči, da z izvedbenimi akti odobri kodeks prakse in mu podeli splošno veljavnost v Uniji oziroma, kot nadomestno možnost, določi skupna pravila za izvajanje ustreznih obveznosti, če kodeksa prakse do začetka uporabe te uredbe ni mogoče dokončati ali če ga Urad za UI ne šteje za ustreznega. Ko je harmonizirani standard objavljen in ko ga Urad za UI oceni kot primernega za izpolnjevanje ustreznih obveznosti, bi morala za ponudnike veljati domneva o skladnosti, kadar ti izpolnjujejo evropski harmonizirani standard. Ponudniki modelov UI za splošne namene bi morali biti poleg tega sposobni z nadomestnimi ustreznimi sredstvi dokazati skladnost, če kodeksi prakse ali harmonizirani standardi niso na voljo ali če se odločijo, da se nanje ne bodo zanašali.
(117)
Kodeksy praktyk powinny stanowić jedno z głównych narzędzi służących właściwemu spełnianiu obowiązków przewidzianych w niniejszym rozporządzeniu w odniesieniu do dostawców modeli AI ogólnego przeznaczenia. Dostawcy powinni móc polegać na kodeksach praktyk w celu wykazania spełnienia tych obowiązków. W drodze aktów wykonawczych Komisja może podjąć decyzję o zatwierdzeniu kodeksu praktyk i nadaniu mu ogólnej ważności w Unii lub ewentualnie o ustanowieniu wspólnych zasad dotyczących wdrażania odpowiednich obowiązków, jeżeli do czasu rozpoczęcia stosowania niniejszego rozporządzenia prace nad kodeksem praktyk nie mogą zostać sfinalizowane lub jeśli Urząd ds. AI uzna, że kodeks ten nie jest wystarczający. Po opublikowaniu normy zharmonizowanej i po tym jak Urząd ds. AI oceni ją jako właściwą, by objąć odpowiednie obowiązki, zgodność z europejską normą zharmonizowaną powinna w odniesieniu do dostawców oznaczać domniemanie zgodności. Dostawcy modeli AI ogólnego przeznaczenia powinni ponadto być w stanie wykazać zgodność za pomocą odpowiednich alternatywnych środków, jeżeli kodeksy praktyk lub normy zharmonizowane nie są dostępne lub jeśli zdecydują się na nich nie polegać.
(118)
Ta uredba ureja sisteme UI in modele UI, saj za zadevne udeležence na trgu, ki te sisteme in modele dajejo na trg, v uporabo ali jih uporabljajo v Uniji, določa nekatere zahteve in obveznosti, s tem pa dopolnjuje obveznosti za ponudnike posredniških storitev, ki take sisteme ali modele vgrajujejo v svoje storitve, ki jih ureja Uredba (EU) 2022/2065. Kolikor so taki sistemi ali modeli vgrajeni v zelo velike spletne platforme ali zelo velike spletne iskalnike, zanje velja okvir za obvladovanje tveganj iz Uredbe (EU) 2022/2065. Zato bi bilo treba domnevati, da so ustrezne obveznosti iz te uredbe izpolnjene, razen če se v takih modelih pojavijo in prepoznajo pomembna sistemska tveganja, ki niso zajeta v Uredbi (EU) 2022/2065. V tem okviru morajo ponudniki zelo velikih spletnih platform in zelo velikih spletnih iskalnikov oceniti morebitna sistemska tveganja, ki izhajajo iz zasnove, delovanja in uporabe njihovih storitev, vključno s tem, kako zasnova algoritemskih sistemov, ki se uporabljajo v storitvi, lahko prispeva k takim tveganjem, pa tudi sistemska tveganja, ki izhajajo iz morebitne napačne uporabe. Ti ponudniki morajo ob spoštovanju temeljnih pravic sprejeti tudi ustrezne ukrepe za zmanjšanje tveganj.
(118)
Niniejsze rozporządzenie reguluje systemy AI i modele AI, nakładając określone wymogi i obowiązki na odpowiednie podmioty rynkowe, które wprowadzają je do obrotu, oddają do użytku lub wykorzystują w Unii, i uzupełnia w ten sposób obowiązki dostawców usług pośrednich, którzy włączają takie systemy lub modele do swoich usług uregulowanych rozporządzeniem (UE) 2022/2065. W zakresie, w jakim takie systemy lub modele są wbudowane we wskazane bardzo duże platformy internetowe lub bardzo duże wyszukiwarki internetowe, podlegają one ramom zarządzania ryzykiem przewidzianym w rozporządzeniu (UE) 2022/2065. W związku z tym należy domniemywać, że odpowiednie obowiązki ustanowione w niniejszym rozporządzeniu zostały spełnione, chyba że w takich modelach pojawi się i zostanie zidentyfikowane znaczące ryzyko systemowe nieobjęte rozporządzeniem (UE) 2022/2065. W tych ramach dostawcy bardzo dużych platform internetowych i bardzo dużych wyszukiwarek internetowych są zobowiązani do oceny potencjalnego ryzyka systemowego wynikającego z projektu, funkcjonowania i wykorzystania ich usług, w tym tego, w jaki sposób projekt systemów algorytmicznych wykorzystywanych w danej usłudze może przyczynić się do powstania takiego ryzyka, a także ryzyka systemowego wynikającego z potencjalnego nadużycia. Dostawcy ci są również zobowiązani podjąć odpowiednie środki ograniczające to ryzyko z poszanowaniem praw podstawowych.
(119)
Glede na hiter tempo inovacij in tehnološkega razvoja digitalnih storitev, ki spadajo na področje uporabe različnih instrumentov prava Unije, zlasti glede na uporabo in dojemanje oseb, ki so jim namenjeni, se lahko sistemi UI, za katere se uporablja ta uredba, zagotavljajo kot posredniške storitve ali kot deli posredniških storitev v smislu Uredbe (EU) 2022/2065, ki bi jo bilo treba razlagati na tehnološko nevtralen način. Sistemi UI se lahko na primer uporabljajo za zagotavljanje spletnih iskalnikov, zlasti če sistem UI, kot je spletni klepetalni robot, načeloma izvaja poizvedbe na vseh spletiščih, nato pa rezultate vključi v svoje obstoječe znanje in posodobljeno znanje uporabi za ustvarjanje enega samega izhodnega podatka, v katerem so združeni različni viri informacij.
(119)
Biorąc pod uwagę szybkie tempo innowacji i rozwój technologiczny usług cyfrowych objętych różnymi instrumentami prawa Unii, w szczególności mając na uwadze wykorzystanie tych usług oraz zrozumienie, kto jest ich odbiorcą, systemy AI podlegające niniejszemu rozporządzeniu mogą być dostarczane jako usługi pośrednie lub ich części w rozumieniu rozporządzenia (UE) 2022/2065, które należy postrzegać w sposób neutralny pod względem technologicznym. Na przykład systemy AI mogą być wykorzystywane w roli wyszukiwarek internetowych, w szczególności w zakresie, w jakim system AI, taki jak chatbot internetowy, zasadniczo przeprowadza wyszukiwanie wszystkich stron internetowych, a następnie włącza wyniki do swojej istniejącej wiedzy i wykorzystuje zaktualizowaną wiedzę do wygenerowania jednego wyniku, który łączy różne źródła informacji.
(120)
Poleg tega so obveznosti za ponudnike in uvajalce nekaterih sistemov UI iz te uredbe, ki omogočajo odkrivanje in razkrivanje dejstva, da so izhodni podatki teh sistemov umetno ustvarjeni ali prirejeni, še zlasti pomembne zato, da se olajša učinkovito izvajanje Uredbe (EU) 2022/2065. To velja zlasti za obveznosti za ponudnike zelo velikih spletnih platform ali zelo velikih spletnih iskalnikov, da prepoznajo in zmanjšajo sistemska tveganja, ki lahko izhajajo iz razširjanja umetno ustvarjenih ali prirejenih vsebin, zlasti tveganje dejanskih ali predvidljivih negativnih učinkov na demokratične procese, državljansko razpravo in volilne procese, tudi z dezinformacijami.
(120)
Ponadto obowiązki nałożone w niniejszym rozporządzeniu na dostawców i podmioty stosujące niektóre systemy AI, by umożliwić wykrywanie i ujawnianie, że wyniki tych systemów są sztucznie wygenerowane lub zmanipulowane, są szczególnie istotne dla ułatwienia skutecznego wdrożenia rozporządzenia (UE) 2022/2065. Dotyczy to w szczególności obowiązków dostawców bardzo dużych platform internetowych lub bardzo dużych wyszukiwarek internetowych w zakresie identyfikowania i ograniczania ryzyka systemowego, które może wynikać z rozpowszechniania treści sztucznie wygenerowanych lub zmanipulowanych, w szczególności ryzyka faktycznych lub przewidywalnych negatywnych skutków dla procesów demokratycznych, dyskursu obywatelskiego i procesów wyborczych, w tym poprzez stosowanie dezinformacji.
(121)
Standardizacija bi morala imeti ključno vlogo pri zagotavljanju tehničnih rešitev ponudnikom, da se zagotovi skladnost s to uredbo, ob upoštevanju najsodobnejših tehnoloških dosežkov, ter pri spodbujanju inovacij, konkurenčnosti in rasti na enotnem trgu. Skladnost s harmoniziranimi standardi, kot so opredeljeni v členu 2, točka 1(c), Uredbe (EU) št. 1025/2012 Evropskega parlamenta in Sveta (41) in od katerih se običajno pričakuje, da odražajo najsodobnejše tehnološke dosežke, bi morala predstavljati sredstvo, s katerim ponudniki dokažejo skladnost z zahtevami iz te uredbe. Zato bi bilo treba spodbujati uravnoteženo zastopanost interesov z vključitvijo vseh ustreznih deležnikov v razvoj standardov, zlasti MSP, potrošniških organizacij ter okoljskih in socialnih deležnikov v skladu s členoma 5 in 6 Uredbe (EU) št. 1025/2012. Da bi lažje dosegli skladnost, bi morala Komisija brez nepotrebnega odlašanja izdati zahteve za standardizacijo. Pri pripravi zahteve za standardizacijo se Komisija posvetuje s svetovalnim forumom in Odborom, da zbere ustrezno strokovno znanje. Ker pa ustrezni sklici na harmonizirane standarde še ne obstajajo, bi morala imeti Komisija možnost, da z izvedbenimi akti in po posvetovanju s svetovalnim forumom določi skupne specifikacije za nekatere zahteve iz te uredbe. Skupna specifikacija bi morala biti izjemna nadomestna rešitev, da se ponudniku olajša izpolnjevanje obveznosti glede skladnosti z zahtevami iz te uredbe, kadar nobena od evropskih organizacij za standardizacijo ne sprejme zahteve za standardizacijo ali kadar ustrezni harmonizirani standardi nezadostno obravnavajo pomisleke glede temeljnih pravic ali kadar harmonizirani standardi niso skladni z zahtevo ali kadar pride do zamud pri sprejetju ustreznega harmoniziranega standarda. Kadar je vzrok za takšno zamudo pri sprejetju harmoniziranega standarda tehnična kompleksnost zadevnega standarda, bi morala Komisija to upoštevati preden se odloči za določitev skupnih specifikacij. Komisija naj pri pripravi skupnih specifikacij sodeluje z mednarodnimi partnerji in mednarodnimi organi za standardizacijo.
(121)
Kluczową rolę w dostarczaniu dostawcom rozwiązań technicznych – zgodnie z aktualnym stanem wiedzy technicznej – w celu zapewnienia zgodności z niniejszym rozporządzeniem powinna odgrywać normalizacja, tak aby promować innowacje oraz konkurencyjność i wzrost gospodarczy na jednolitym rynku. Zgodność z normami zharmonizowanymi określonymi w art. 2 pkt 1 lit. c) rozporządzenia Parlamentu Europejskiego i Rady (UE) nr 1025/2012 (41), które z założenia mają odzwierciedlać stan wiedzy technicznej, powinna stanowić dla dostawców sposób wykazania zgodności z wymogami niniejszego rozporządzenia. Przy opracowywaniu norm należy zatem zachęcać do zrównoważonej reprezentacji interesów wszystkich zainteresowanych stron, w szczególności MŚP, organizacji konsumenckich oraz zainteresowanych stron działających na rzecz ochrony środowiska i społeczeństwa zgodnie z art. 5 i 6 rozporządzenia (UE) nr 1025/2012. Aby ułatwić osiąganie zgodności, wnioski o normalizację powinny być wydawane przez Komisję bez zbędnej zwłoki. Przygotowując wniosek o normalizację, Komisja powinna skonsultować się z forum doradczym i Radą ds. AI, aby zebrać odpowiednią wiedzę fachową. Jednakże w przypadku braku odpowiednich odniesień do norm zharmonizowanych Komisja powinna mieć możliwość ustanowienia, w drodze aktów wykonawczych i po konsultacji z forum doradczym, wspólnych specyfikacji dotyczących niektórych wymogów określonych w niniejszym rozporządzeniu. Ta wspólna specyfikacja powinna stanowić wyjątkowe rozwiązanie awaryjne ułatwiające dostawcy spełnienie wymogów niniejszego rozporządzenia, w przypadku gdy wniosek o normalizację nie został zaakceptowany przez żadną z europejskich organizacji normalizacyjnych lub gdy odpowiednie normy zharmonizowane w niewystarczającym stopniu uwzględniają obawy dotyczące praw podstawowych lub gdy normy zharmonizowane nie są zgodne z wnioskiem, lub gdy występują opóźnienia w przyjęciu odpowiedniej normy zharmonizowanej. Jeżeli opóźnienie w przyjęciu normy zharmonizowanej wynika ze złożoności technicznej danej normy, Komisja powinna to uwzględnić, zanim zacznie rozważać ustanowienie wspólnych specyfikacji. Przy opracowywaniu wspólnych specyfikacji zachęca się Komisję do współpracy z partnerami międzynarodowymi i międzynarodowymi organami normalizacyjnymi.
(122)
Brez poseganja v uporabo harmoniziranih standardov in skupnih specifikacij je primerno, da se za ponudnike visokotveganega sistema UI, ki je bil naučen in testiran na podlagi podatkov, ki odražajo specifično geografsko, vedenjsko, vsebinsko ali funkcionalno okolje, v katerem naj bi se ta sistem uporabljal, domneva, da delujejo skladno z ustreznim ukrepom, določenim na podlagi zahteve glede upravljanja podatkov iz te uredbe. Brez poseganja v zahteve glede robustnosti in točnosti iz te uredbe bi bilo treba v skladu s členom 54(3) Uredbe (EU) 2019/881 domnevati, da so visokotvegani sistemi UI, ki so bili certificirani ali za katere je bila izdana izjava o skladnosti v okviru sheme za kibernetsko varnost na podlagi navedene uredbe, ob tem pa so bili sklici na zadevno shemo objavljeni v Uradnem listu Evropske unije, skladni z zahtevo glede kibernetske varnosti iz te uredbe, če certifikat kibernetske varnosti ali izjava o skladnosti ali njen del vključuje zahtevo glede kibernetske varnosti iz te uredbe. To ne posega v prostovoljno naravo navedene sheme za kibernetsko varnost.
(122)
Bez uszczerbku dla stosowania norm zharmonizowanych i wspólnych specyfikacji zasadnym jest przyjęcie domniemania, że dostawcy systemu AI wysokiego ryzyka, który został wytrenowany i przetestowany w oparciu o dane odzwierciedlające określone otoczenie geograficzne, behawioralne, kontekstualne lub funkcjonalne, w którym dany system AI ma być wykorzystywany, stosują odpowiedni środek przewidziany w ramach wymogu dotyczącego zarządzania danymi określonego w niniejszym rozporządzeniu. Bez uszczerbku dla wymogów dotyczących solidności i dokładności określonych w niniejszym rozporządzeniu, zgodnie z art. 54 ust. 3 rozporządzenia (UE) 2019/881 należy przyjąć domniemanie, że systemy AI wysokiego ryzyka, które zostały certyfikowane lub w odniesieniu do których wydano deklarację zgodności w ramach programu certyfikacji cyberbezpieczeństwa na podstawie tego rozporządzenia i do których to poświadczeń opublikowano odniesienia w Dzienniku Urzędowym Unii Europejskiej, są zgodne z wymogiem cyberbezpieczeństwa określonym w niniejszym rozporządzeniu w zakresie, w jakim certyfikat cyberbezpieczeństwa lub deklaracja zgodności lub ich części obejmują wymóg cyberbezpieczeństwa określony w niniejszym rozporządzeniu. Pozostaje to bez uszczerbku dla dobrowolnego charakteru tego programu certyfikacji cyberbezpieczeństwa.
(123)
Da bi zagotovili visoko raven zaupanja v visokotvegane sisteme UI, bi bilo treba za te sisteme pred dajanjem na trg ali v uporabo opraviti ugotavljanje skladnosti.
(123)
Aby zapewnić wysoki poziom wiarygodności systemów AI wysokiego ryzyka, takie systemy powinny podlegać ocenie zgodności przed wprowadzeniem ich do obrotu lub oddaniem do użytku.
(124)
Da bi čim bolj zmanjšali breme za operaterje in se izognili morebitnemu podvajanju, je primerno, da bi skladnost visokotveganih sistemov UI, povezanih s proizvodi, za katere velja obstoječa harmonizacijska zakonodaja Unije, ki temelji na novem zakonodajnem okviru, z zahtevami te uredbe ocenili v okviru ugotavljanja skladnosti, kot je že določeno navedena zakonodaja. Uporaba zahtev iz te uredbe torej ne bi smela vplivati na posebno logiko, metodologijo ali splošno strukturo ugotavljanja skladnosti na podlagi ustrezne harmonizacijske zakonodaje Unije.
(124)
Aby zminimalizować obciążenie dla operatorów i uniknąć ewentualnego powielania działań, zgodność z wymogami niniejszego rozporządzenia w przypadku systemów AI wysokiego ryzyka powiązanych z produktami, które są objęte zakresem stosowania obowiązującego unijnego prawodawstwa harmonizacyjnego opartego na nowych ramach prawnych, należy oceniać w ramach oceny zgodności przewidzianej już w tym prawodawstwie. Stosowanie wymogów niniejszego rozporządzenia nie powinno zatem wpływać na szczególną logikę, metodykę lub ogólną strukturę oceny zgodności określone w unijnym prawodawstwie harmonizacyjnym.
(125)
Zaradi kompleksnosti visokotveganih sistemov UI in z njimi povezanih tveganj je pomembno razviti ustrezen postopek ugotavljanja skladnosti visokotveganih sistemov UI, ki vključuje priglašene organe, tako imenovano ugotavljanje skladnosti s strani tretjih oseb. Glede na sedanje izkušnje poklicnih izdajateljev potrdil pred dajanjem na trg na področju varnosti proizvodov in glede na različno naravo zadevnih tveganj, pa je primerno, da se vsaj v začetni fazi uporabe te uredbe omeji področje uporabe ugotavljanja skladnosti s strani tretjih oseb na visokotvegane sisteme UI, ki niso povezani s proizvodi. Zato bi moral ugotavljanje skladnosti takih sistemov praviloma opraviti ponudnik na lastno odgovornost, z edino izjemo sistemov UI, namenjenih uporabi za biometriko.
(125)
Biorąc pod uwagę złożoność systemów AI wysokiego ryzyka i związane z nimi ryzyko, ważne jest opracowanie odpowiedniej procedury oceny zgodności w przypadku systemów AI wysokiego ryzyka z udziałem jednostek notyfikowanych, tzw. oceny zgodności przeprowadzanej przez stronę trzecią. Zważywszy jednak na dotychczasowe doświadczenie, jakie zawodowe podmioty zajmujące się certyfikacją przed wprowadzeniem do obrotu mają w dziedzinie bezpieczeństwa produktów, oraz odmienny charakter odnośnego ryzyka, zakres stosowania oceny zgodności przeprowadzanej przez stronę trzecią należy ograniczyć, przynajmniej na początkowym etapie stosowania niniejszego rozporządzenia, w przypadku systemów AI wysokiego ryzyka innych niż te, które są powiązane z produktami. W związku z tym ocena zgodności takich systemów powinna być co do zasady przeprowadzana przez dostawcę na jego własną odpowiedzialność, z wyjątkiem systemów AI przeznaczonych do wykorzystania do celów biometrycznych.
(126)
Za izvedbo ugotavljanja skladnosti s strani tretjih oseb, kadar je potrebno, bi morali pristojni nacionalni organi na podlagi te uredbe priglasiti priglašene organe, pod pogojem, da izpolnjujejo vrsto zahtev, zlasti glede neodvisnosti, kompetenc, neobstoja navzkrižja interesov, pa tudi zahtev glede kibernetske varnosti. Pristojni nacionalni organi bi morali priglasitev teh organov poslati Komisiji in drugim državam članicam prek elektronskega orodja za priglasitev, ki ga razvije in upravlja Komisija na podlagi člena R23 Priloge I k Sklepu št. 768/2008/ES.
(126)
Do celów oceny zgodności przeprowadzanej przez stronę trzecią, jeśli jest ona wymagana, właściwe organy krajowe powinny notyfikować na podstawie niniejszego rozporządzenia jednostki notyfikowane, pod warunkiem że jednostki te spełniają szereg wymogów, w szczególności dotyczących niezależności, kompetencji, braku konfliktu interesów i odpowiednich wymogów cyberbezpieczeństwa. Notyfikacja tych jednostek powinna zostać przesłana Komisji i pozostałym państwom członkowskim przez właściwe organy krajowe za pomocą systemu notyfikacji elektronicznej opracowanego i zarządzanego przez Komisję zgodnie z art. R23 załącznika I do decyzji nr 768/2008/WE.
(127)
V skladu z zavezami Unije iz Sporazuma Svetovne trgovinske organizacije o tehničnih ovirah v trgovini je ustrezno olajšati vzajemno priznavanje rezultatov ugotavljanja skladnosti, ki jih pridobijo pristojni organi za ugotavljanje skladnosti ne glede na to, kje imajo sedež, pod pogojem, da navedeni organi za ugotavljanje skladnosti, ustanovljeni na podlagi prava tretje države, izpolnjujejo veljavne zahteve iz te uredbe in če je Unija v ta namen sklenila sporazum. V zvezi s tem bi morala Komisija v ta namen dejavno preučiti morebitne mednarodne instrumente in si zlasti prizadevati za sklenitev sporazumov s tretjimi državami o vzajemnem priznavanju.
(127)
Zgodnie ze zobowiązaniami Unii wynikającymi z Porozumienia Światowej Organizacji Handlu w sprawie barier technicznych w handlu właściwe jest ułatwienie wzajemnego uznawania wyników oceny zgodności sporządzonych przez właściwe jednostki oceniające zgodność, niezależnie od terytorium, na którym mają siedzibę, pod warunkiem że te jednostki oceniające zgodność ustanowione na mocy prawa państwa trzeciego spełniają mające zastosowanie wymogi niniejszego rozporządzenia, a Unia zawarła w tym zakresie umowę. W tym kontekście Komisja powinna aktywnie szukać rozwiązań w postaci ewentualnych służących temu celowi instrumentów międzynarodowych, a w szczególności dążyć do zawarcia umów o wzajemnym uznawaniu z państwami trzecimi.
(128)
V skladu s skupno uveljavljenim pojmom bistvene spremembe za proizvode, ki jih ureja harmonizacijska zakonodaja Unije, je primerno, da ob vsaki spremembi, ki bi lahko vplivala na skladnost visokotveganega sistema UI s to uredbo (npr. spremembi arhitekture operacijskega sistema ali programske opreme), ali kadar se spremeni predvideni namen sistema, ta sistem UI šteje za nov sistem UI, za katerega bi bilo treba opraviti novo ugotavljanje skladnosti. Vendar spremembe algoritma in zmogljivosti sistemov UI, ki se po tem, ko so dani na trg ali v uporabo, še naprej „učijo“, tj. samodejno prilagajajo način izvajanja funkcij, ne bi smele pomeniti bistvene spremembe, če jih je ponudnik določil vnaprej in ocenil v okviru ugotavljanja skladnosti.
(128)
Zgodnie z powszechnie ugruntowanym pojęciem istotnej zmiany w odniesieniu do produktów regulowanych unijnym prawodawstwem harmonizacyjnym, należy – za każdym razem, gdy dokonuje się zmiany, która może wpłynąć na zgodność danego systemu AI wysokiego ryzyka z niniejszym rozporządzeniem (np. zmiana systemu operacyjnego lub architektury oprogramowania), lub gdy zmienia się przeznaczenie danego systemu – uznać ten system AI za nowy system AI, który powinien zostać poddany nowej ocenie zgodności. Za istotną zmianę nie należy jednak uznawać zmian w algorytmie oraz w skuteczności działania systemu AI, który po wprowadzeniu do obrotu lub oddaniu do użytku nadal się „uczy”, tzn. automatycznie dostosowuje sposób wykonywania funkcji, pod warunkiem że zmiany te zostały z góry zaplanowane przez dostawcę i ocenione w momencie przeprowadzania oceny zgodności.
(129)
Visokotvegani sistemi UI bi morali imeti oznako CE, ki označuje njihovo skladnost s to uredbo, da se lahko prosto gibljejo na notranjem trgu. Visokotvegani sistemi UI, ki so vgrajeni v proizvod, bi morali biti označeni s fizično oznako CE, ki jo lahko dopolnjuje digitalna oznaka CE. Za visokotvegane sisteme UI, ki se zagotavljajo samo digitalno, bi bilo treba uporabljati digitalno oznako CE. Države članice ne bi smele neupravičeno ovirati dajanja na trg ali v uporabo visokotveganih sistemov UI, ki izpolnjujejo zahteve iz te uredbe in nosijo oznako CE.
(129)
Systemy AI wysokiego ryzyka powinny posiadać oznakowanie CE wskazujące na ich zgodności z niniejszym rozporządzeniem, aby umożliwić ich swobodny przepływ na rynku wewnętrznym. W przypadku systemów AI wysokiego ryzyka wbudowanych w produkt należy umieścić fizyczne oznakowanie CE, które może zostać uzupełnione cyfrowym oznakowaniem CE. W przypadku systemów AI wysokiego ryzyka dostarczanych wyłącznie w formie cyfrowej należy stosować cyfrowe oznakowanie CE. Państwa członkowskie nie powinny stwarzać nieuzasadnionych przeszkód dla wprowadzania do obrotu lub oddawania do użytku systemów AI wysokiego ryzyka zgodnych z wymogami ustanowionymi w niniejszym rozporządzeniu i posiadających oznakowanie CE.
(130)
V določenih okoliščinah je lahko hitra razpoložljivost inovativnih tehnologij ključnega pomena za zdravje in varnost ljudi, varstvo okolja in podnebne spremembe ter za družbo kot celoto. Zato je primerno, da bi iz izjemnih razlogov javne varnosti ali varstva življenja in zdravja fizičnih oseb, varstva okolja ter zaščite ključne industrijskih in infrastrukturnih sredstev organi za nadzor trga lahko dovolili dajanje na trg ali v uporabo sistemov UI, za katere ugotavljanje skladnosti ni bilo opravljeno. V ustrezno utemeljenih primerih, kot je določeno v tej uredbi, lahko organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj ali organi civilne zaščite dajo določen visokotvegani sistem UI v uporabo brez dovoljenja organa za nadzor trga, če se za tako dovoljenje brez nepotrebnega odlašanja zaprosi med uporabo ali po njej.
(130)
W pewnych warunkach szybka dostępność innowacyjnych technologii może być kluczowa dla zdrowia i bezpieczeństwa osób, ochrony środowiska i zmiany klimatu oraz dla całego społeczeństwa. Jest zatem właściwe, aby w przypadku wystąpienia nadzwyczajnych względów dotyczących bezpieczeństwa publicznego lub ochrony zdrowia i życia osób fizycznych, ochrony środowiska oraz ochrony kluczowych aktywów przemysłowych i infrastrukturalnych, organy nadzoru rynku mogły zezwolić na wprowadzenie do obrotu lub oddanie do użytku systemów AI, które nie przeszły oceny zgodności. W należycie uzasadnionych sytuacjach przewidzianych w niniejszym rozporządzeniu organy ścigania lub organy ochrony ludności mogą oddać do użytku określony system AI wysokiego ryzyka bez zezwolenia organu nadzoru rynku, pod warunkiem że o takie zezwolenie wystąpiono bez zbędnej zwłoki w trakcie jego wykorzystania lub po wykorzystaniu.
(131)
Da bi olajšali delo Komisije in držav članic na področju UI ter povečanje preglednosti za javnost, bi bilo treba od ponudnikov visokotveganih sistemov UI, razen tistih, povezanih s proizvodi, ki spadajo na področje uporabe ustrezne obstoječe harmonizacijske zakonodaje Unije, ter ponudnikov, ki menijo, da sistem UI s seznama visokotveganih primerov uporabe iz priloge k tej uredbi, ni visokotvegan na podlagi odstopanja, zahtevati, da se registrirajo v podatkovni zbirki EU, ki jo vzpostavi in upravlja Komisija, in da v tej zbirki beležijo tudi informacije o svojih sistemih UI. Pred uporabo sistema UI s seznama visokotveganih primerov uporabe iz priloge k tej uredbi bi se morali uvajalci visokotveganih sistemov UI, ki so javni organi, agencije ali telesa, registrirati v taki zbirki in izbrati sistem, ki ga nameravajo uporabljati. Drugi uvajalci bi morali imeti pravico do prostovoljne registracije. Ta del podatkovne zbirke EU bi moral biti javno dostopen in brezplačen, informacije pa bi morale biti zlahka dostopne, razumljive in strojno berljive. Podatkovna zbirka EU bi prav tako morala biti prilagojena uporabnikom, na primer z zagotavljanjem funkcije iskanja, tudi s ključnimi besedami, da bi širša javnost lahko našla ustrezne informacije, ki se predložijo ob registraciji visokotveganih sistemov UI in o primeru uporabe visokotveganih sistemov UI iz priloge k tej uredbi za zadevne visokotvegane sisteme UI. V podatkovni zbirki EU bi bilo treba registrirati tudi bistvene spremembe visokotveganih sistemov UI. Za visokotvegane sisteme UI na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, migracij, azila in upravljanja nadzora meja bi bilo treba obveznosti registracije izpolniti v varnem, nejavnem delu podatkovne zbirke EU. Dostop do varnega dela, ki ni dostopen javnosti, bi moral biti strogo omejen na Komisijo in organe za nadzor trga, kar zadeva njihov nacionalni del te podatkovne zbirke. Visokotvegani sistemi UI na področju kritične infrastrukture bi morali biti registrirani le na nacionalni ravni. Komisija bi morala biti upravljavec podatkovne zbirke EU v skladu z Uredbo (EU) 2018/1725. Za zagotovitev polne funkcionalnosti podatkovne zbirke ob njeni uvedbi bi moral postopek za njeno vzpostavitev vključevati razvoj funkcionalnih specifikacij s strani Komisije in neodvisno revizijsko poročilo. Komisija bi morala pri opravljanju nalog upravljavca podatkov v podatkovni zbirki EU upoštevati tveganja, povezana s kibernetsko varnostjo. Podatkovna zbirka EU, vključno z informacijami, ki so prek nje na voljo, bi morala izpolnjevati zahteve iz Direktive (EU) 2019/882, da bi bila javnosti čim bolj dostopna in uporabna.
(131)
Aby ułatwić pracę Komisji i państw członkowskich w dziedzinie AI, jak również zwiększyć przejrzystość wobec ogółu społeczeństwa, dostawców systemów AI wysokiego ryzyka innych niż te, które są powiązane z produktami objętymi zakresem stosowania odpowiedniego obowiązującego unijnego prawodawstwa harmonizacyjnego, a także dostawców, którzy uznają, że w związku z odstępstwem system AI wymieniony w wykazie przypadków wykorzystania stanowiących wysokie ryzyko zamieszczonym w załączniku do niniejszego rozporządzenia nie jest systemem wysokiego ryzyka, należy zobowiązać, by dokonali swojej rejestracji oraz rejestracji informacji na temat swoich systemów AI w bazie danych UE, która zostanie utworzona i będzie zarządzana przez Komisję. Przed wykorzystaniem systemu AI wymienionego w wykazie przypadków wykorzystania stanowiących wysokie ryzyko zamieszczonym w załączniku do niniejszego rozporządzenia będące publicznymi organami, agencjami lub jednostkami organizacyjnymi podmioty stosujące systemy AI wysokiego ryzyka powinny dokonać swojej rejestracji w tej bazie danych i wybrać system, który zamierzają wykorzystywać. Inne podmioty stosujące powinny być uprawnione do uczynienia tego dobrowolnie. Ta sekcja bazy danych UE powinna być publicznie dostępna, nieodpłatna, informacje powinny być łatwe do odnalezienia, zrozumiałe i nadające się do odczytu maszynowego. Ta baza danych UE powinna być również przyjazna dla użytkownika, na przykład poprzez zapewnienie funkcji wyszukiwania, w tym za pomocą słów kluczowych, co umożliwi ogółowi społeczeństwa znalezienie istotnych informacji przedkładanych przy rejestracji systemów AI wysokiego ryzyka, oraz informacji na temat przypadków wykorzystywania systemów AI wysokiego ryzyka, określonych w załączniku do niniejszego rozporządzenia, któremu odpowiadają poszczególne systemy AI wysokiego ryzyka. W unijnej bazie danych UE powinno się też rejestrować wszelkie istotne zmiany systemów sztucznej inteligencji wysokiego ryzyka. W przypadku systemów AI wysokiego ryzyka w obszarze ścigania przestępstw, zarządzania migracją, azylem i kontrolą graniczną obowiązkowej rejestracji należy dokonać w bezpiecznej niepublicznej sekcji bazy danych. Dostęp do tej bezpiecznej niepublicznej sekcji powinna posiadać tylko i wyłącznie Komisja i organy nadzoru rynku w odniesieniu do ich krajowej sekcji bazy danych UE. Systemy AI wysokiego ryzyka w obszarze infrastruktury krytycznej powinny być rejestrowane wyłącznie na poziomie krajowym. Komisja powinna być administratorem bazy danych UE zgodnie z rozporządzeniem (UE) 2018/1725. Aby zapewnić pełną funkcjonalność bazy danych UE po jej wdrożeniu, procedura ustanawiania bazy danych powinna obejmować rozwijanie przez Komisję specyfikacji funkcjonalnych oraz sprawozdanie z niezależnego audytu. Wykonując swoje zadania jako administrator danych bazy danych UE, Komisja powinna wziąć pod uwagę ryzyko dotyczące cyberbezpieczeństwa. Aby zmaksymalizować dostępność i wykorzystywanie bazy danych UE przez społeczeństwo, baza danych UE, w tym udostępniane za jej pośrednictwem informacje, powinna być zgodna z wymogami określonymi w dyrektywie (UE) 2019/882.
(132)
Nekateri sistemi UI, namenjeni stikom s fizičnimi osebami ali ustvarjanju vsebine, lahko predstavljajo posebna tveganja izdajanja za drugo osebo ali zavajanja, ne glede na to, ali se uvrščajo med sisteme visokega tveganja ali ne. V določenih okoliščinah bi zato za uporabo teh sistemov morale veljati posebne obveznosti glede preglednosti, brez poseganja v zahteve in obveznosti za visokotvegane sisteme UI, in ciljne izjeme, da bi upoštevali posebne potrebe na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj. Zlasti bi bilo treba fizične osebe obvestiti, da so v interakciji s sistemom UI, razen če je to očitno z vidika fizične osebe, ki je razmeroma dobro obveščena, pozorna in preudarna, ob upoštevanju okoliščin in okvira uporabe. Pri izvajanju te obveznosti bi bilo treba upoštevati značilnosti fizičnih oseb, ki zaradi svoje starosti ali invalidnosti pripadajo ranljivim skupinam, kolikor je namen sistema UI tudi interakcija s temi skupinami. Poleg tega bi bilo treba fizične osebe obvestiti, kadar so izpostavljene sistemom UI, ki lahko z obdelavo njihovih biometričnih podatkov prepoznajo čustva ali namere teh oseb ali sklepajo o njih oziroma te osebe razvrstijo v posebne kategorije. Tovrstne posebne kategorije se lahko nanašajo na značilnosti, kot so spol, starost, barva las, barva oči, tetovaže, osebne lastnosti, etnično poreklo, osebne želje in interesi. Take informacije in obvestila bi bilo treba zagotoviti v invalidom dostopnih oblikah.
(132)
Niektóre systemy AI przeznaczone do wchodzenia w interakcję z osobami fizycznymi lub generowania treści mogą stwarzać szczególne ryzyko podawania się za inną osobę lub wprowadzania w błąd, niezależnie od tego, czy kwalifikują się jako systemy wysokiego ryzyka, czy też nie. W pewnych okolicznościach wykorzystanie tych systemów powinno zatem podlegać szczególnym obowiązkom w zakresie przejrzystości bez uszczerbku dla wymogów i obowiązków określonych dla systemów AI wysokiego ryzyka, przy zastosowaniu ukierunkowanych wyjątków, aby uwzględnić szczególne potrzeby w zakresie ścigania przestępstw. W szczególności osoby fizyczne powinny być powiadamiane o tym, że wchodzą w interakcję z systemem AI, chyba że jest to oczywiste z punktu widzenia osoby fizycznej, która jest dostatecznie poinformowana, uważna i ostrożna, z uwzględnieniem okoliczności i kontekstu korzystania. Przy spełnianiu takiego obowiązku należy uwzględniać cechy osób fizycznych należących do grup szczególnie wrażliwych ze względu na wiek lub niepełnosprawność – w zakresie, w jakim system AI ma również wchodzić w interakcję z tymi grupami. Ponadto osoby fizyczne powinny być powiadamiane, jeżeli są poddawane działaniu systemów AI, które poprzez przetwarzanie ich danych biometrycznych mogą zidentyfikować lub wywnioskować emocje lub zamiary tych osób lub przypisać je do określonych kategorii. Te określone kategorie mogą dotyczyć takich aspektów jak płeć, wiek, kolor włosów, kolor oczu, tatuaże, cechy osobowości, pochodzenie etniczne, osobiste preferencje i zainteresowania. Tego rodzaju informacje i powiadomienia należy przekazywać w formatach dostępnych dla osób z niepełnosprawnościami.
(133)
Različni sistemi UI lahko ustvarijo velike količine sintetičnih vsebin, ki jih ljudje vse težje razlikujejo od vsebin, ki jih ustvari človek, in verodostojnih vsebin. Široka razpoložljivost in večje zmogljivosti teh sistemov pomembno vplivajo na integriteto informacijskega ekosistema in zaupanje vanj, saj se pojavljajo nova tveganja dezinformacij in obsežnega prirejanja, goljufij, izdajanja za drugo osebo in zavajanja potrošnikov. Glede na navedene vplive, hiter tempo tehnološkega razvoja ter potrebo po novih metodah in tehnikah za sledenje izvoru informacij je primerno od ponudnikov navedenih sistemov zahtevati, da vključijo tehnične rešitve, ki v strojno berljivi obliki omogočajo označevanje in zaznavanje, da je izhodne podatke ustvaril ali priredil sistem UI in ne človek. Take tehnike in metode bi morale biti dovolj zanesljive, interoperabilne, učinkovite in robustne, kolikor je to tehnično izvedljivo, ob upoštevanju razpoložljivih tehnik ali kombinacije takih tehnik, kot so vodni žigi, prepoznavanje metapodatkov, kriptografske metode za dokazovanje izvora in pristnosti vsebine, metode beleženja, prstni odtisi ali druge tehnike, kot je ustrezno. Ponudniki bi morali pri izvajanju te obveznosti upoštevati tudi posebnosti in omejitve različnih vrst vsebin ter zadevni tehnološki in tržni razvoj na tem področju, pokazatelj katerega so splošno priznani najsodobnejši tehnološki dosežki. Takšne tehnike in metode se lahko izvajajo na ravni sistema UI ali na ravni modela UI, vključno z modeli UI za splošne namene, ki ustvarjajo vsebino, da se ponudniku sistema UI nižje v verigi omogoči lažje izpolnjevanje te obveznosti. Da bi ta obveznost označevanja ostala sorazmerna, je primerno predvideti, da ne bi smela zajemati sistemov UI, ki zagotavljajo predvsem podporno funkcijo za standardno urejanje, ali sistemov UI, ki ne spreminjajo bistveno vhodnih podatkov, ki jih zagotovi uvajalec, ali njihove semantike.
(133)
Różne systemy AI mogą generować duże ilości treści syntetycznych, które stają się coraz trudniejsze do odróżnienia od treści generowanych przez człowieka i treści autentycznych. Szeroka dostępność i coraz większe zdolności tych systemów mają znaczący wpływ na integralność ekosystemu informacyjnego i zaufanie do niego, stwarzając nowe rodzaje ryzyka polegające na podawaniu informacji wprowadzających w błąd i na manipulacji na dużą skalę, oszustwach, podszywaniu się pod inne osoby i wprowadzaniu w błąd konsumentów. W świetle tych skutków, a także szybkiego tempa technologicznego oraz zapotrzebowania na nowe metody i techniki śledzenia pochodzenia informacji należy zobowiązać dostawców tych systemów do wbudowania rozwiązań technicznych, które umożliwiają oznakowanie w formacie nadającym się do odczytu maszynowego i wykrywanie, że wyniki zostały wygenerowane lub zmanipulowane przez system AI, a nie przez człowieka. Takie techniki i metody powinny być wystarczająco niezawodne, interoperacyjne, skuteczne i solidne, o ile jest to technicznie wykonalne, z uwzględnieniem dostępnych technik lub kombinacji takich technik, takich jak znaki wodne, identyfikacja metadanych, metody kryptograficzne służące do potwierdzania pochodzenia i autentyczności treści, metody rejestracji zdarzeń, odciski palców lub inne techniki, stosownie do przypadku. Przy spełnianiu tego obowiązku dostawcy powinni uwzględniać specyfikę i ograniczenia różnych rodzajów treści oraz istotne postępy technologiczne i rynkowe w tym obszarze, które odzwierciedla powszechnie uznany stan wiedzy technicznej. Takie techniki i metody można wdrażać na poziomie danego systemu AI lub na poziomie modelu AI, w tym modeli AI ogólnego przeznaczenia generujących treści, a tym samym ułatwiać spełnianie tego obowiązku przez dostawcę niższego szczebla danego systemu AI. Aby zachować proporcjonalność, należy przewidzieć, że ten obowiązek oznakowania nie powinien obejmować systemów AI pełniących przede wszystkim funkcję wspomagającą w zakresie standardowej edycji lub systemów AI, które nie zmieniają w istotny sposób przekazywanych przez podmiot stosujący danych wejściowych ani ich semantyki.
(134)
Poleg tehničnih rešitev, ki jih uporabljajo ponudniki sistema UI, bi morali uvajalci, ki sistem UI uporabljajo za ustvarjanje ali prirejanje slikovnih, zvočnih ali video vsebin, ki v znatni meri spominjajo na obstoječe osebe, predmete, mesta ali dogodke in bi se osebi zmotno zdele verodostojne ali resnične (globoki ponaredki), na jasen in razpoznaven način tudi razkriti, da je bila vsebina umetno ustvarjena ali prirejena, tako da ustrezno označijo izhodne podatke UI in razkrijejo njihov umetni izvor. Skladnost s to obveznostjo glede preglednosti se ne bi smela razlagati tako, da pomeni, da uporaba sistema UI ali njegovih izhodnih podatkov ovira pravico do svobode izražanja ter pravico do svobode umetnosti in znanosti, ki ju zagotavlja Listina, zlasti kadar je vsebina del očitno ustvarjalnega, satiričnega, umetniškega, izmišljenega ali podobnega dela ali programa, ob upoštevanju ustreznih zaščitnih ukrepov za pravice in svoboščine tretjih oseb. V teh primerih je obveznost glede preglednosti za globoke ponaredke iz te uredbe omejena na to, da se obstoj tako ustvarjenih ali prirejenih vsebin ustrezno razkrije na način, ki ne ovira prikazovanja dela ali uživanja v njem, vključno z njegovo običajno eksploatacijo in uporabo, ob ohranjanju uporabnosti in kakovosti dela. Primerno je tudi predvideti podobno obveznost razkritja v zvezi z besedilom, ustvarjenim ali prirejenim z UI, če je objavljeno z namenom obveščanja javnosti o zadevah javnega interesa, razen če je vsebino, ustvarjeno z UI, pregledal človek ali urednik, ob tem pa fizična ali pravna oseba nosi uredniško odgovornost za objavo vsebine.
(134)
Oprócz rozwiązań technicznych wykorzystywanych przez dostawców systemu AI, podmioty stosujące, które wykorzystują system AI do generowania obrazów, treści dźwiękowych lub wideo lub manipulowania nimi, tak by łudząco przypominały istniejące osoby, przedmioty. Miejsca, podmioty lub wydarzenia i które to treści mogą niesłusznie zostać uznane przez odbiorcę za autentyczne lub prawdziwe („deepfake”), powinny również jasno i wyraźnie ujawnić – poprzez odpowiednie oznakowanie wyniku AI i ujawnienie, że źródłem jest AI – że treści te zostały sztucznie wygenerowane lub zmanipulowane. Spełnienie obowiązku w zakresie przejrzystości nie powinno być interpretowane jako wskazujące na to, że wykorzystanie systemu AI lub jego wyników ogranicza prawo do wolności wypowiedzi i prawo do wolności sztuki i nauki zagwarantowane w Karcie, w szczególności w przypadku, gdy treści te stanowią część dzieła lub programu mającego wyraźnie charakter twórczy, satyryczny, artystyczny fikcyjny lub analogiczny, z zastrzeżeniem odpowiednich zabezpieczeń w zakresie praw i wolności osób trzecich. W takich przypadkach określony w niniejszym rozporządzeniu obowiązek w zakresie przejrzystości dotyczący treści typu deepfake ogranicza się do ujawniania informacji o istnieniu takich wygenerowanych lub zmanipulowanych treści w odpowiedni sposób, który nie utrudnia wyświetlania utworu lub korzystania z niego, w tym jego normalnego wykorzystania i użytkowania, przy jednoczesnym zachowaniu użyteczności i jakości utworu. Ponadto należy również przewidzieć podobny obowiązek ujawniania w odniesieniu do tekstu wygenerowanego przez AI lub zmanipulowanego przez AI w zakresie, w jakim jest on publikowany w celu informowania opinii publicznej o sprawach leżących w interesie publicznym, chyba że treści wygenerowane przez AI zostały poddane procesowi weryfikacji przez człowieka lub kontroli redakcyjnej, a osoba fizyczna lub prawna ponosi odpowiedzialność redakcyjną za publikację treści.
(135)
Komisija lahko brez poseganja v obvezno naravo in polno uporabo obveznosti glede preglednosti prav tako spodbuja in olajšuje pripravo kodeksov prakse na ravni Unije, da se olajša učinkovito izvajanje obveznosti v zvezi z odkrivanjem in označevanjem umetno ustvarjenih ali prirejenih vsebin, po potrebi vključno s podporo praktičnim ureditvam za omogočanje dostopa do mehanizmov odkrivanja, in olajšanje sodelovanja z drugimi akterji vzdolž verige vrednosti, razširjanje vsebine ali preverjanje njene pristnosti in izvora, da se javnosti omogoči učinkovito razlikovanje vsebin, ustvarjenih z UI.
(135)
Bez uszczerbku dla obowiązkowego charakteru i pełnego stosowania obowiązków w zakresie przejrzystości Komisja może również zachęcać do opracowywania kodeksów praktyk na poziomie Unii i ułatwiać ich opracowywanie, aby ułatwić skuteczne wykonywanie obowiązków dotyczących wykrywania i oznakowania treści, które zostały sztucznie wygenerowane lub zmanipulowane, w tym aby wspierać praktyczne rozwiązania dotyczące udostępniania, stosownie do przypadku, mechanizmów wykrywania i ułatwiania współpracy z innymi podmiotami w całym łańcuchu wartości, które rozpowszechniają treści lub sprawdzają ich autentyczność i pochodzenie, aby umożliwić ogółowi społeczeństwa skuteczne rozróżnianie treści wygenerowanych przez AI.
(136)
Obveznosti za ponudnike in uvajalce nekaterih sistemov UI iz te uredbe, da omogočijo odkrivanje in razkrivanje dejstva, da so izhodni podatki teh sistemov umetno ustvarjeni ali prirejeni, so še zlasti pomembne, da se olajša učinkovito izvajanje Uredbe (EU) 2022/2065. To velja zlasti za obveznosti za ponudnike zelo velikih spletnih platform ali zelo velikih spletnih iskalnikov, da prepoznajo in zmanjšajo sistemska tveganja, ki lahko izhajajo iz razširjanja umetno ustvarjenih ali prirejenih vsebin, zlasti tveganje dejanskih ali predvidljivih negativnih učinkov na demokratične procese, državljansko razpravo in volilne procese, tudi z dezinformacijami. Zahteva za označevanje s sistemi UI ustvarjenih vsebin na podlagi te uredbe ne posega v obveznost iz člena 16(6) Uredbe (EU) 2022/2065, da ponudniki storitev gostovanja obravnavajo prijave nezakonitih vsebin, prejete na podlagi člena 16(1) navedene uredbe, ter ne bi smela vplivati na oceno in odločitev o nezakonitosti določene vsebine. To oceno bi bilo treba opraviti izključno ob upoštevanju pravil, ki urejajo zakonitost vsebine.
(136)
Obowiązki nałożone w niniejszym rozporządzeniu na dostawców i podmioty stosujące niektóre systemy AI w celu umożliwienia wykrywania i ujawniania, że wyniki tych systemów są sztucznie wygenerowane lub zmanipulowane, są szczególnie istotne dla ułatwienia skutecznego wdrożenia rozporządzenia (UE) 2022/2065. Dotyczy to w szczególności obowiązków dostawców bardzo dużych platform internetowych lub bardzo dużych wyszukiwarek internetowych w zakresie identyfikowania i ograniczania ryzyka systemowego, które może wynikać z rozpowszechniania treści sztucznie wygenerowanych lub zmanipulowanych, w szczególności ryzyka faktycznych lub przewidywalnych negatywnych skutków dla procesów demokratycznych, dyskursu obywatelskiego i procesów wyborczych, w tym poprzez stosowanie dezinformacji. Wymóg oznakowania treści wygenerowanych przez systemy AI na podstawie niniejszego rozporządzenia pozostaje bez uszczerbku dla określonego w art. 16 ust. 6 rozporządzenia (UE) 2022/2065 obowiązku rozpatrywania przez dostawców usług hostingu zgłoszeń dotyczących nielegalnych treści otrzymanych na podstawie art. 16 ust. 1 tego rozporządzenia i nie powinien mieć wpływu na ocenę i decyzję w sprawie niezgodności z prawem konkretnych treści. Ocena ta powinna być dokonywana wyłącznie w odniesieniu do przepisów regulujących zgodność treści z prawem.
(137)
Skladnosti z navedenimi obveznostmi glede preglednosti za sisteme UI iz te uredbe ne bi smeli razlagati tako, da pomeni, da je uporaba sistema UI ali njegovih izhodnih podatkov zakonita na podlagi te uredbe ali drugega prava Unije in prava držav članic, ter ne bi smela posegati v druge obveznosti uvajalcev sistemov UI glede preglednosti, določene v pravu Unije ali nacionalnem pravu.
(137)
Spełnienie obowiązków w zakresie przejrzystości w odniesieniu do systemów AI objętych niniejszym rozporządzeniem nie powinno być interpretowane jako wskazanie, że wykorzystanie systemu AI lub jego wyników jest zgodne z prawem na podstawie niniejszego rozporządzenia lub innych przepisów prawa Unii i prawa państw członkowskich, i powinno pozostawać bez uszczerbku dla innych obowiązków w zakresie przejrzystości ustanowionych w prawie Unii lub prawie krajowym wobec podmiotów stosujących systemy AI.
(138)
UI je hitro razvijajoča se skupina tehnologij, ki zahteva regulativni nadzor ter varen in nadzorovan prostor za eksperimentiranje, ob zagotavljanju odgovornih inovacij ter vključevanja ustreznih zaščitnih ukrepov in ukrepov za zmanjšanje tveganj. Da bi zagotovili pravni okvir, ki spodbuja inovacije ter je primeren za prihodnost in odporen na motnje, bi morale države članice zagotoviti, da njihovi nacionalni pristojni organi na nacionalni ravni vzpostavijo vsaj en regulativni peskovnik za UI, da bi olajšali razvoj in testiranje inovativnih sistemov UI pod strogim regulativnim nadzorom, preden se ti sistemi dajo na trg ali kako drugače v uporabo. Države članice bi lahko to obveznost izpolnile tudi s sodelovanjem v že obstoječih regulativnih peskovnikih ali z vzpostavitvijo peskovnika skupaj s pristojnimi organi ene ali več držav članic, če tako sodelovanje sodelujočim državam članicam zagotavlja enakovredno raven nacionalne pokritosti. Regulativni peskovniki za UI bi lahko bili vzpostavljeni v fizični, digitalni ali hibridni obliki ter za fizične in digitalne izdelke. Organi, ki vzpostavijo regulativne peskovnike za UI, bi morali tudi zagotoviti, da imajo ti peskovniki ustrezne vire za svoje delovanje, vključno s finančnimi in človeškimi viri.
(138)
AI jest szybko rozwijającą się grupą technologii, wymagającą nadzoru regulacyjnego oraz bezpiecznej i kontrolowanej przestrzeni do przeprowadzania doświadczeń, przy jednoczesnym zapewnieniu odpowiedzialnej innowacji oraz uwzględnieniu odpowiednich zabezpieczeń i środków ograniczających ryzyko. Aby zapewnić ramy prawne wspierające innowacje, nieulegające dezaktualizacji i uwzględniające przełomowe technologie, państwa członkowskie powinny zapewnić, by ich właściwe organy krajowe ustanowiły co najmniej jedną piaskownicę regulacyjną w zakresie AI na poziomie krajowym, aby ułatwić rozwijanie i testowanie innowacyjnych systemów AI pod ścisłym nadzorem regulacyjnym przed ich wprowadzeniem do obrotu lub oddaniem do użytku w inny sposób. Państwa członkowskie mogłyby również spełnić ten obowiązek, uczestnicząc w już istniejących piaskownicach regulacyjnych lub ustanawiając piaskownicę wspólnie z co najmniej jednym właściwym organem innego państwa członkowskiego, o ile udział ten zapewnia uczestniczącym państwom członkowskim równoważny poziom zasięgu krajowego. Piaskownice regulacyjne w zakresie AI mogą być tworzone w formie fizycznej, cyfrowej lub hybrydowej i mogą obejmować zarówno produkty fizyczne, jak i cyfrowe. Organy ustanawiające piaskownice regulacyjne w zakresie AI powinny również zapewnić, aby dysponowały one odpowiednimi do ich funkcjonowania zasobami, w tym zasobami finansowymi i ludzkimi.
(139)
Cilji regulativnih peskovnikov za UI bi morali biti spodbujanje inovacij na področju UI z vzpostavitvijo nadzorovanega okolja za eksperimentiranje in testiranje v fazi razvoja ter pred trženjem, da se zagotovi skladnost inovativnih sistemov UI s to uredbo ter drugim ustreznim pravom Unije in nacionalnim pravom. Poleg tega bi moral biti cilj regulativnih peskovnikov za UI okrepitev pravne varnosti za inovatorje ter nadzora pristojnih organov in njihovega razumevanja priložnosti, nastajajočih tveganj in vplivov uporabe UI, olajšanje regulativnega učenja za organe in podjetja, tudi zaradi prihodnjih prilagoditev pravnega okvira, podpiranje sodelovanja in izmenjave najboljših praks z organi, vključenimi v regulativni peskovnik za UI, pa tudi pospešitev dostopa do trgov, med drugim z odpravo ovir za MSP, vključno z zagonskimi podjetji. Regulativni peskovniki za UI bi morali biti široko dostopni po vsej Uniji, posebno pozornost pa bi bilo treba nameniti njihovi dostopnosti za MSP, vključno z zagonskimi podjetji. Sodelovanje v regulativnem peskovniku za UI bi moralo biti osredotočeno na vprašanja, ki ustvarjajo pravno negotovost za ponudnike in potencialne ponudnike pri inovacijah, eksperimentiranju z UI v Uniji in prispevanju k regulativnemu učenju, ki temelji na dokazih. Nadzor sistemov UI v regulativnem peskovniku za UI bi zato moral zajemati njihov razvoj, učenje, testiranje in validacijo, preden so sistemi dani na trg ali v uporabo, ter pojem in pojav bistvenih sprememb, zaradi katerih bi lahko bil potreben nov postopek ugotavljanja skladnosti. Vsa pomembna tveganja, prepoznana med razvojem in testiranjem takih sistemov UI, bi bilo treba ustrezno zmanjšati, če to ni mogoče, pa postopek razvoja in testiranja ustaviti. Kadar je primerno, bi morali pristojni nacionalni organi, ki vzpostavijo regulativne peskovnike za UI, sodelovati z drugimi ustreznimi organi, vključno s tistimi, ki nadzirajo varstvo temeljnih pravic, in bi lahko omogočili sodelovanje drugih akterjev v ekosistemu UI, kot so nacionalne ali evropske organizacije za standardizacijo, priglašeni organi, centri za testiranje in eksperimentiranje, laboratoriji za raziskave in eksperimentiranje, evropska vozlišča za digitalne inovacije ter ustrezne organizacije deležnikov in civilne družbe. Za zagotovitev enotnega izvajanja po vsej Uniji in ekonomije obsega je primerno določiti skupna pravila za izvajanje regulativnih peskovnikov za UI in okvir za sodelovanje med ustreznimi organi, vključenimi v nadzor peskovnikov. Regulativni peskovniki za UI, vzpostavljeni na podlagi te uredbe, ne bi smeli posegati v drugo pravo, ki omogoča vzpostavitev drugih peskovnikov, katerih namen je zagotoviti skladnost s pravom, ki ni ta uredba. Ustrezni pristojni organi, odgovorni za te druge regulativne peskovnike, bi morali, kadar je primerno, upoštevati koristi uporabe teh peskovnikov tudi za namen zagotavljanja skladnosti sistemov UI s to uredbo. Po dogovoru med pristojnimi nacionalnimi organi in udeleženci v regulativnem peskovniku za UI se lahko testiranje v realnih razmerah izvaja in nadzira tudi v okviru regulativnega peskovnika za UI.
(139)
Piaskownice regulacyjne w zakresie AI powinny mieć na celu: wspieranie innowacji w zakresie AI poprzez ustanowienie kontrolowanego środowiska doświadczalnego i testowego w fazie rozwojowej i przed wprowadzeniem do obrotu, z myślą o zapewnieniu zgodności innowacyjnych systemów AI z niniejszym rozporządzeniem oraz z innymi odpowiednimi przepisami prawa Unii i prawa krajowego. Ponadto piaskownice regulacyjne w zakresie AI powinny mieć na celu zwiększenie pewności prawa dla innowatorów, a także usprawnienie nadzoru ze strony właściwych organów oraz podnoszenie poziomu ich wiedzy na temat możliwości, pojawiających się rodzajów ryzyka oraz skutków związanych ze stosowaniem AI, ułatwienie organom i przedsiębiorstwom uczenia się działań regulacyjnych, w tym z myślą o przyszłym dostosowaniu ram prawnych, wspieranie współpracy i wymiany najlepszych praktyk z organami zaangażowanymi w piaskownicę regulacyjną w zakresie AI oraz przyspieszenie dostępu do rynków, w tym poprzez usuwanie barier dla MŚP, w tym przedsiębiorstw typu start-up. Piaskownice regulacyjne w zakresie AI powinny być powszechnie dostępne w całej Unii, a szczególną uwagę należy zwrócić na ich dostępność dla MŚP, w tym dla przedsiębiorstw typu start-up. Uczestnictwo w piaskownicy regulacyjnej w zakresie AI powinno koncentrować się na kwestiach, które powodują niepewność prawa dla dostawców i potencjalnych dostawców w zakresie innowacji i eksperymentowania z AI w Unii oraz powinno przyczyniać się do opartego na dowodach uczenia się działań regulacyjnych. Nadzór nad systemami AI w piaskownicy regulacyjnej w zakresie AI powinien zatem obejmować ich rozwój, trenowanie, testowanie i walidację przed wprowadzeniem tych systemów do obrotu lub oddaniem do użytku, a także pojęcie i występowanie istotnych zmian, które mogą wymagać nowej procedury oceny zgodności. Wykrycie jakiegokolwiek znaczącego ryzyka na etapie rozwoju i testowania takich systemów AI powinno powodować konieczność właściwego ograniczenia tego ryzyka, a w przypadku niepowodzenia w tym zakresie – skutkować zawieszeniem procesu rozwoju i testowania systemu. W stosownych przypadkach właściwe organy krajowe ustanawiające piaskownice regulacyjne w zakresie AI powinny współpracować z innymi odpowiednimi organami, w tym organami nadzorującymi ochronę praw podstawowych, i powinny umożliwiać zaangażowanie innych podmiotów funkcjonujących w ekosystemie AI, takich jak krajowe lub europejskie organizacje normalizacyjne, jednostki notyfikowane, ośrodki testowo-doświadczalne, laboratoria badawczo-doświadczalne, europejskie centra innowacji cyfrowych oraz organizacje zrzeszające odpowiednie zainteresowane strony i społeczeństwo obywatelskie. Aby zapewnić jednolite wdrożenie w całej Unii oraz osiągnąć korzyści skali, należy ustanowić wspólne przepisy regulujące uruchamianie piaskownic regulacyjnych w zakresie AI oraz ramy współpracy między odpowiednimi organami uczestniczącymi w nadzorze nad piaskownicami regulacyjnymi. Piaskownice regulacyjne w zakresie AI ustanowione na mocy niniejszego rozporządzenia powinny pozostawać bez uszczerbku dla innych przepisów, które umożliwiają ustanawianie innych piaskownic mających na celu zapewnienie zgodności z przepisami prawa innymi niż niniejsze rozporządzenie. W stosownych przypadkach odpowiednie właściwe organy odpowiedzialne za inne piaskownice regulacyjne powinny przeanalizować korzyści płynące ze stosowania tych piaskownic również do celów zapewnienia zgodności systemów AI z niniejszym rozporządzeniem. Po osiągnięciu porozumienia pomiędzy właściwymi organami krajowymi oraz uczestnikami piaskownicy regulacyjnej w zakresie AI w ramach takiej piaskownicy regulacyjnej można również prowadzić i nadzorować testy w warunkach rzeczywistych.
(140)
Ta uredba bi morala zagotoviti pravno podlago, da ponudniki in potencialni ponudniki v regulativnem peskovniku za UI osebne podatke, zbrane za druge namene, uporabijo za razvoj nekaterih sistemov UI v javnem interesu v okviru regulativnega peskovnika za UI samo pod določenimi pogoji v skladu s členom 6(4) in členom 9(2), točka (g), Uredbe (EU) 2016/679, členi 5, 6 in 10 Uredbe (EU) 2018/1725 ter brez poseganja v člen 4(2) in člen 10 Direktive (EU) 2016/680. Vse druge obveznosti upravljavcev podatkov in pravice posameznikov, na katere se nanašajo osebni podatki, na podlagi uredb (EU) 2016/679 in (EU) 2018/1725 ter Direktive (EU) 2016/680 se še naprej uporabljajo. Ta uredba zlasti ne bi smela zagotavljati pravne podlage v smislu člena 22(2), točka (b), Uredbe (EU) 2016/679 in člena 24(2), točka (b), Uredbe (EU) 2018/1725. Ponudniki in potencialni ponudniki v regulativnemu peskovniku za UI bi morali zagotoviti ustrezne zaščitne ukrepe in sodelovati s pristojnimi organi, tudi z upoštevanjem njihovih smernic ter hitrim in dobronamernim ukrepanjem, da bi ustrezno zmanjšali vsa prepoznana znatna tveganja za varnost, zdravje in temeljne pravice, ki se lahko pojavijo med razvojem, testiranjem in eksperimentiranjem v tem peskovniku.
(140)
Niniejsze rozporządzenie powinno zapewniać dostawcom i potencjalnym dostawcom uczestniczącym w piaskownicy regulacyjnej w zakresie AI podstawę prawną do wykorzystywania danych osobowych zebranych w innych celach do rozwoju – w ramach piaskownicy regulacyjnej w zakresie AI – określonych systemów AI w interesie publicznym, tylko pod określonymi warunkami, zgodnie z art. 6 ust. 4 i art. 9 ust. 2 lit. g) rozporządzenia (UE) 2016/679 i art. 5, 6 i 10 rozporządzenia (UE) 2018/1725 i nie naruszając przepisów art. 4 ust. 2 i art. 10 dyrektywy (UE) 2016/680. Nadal mają zastosowanie wszystkie pozostałe obowiązki administratorów danych i prawa osób, których dane dotyczą, wynikające z rozporządzeń (UE) 2016/679 i (UE) 2018/1725 oraz dyrektywy (UE) 2016/680. W szczególności niniejsze rozporządzenie nie powinno stanowić podstawy prawnej w rozumieniu art. 22 ust. 2 lit. b) rozporządzenia (UE) 2016/679 i art. 24 ust. 2 lit. b) rozporządzenia (UE) 2018/1725. Dostawcy i potencjalni dostawcy w piaskownicy regulacyjnej w zakresie AI powinni zapewnić odpowiednie zabezpieczenia i współpracować z właściwymi organami, w tym przestrzegać wytycznych tych organów, a także podejmować w dobrej wierze bezzwłoczne działania w celu właściwego ograniczenia wszelkiego zidentyfikowanego znaczącego ryzyka dla bezpieczeństwa, zdrowia i praw podstawowych, jakie może powstać w trakcie rozwoju produktów oraz prowadzenia działań testowych i doświadczalnych w ramach takiej piaskownicy regulacyjnej.
(141)
Da bi pospešili proces razvoja visokotveganih sistemov UI s seznama v eni od prilog k tej uredbi in njihovega dajanja na trg, je pomembno, da imajo tudi ponudniki ali potencialni ponudniki takih sistemov koristi od posebne ureditve za testiranje teh sistemov v realnih razmerah brez sodelovanja v regulativnem peskovniku za UI. Vendar bi bilo treba v takih primerih, ob upoštevanju možnih posledic takega testiranja za posameznike zagotoviti, da se s to uredbo za ponudnike ali potencialne ponudnike uvedejo ustrezna in zadostna jamstva in pogoji. Taka jamstva bi morala med drugim vključevati zahtevo, da je za sodelovanje fizičnih oseb pri testiranju v realnih razmerah potrebna informirana privolitev, razen ko gre za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, ko bi pridobitev informirane privolitve preprečila testiranje sistema UI. Privolitev posameznikov, da sodelujejo pri takem testiranju na podlagi te uredbe, se razlikuje od privolitve posameznikov, na katere se nanašajo osebni podatki, v obdelavo njihovih osebnih podatkov na podlagi ustrezne zakonodaje o varstvu podatkov in vanjo ne posega. Pomembno je tudi čim bolj zmanjšati tveganja in pristojnim organom omogočiti nadzor ter zato od potencialnih ponudnikov zahtevati, da imajo načrt testiranja v dejanskih razmerah, ki ga predložijo pristojnemu organu za nadzor trga, da testiranje registrirajo v namenskih delih podatkovne zbirke EU, ob upoštevanju nekaterih omejenih izjem, da določijo omejitve obdobja, v katerem je mogoče opraviti testiranje, in da zahtevajo dodatne zaščitne ukrepe za osebe, ki pripadajo določenim ranljivim s skupinami, ter da imajo pisni dogovor, v katerem so opredeljene vloge in odgovornosti potencialnih ponudnikov in uvajalcev, ter učinkovit nadzor, ki ga izvaja usposobljeno osebje, vključeno v testiranje v realnih razmerah. Poleg tega je primerno predvideti dodatne zaščitne ukrepe za zagotovitev, da se lahko napovedi, priporočila ali odločitve sistema UI učinkovito izničijo in zanemarijo ter da so osebni podatki zaščiteni in izbrisani, ko posamezniki umaknejo privolitev za sodelovanje v testiranju, brez poseganja v njihove pravice, ki jih imajo kot posamezniki, na katere se nanašajo osebni podatki, na podlagi prava Unije o varstvu podatkov. Kar zadeva prenos podatkov, je primerno predvideti tudi, da bi bilo treba podatke, zbrane in obdelane za namene testiranja v realnih razmerah, prenesti v tretje države le, če se izvajajo ustrezni in veljavni zaščitni ukrepi na podlagi prava Unije, zlasti v skladu z osnovami za prenos osebnih podatkov na podlagi prava Unije o varstvu podatkov, medtem ko so za neosebne podatke ustrezni zaščitni ukrepi vzpostavljeni v skladu s pravom Unije, kot sta uredbi (EU) 2022/868 (42) in (EU) 2023/2854 (43) Evropskega parlamenta in Sveta.
(141)
Aby przyspieszyć proces rozwoju i wprowadzania do obrotu systemów AI wysokiego ryzyka wymienionych w załączniku do niniejszego rozporządzenia, ważne jest, aby dostawcy lub potencjalni dostawcy takich systemów mogli korzystać ze specjalnego mechanizmu testowania tych systemów w warunkach rzeczywistych, bez udziału w piaskownicy regulacyjnej w zakresie AI. Jednak w takich przypadkach oraz uwzględniając potencjalne konsekwencje takiego testowania dla osób fizycznych, należy zapewnić, by niniejsze rozporządzenie wprowadzało odpowiednie i wystarczające zabezpieczenia i warunki dotyczące dostawców lub potencjalnych dostawców. Takie zabezpieczenia powinny obejmować między innymi wymóg udzielenia świadomej zgody przez osoby fizyczne, które mają brać udział w testach w warunkach rzeczywistych, z wyjątkiem organów ścigania, gdy konieczność wystąpienia o świadomą zgodę uniemożliwiłaby testowanie systemu AI. Zgoda podmiotów testów na udział w takich testach na podstawie niniejszego rozporządzenia ma odrębny charakter i pozostaje bez uszczerbku dla zgody osób, których dane dotyczą, na przetwarzanie ich danych osobowych na podstawie odpowiedniego prawa o ochronie danych. Ważne jest również, aby zminimalizować ryzyko i umożliwić nadzór ze strony właściwych organów, a zatem zobowiązać potencjalnych dostawców do: przedstawienia właściwemu organowi nadzoru rynku planu testów w warunkach rzeczywistych, rejestrowania testów w specjalnych sekcjach bazy danych UE (z pewnymi ograniczonymi wyjątkami), ustalenia ograniczeń co do okresu, w jakim można przeprowadzać testy, oraz wymagania dodatkowych zabezpieczeń w odniesieniu do osób należących do grup szczególnie wrażliwych, a także pisemnej umowy określającej role i obowiązki potencjalnych dostawców i podmiotów stosujących oraz skutecznego nadzoru ze strony kompetentnego personelu zaangażowanego w testy w warunkach rzeczywistych. Ponadto należy przewidzieć dodatkowe zabezpieczenia w celu zapewnienia, aby predykcje, zalecenia lub decyzje systemu AI mogły zostać skutecznie odwrócone i nie były brane pod uwagę oraz aby dane osobowe były chronione i usuwane, gdy uczestnicy wycofają swoją zgodę na udział w testach, bez uszczerbku dla ich praw jako osób, których dane dotyczą, wynikających z prawa Unii o ochronie danych. W odniesieniu do przekazywania danych należy także przewidzieć, by dane zebrane i przetwarzane do celów testów w warunkach rzeczywistych przekazywano do państw trzecich wyłącznie pod warunkiem wdrożenia odpowiednich zabezpieczeń mających zastosowanie na podstawie prawa Unii, w szczególności zgodnie z podstawami przekazywania danych osobowych na mocy prawa Unii dotyczącego ochrony danych osobowych, a w odniesieniu do danych nieosobowych wprowadzono odpowiednie zabezpieczenia zgodnie z prawem Unii, takim jak rozporządzenia Parlamentu Europejskiego i Rady (UE) 2022/868 (42) i (UE) 2023/2854 (43).
(142)
Da bi zagotovili, da bo UI privedla do družbeno in okoljsko koristnih rezultatov, se države članice spodbuja, naj podpirajo in spodbujajo raziskave in razvoj rešitev UI v podporo družbeno in okoljsko koristnim rezultatom, kot so rešitve, ki temeljijo na umetni inteligenci, za povečanje dostopnosti za invalide, odpravo socialno-ekonomskih neenakosti ali doseganje okoljskih ciljev, in sicer z dodelitvijo zadostnih sredstev, vključno z javnimi sredstvi in financiranjem Unije, ter, kadar je ustrezno in pod pogojem, da so izpolnjena merila za upravičenost in izbor, zlasti upoštevajoč projekte, ki vključujejo takšne cilje Takšni projekti bi morali temeljiti na načelu interdisciplinarnega sodelovanja med razvijalci UI, strokovnjaki za neenakost in nediskriminacijo, dostopnost, potrošnike, okolje in digitalne pravice ter akademskimi krogi.
(142)
W celu zapewnienia, aby AI przynosiła korzyści dla społeczeństwa i środowiska, zachęca się państwa członkowskie do wspierania i promowania badań i rozwoju w dziedzinie rozwiązań w zakresie AI wspierających takie korzyści społeczne i środowiskowe, np. opartych na AI rozwiązań, które zwiększają dostępność dla osób z niepełnosprawnościami, przeciwdziałają nierównościom społeczno-gospodarczym lub służą osiągnięciu celów środowiskowych, przez przydzielanie wystarczających zasobów, w tym finansowania publicznego i unijnego, oraz, w stosownych przypadkach i pod warunkiem spełnienia kryteriów kwalifikowalności i wyboru, przez priorytetowe traktowanie projektów, które służą realizacji takich celów. Projekty takie powinny opierać się na zasadzie współpracy międzydyscyplinarnej między twórcami AI, ekspertami ds. nierówności i niedyskryminacji, dostępności, praw konsumentów, praw środowiskowych i cyfrowych oraz przedstawicielami środowiska akademickiego.
(143)
Za spodbujanje in zaščito inovacij je pomembno, da se upoštevajo interesi MSP, vključno z zagonskimi podjetji, ki so ponudniki ali uvajalci sistemov UI. V ta namen bi morale države članice razviti pobude, namenjene tem operaterjem, vključno z ozaveščanjem in sporočanjem informacij. Države članice bi morale MSP, vključno z zagonskimi podjetji, ki imajo registrirani sedež ali podružnico v Uniji, zagotoviti prednostni dostop do regulativnih peskovnikov za UI, če ti izpolnjujejo pogoje za upravičenost in merila za izbor, ter drugim ponudnikom in potencialnim ponudnikom ne preprečujejo dostopa do peskovnikov, če so izpolnjeni enaki pogoji in merila. Države članice bi morale uporabljati obstoječe kanale in po potrebi vzpostaviti nove namenske kanale za komunikacijo z MSP, vključno z zagonskimi podjetji, uvajalci, drugimi inovatorji in po potrebi z lokalnimi javnimi organi, da se MSP z zagotavljanjem smernic in odgovarjanjem na vprašanja o izvajanju te uredbe zagotovi podpora v celotnem razvojnem procesu. Ti kanali bi morali po potrebi sodelovati, da bi ustvarili sinergije in zagotovili homogenost svojih smernic za MSP, vključno z zagonskimi podjetji, in uvajalce. Države članice bi poleg tega morale olajševati sodelovanje MSP in drugih ustreznih deležnikov v postopkih razvoja standardizacije. Poleg tega bi se pri določanju pristojbin s strani priglašenih organov za ugotavljanje skladnosti morali upoštevati posebni interesi in potrebe ponudnikov, ki so MSP, vključno z zagonskimi podjetji. Komisija bi morala stroške certificiranja in skladnosti za MSP, vključno z zagonskimi podjetji, redno ocenjevati, in sicer s preglednimi posvetovanji, ter sodelovati z državami članicami za znižanje teh stroškov. Na primer, stroški prevajanja, povezani z obvezno dokumentacijo in komuniciranjem z organi, lahko predstavljajo znaten strošek za ponudnike in druge operaterje, zlasti tiste manjšega obsega. Države članice bi morale po možnosti zagotoviti, da je eden od jezikov, ki jih določijo in sprejmejo za dokumentacijo zadevnih ponudnikov in za komunikacijo z operaterji, jezik, ki ga na splošno razume največje možno število čezmejnih uvajalcev. Za obravnavanje posebnih potreb MSP, vključno z zagonskimi podjetji, bi morala Komisija na zahtevo Odbora zagotoviti standardizirane predloge za področja, zajeta v tej uredbi. Poleg tega bi morala Komisija dopolniti prizadevanja držav članic z zagotovitvijo enotne informacijske platforme, ki vsebuje enostavno uporabne informacije v zvezi s to uredbo za vse ponudnike in uvajalce, organiziranjem ustreznih komunikacijskih kampanj za ozaveščanje o obveznostih, ki izhajajo iz te uredbe, ter ocenjevanjem in spodbujanjem zbliževanja najboljših praks v postopkih javnega naročanja v zvezi s sistemi UI. Srednja podjetja, ki so bila do nedavno opredeljena kot mala podjetja v smislu Priloge k Priporočilu Komisije 2003/361/ES (44), bi morala imeti dostop do teh podpornih ukrepov, saj ta nova srednja podjetja včasih morda nimajo pravnih sredstev in niso pridobila ustreznih usposabljanj, potrebnih za zagotovitev ustreznega razumevanja te uredbe in skladnosti z njo.
(143)
W celu promowania i ochrony innowacji ważne jest szczególne uwzględnienie interesów MŚP, w tym przedsiębiorstw typu start-up, które są dostawcami systemów AI lub podmiotami stosującymi systemy AI. W tym celu państwa członkowskie powinny opracować inicjatywy skierowane do tych operatorów, w tym inicjatywy służące podnoszeniu świadomości i przekazywaniu informacji. Państwa członkowskie powinny zapewniać MŚP, w tym przedsiębiorstwom typu start-up, mającym siedzibę statutową lub oddział w Unii, priorytetowy dostęp do piaskownic regulacyjnych w zakresie AI, pod warunkiem że przedsiębiorstwa te spełniają warunki kwalifikowalności i kryteria wyboru – w sposób, który nie uniemożliwia innym dostawcom i potencjalnym dostawcom dostępu do piaskownic, pod warunkiem spełnienia przez nich tych samych warunków i kryteriów. Państwa członkowskie powinny korzystać z istniejących kanałów komunikacji, a w stosownych przypadkach utworzyć nowy specjalny kanał komunikacji z MŚP, w tym przedsiębiorstwami typu start-up, podmiotami stosującymi, innymi innowacyjnymi podmiotami, a w stosownych przypadkach, z lokalnymi organami publicznymi, aby wspierać MŚP w rozwoju poprzez udzielanie im wskazówek i odpowiadanie na ich pytania dotyczące wykonywania niniejszego rozporządzenia. W stosownych przypadkach kanały powinny ze sobą współpracować, by uzyskać synergię i zapewnić spójność wskazówek dla MŚP, w tym przedsiębiorstw typu start-up, i podmiotów stosujących. Dodatkowo państwa członkowskie powinny ułatwiać udział MŚP i innych odpowiednich zainteresowanych stron w procesie opracowywania norm. Ponadto przy ustalaniu przez jednostki notyfikowane wysokości opłat z tytułu oceny zgodności należy uwzględnić szczególne interesy i potrzeby dostawców, którzy są MŚP, w tym przedsiębiorstwami typu start-up. Komisja powinna regularnie oceniać koszty certyfikacji i zapewnienia zgodności ponoszone przez MŚP, w tym przedsiębiorstwa typu start-up, w drodze przejrzystych konsultacji oraz współpracować z państwami członkowskimi na rzecz obniżenia tych kosztów. Przykładowo koszty tłumaczeń związane z prowadzeniem obowiązkowej dokumentacji i komunikacji z organami mogą stanowić istotny koszt dla dostawców i innych operatorów, w szczególności tych działających na mniejszą skalę. Państwa członkowskie powinny w miarę możliwości zapewnić, aby jednym z języków wskazanych i akceptowanych przez nie do celów dokumentacji prowadzonej przez odpowiednich dostawców oraz komunikacji z operatorami był język powszechnie rozumiany przez możliwie największą liczbę podmiotów stosujących w wymiarze transgranicznym. Aby zaspokoić szczególne potrzeby MŚP, w tym przedsiębiorstw typu start-up, Komisja powinna na wniosek Rady ds. AI zapewnić ujednolicone wzory w obszarach objętych niniejszym rozporządzeniem. Ponadto Komisja powinna w uzupełnieniu wysiłków państw członkowskich dostarczyć jednolitą platformę informacyjną zawierającą łatwe w użyciu informacje dotyczące niniejszego rozporządzenia dla wszystkich dostawców i podmiotów stosujących, organizować odpowiednie kampanie informacyjne w celu podnoszenia świadomości na temat obowiązków wynikających z niniejszego rozporządzenia oraz oceniać i promować zbieżność najlepszych praktyk w procedurach udzielania zamówień publicznych w odniesieniu do systemów AI. Średnie przedsiębiorstwa, które do niedawna kwalifikowały się jako małe przedsiębiorstwa w rozumieniu załącznika do zalecenia Komisji 2003/361/WE (44), powinny mieć dostęp do tych środków wsparcia, ponieważ w niektórych przypadkach te nowe średnie przedsiębiorstwa mogą nie posiadać zasobów prawnych i szkoleniowych niezbędnych do zapewnienia właściwego zrozumienia i zapewnienia zgodności z niniejszym rozporządzeniem.
(144)
Za spodbujanje in zaščito inovacij bi morali platforma za UI na zahtevo, vsi ustrezni programi in projekti Unije za financiranje, kot sta programa Digitalna Evropa in Obzorje Evropa, ki jih izvajajo Komisija in države članice na ravni Unije ali nacionalni ravni, prispevati k doseganju ciljev te uredbe.
(144)
W celu promowania i ochrony innowacji do realizacji celów niniejszego rozporządzenia powinny przyczyniać się, w stosownych przypadkach, platforma „Sztuczna inteligencja na żądanie”, wszystkie odpowiednie finansowane przez Unię programy i projekty, takie jak program „Cyfrowa Europa”, „Horyzont Europa”, wdrażane przez Komisję i państwa członkowskie na poziomie Unii lub poziomie krajowym.
(145)
K izvajanju te uredbe bi morali prispevati platforma za UI na zahtevo, evropska vozlišča za digitalne inovacije ter centri za testiranje in eksperimentiranje, ki so jih vzpostavile Komisija in države članice na ravni Unije ali nacionalni ravni, in sicer da bi čim bolj zmanjšali tveganja za izvajanje, ki so posledica pomanjkanja znanja in strokovnega znanja na trgu, ter da bi ponudnikom, predvsem MSP, vključno z zagonskimi podjetji, in priglašenim organom olajšali izpolnjevanje njihovih obveznosti iz te uredbe. Platforma za UI na zahtevo, evropska vozlišča za digitalne inovacije ter centri za preskušanje in eksperimentiranje lahko ponudnikom in priglašenim organom v okviru svojih mandatov in pristojnosti zagotavljajo zlasti tehnično in znanstveno podporo.
(145)
Aby zminimalizować zagrożenia dla wdrożenia wynikające z braku wiedzy o rynku i jego znajomości, a także aby ułatwić dostawcom, w szczególności MŚP, w tym przedsiębiorstwom typu start-up, i jednostkom notyfikowanym spełnianie obowiązków ustanowionych w niniejszym rozporządzeniu, platforma „Sztuczna inteligencja na żądanie”, europejskie centra innowacji cyfrowych oraz ośrodki testowo-doświadczalne ustanowione przez Komisję i państwa członkowskie na poziomie Unii lub poziomie krajowym powinny przyczyniać się do wykonywania niniejszego rozporządzenia. W ramach swoich zadań i obszarów kompetencji platforma „Sztuczna inteligencja na żądanie”, europejskie centra innowacji cyfrowych oraz ośrodki testowo-doświadczalne są w stanie zapewnić w szczególności wsparcie techniczne i naukowe dostawcom i jednostkom notyfikowanym.
(146)
Poleg tega je zaradi majhnosti nekaterih operaterjev in da se zagotovi sorazmernost, kar zadeva stroške inovacij, primerno, da se mikropodjetjem omogoči izpolnjevanje ene od najdražjih obveznosti, tj. vzpostavitve sistema upravljanja kakovosti, na poenostavljen način, kar bi zmanjšalo upravno breme in stroške za ta podjetja in ne bi vplivalo na raven varstva in potrebo po skladnosti z zahtevami za visokotvegane sisteme UI. Komisija bi morala pripraviti smernice za opredelitev elementov sistema upravljanja kakovosti, ki jih morajo mikropodjetja izpolnjevati na ta poenostavljen način.
(146)
Ponadto, biorąc pod uwagę bardzo mały rozmiar niektórych operatorów i aby zapewnić proporcjonalność w odniesieniu do kosztów innowacji, należy zezwolić mikroprzedsiębiorstwom na spełnienie jednego z najbardziej kosztownych obowiązków, a mianowicie ustanowienia systemu zarządzania jakością, w sposób uproszczony, co zmniejszy obciążenie administracyjne i koszty ponoszone przez te przedsiębiorstwa bez wpływu na poziom ochrony oraz konieczność zapewnienia zgodności z wymogami dotyczącymi systemów AI wysokiego ryzyka. Komisja powinna opracować wytyczne w celu określenia, które z elementów systemu zarządzania jakością mają być realizowane w ten uproszczony sposób przez mikroprzedsiębiorstwa.
(147)
Primerno je, da Komisija organom, skupinam ali laboratorijem, ustanovljenim ali akreditiranim na podlagi katere koli ustrezne harmonizacijske zakonodaje Unije, ki izpolnjujejo naloge v okviru ugotavljanja skladnosti proizvodov ali pripomočkov, zajetih v navedeni harmonizacijski zakonodaji Unije, čim bolj olajša dostop do centrov za testiranje in eksperimentiranje. To velja zlasti za strokovne odbore, strokovne laboratorije in referenčne laboratorije na področju medicinskih pripomočkov na podlagi uredb (EU) 2017/745 in (EU) 2017/746.
(147)
Komisja powinna w miarę możliwości ułatwiać dostęp do ośrodków testowo-doświadczalnych podmiotom, grupom lub laboratoriom ustanowionym lub akredytowanym na podstawie odpowiedniego unijnego prawodawstwa harmonizacyjnego, wykonującym zadania w kontekście oceny zgodności produktów lub wyrobów objętych tym unijnym prawodawstwem harmonizacyjnym. Dotyczy to w szczególności paneli ekspertów, laboratoriów eksperckich oraz laboratoriów referencyjnych w dziedzinie wyrobów medycznych w rozumieniu rozporządzeń (UE) 2017/745 i (UE) 2017/746.
(148)
S to uredbo bi bilo treba vzpostaviti okvir upravljanja, ki bi omogočal tako usklajevanje uporabe te uredbe in podporo uporabi na nacionalni ravni kot tudi krepitev zmogljivosti na ravni Unije in sodelovanje deležnikov s področja UI. Za učinkovito izvajanje in izvrševanje te uredbe je potreben okvir upravljanja, ki omogoča usklajevanje in pridobivanje centraliziranega strokovnega znanja na ravni Unije. Urad za UI je bil ustanovljen s sklepom Komisije (45) z mandatom razvijati strokovno znanje in zmogljivosti Unije na področju UI ter prispevati k izvajanju prava Unije o umetni inteligenci. Države članice bi morale olajšati naloge Urada za UI, da bi podpirale razvoj strokovnega znanja in zmogljivosti Unije na ravni Unije ter okrepile delovanje enotnega digitalnega trga. Poleg tega bi bilo treba ustanoviti odbor, sestavljen iz predstavnikov držav članic, znanstveni odbor za vključitev znanstvene skupnosti in svetovalni forum, da se omogoči prispevanje deležnikov k izvajanju te uredbe na ravni Unije in nacionalni ravni. Razvoj strokovnega znanja in zmogljivosti Unije bi moral vključevati tudi uporabo obstoječih virov in strokovnega znanja, zlasti s pomočjo sinergij s strukturami, vzpostavljenimi v okviru izvrševanja drugega prava na ravni Unije, in sinergij s povezanimi pobudami na ravni Unije, kot so Skupno podjetje EuroHPC ter centri za testiranje in eksperimentiranje na področju UI v okviru programa Digitalna Evropa.
(148)
W niniejszym rozporządzeniu należy ustanowić ramy zarządzania, które umożliwiają koordynację i wspieranie stosowania niniejszego rozporządzenia na poziomie krajowym, a także budowanie zdolności na poziomie Unii i zaangażowanie zainteresowanych stron w dziedzinę AI. Skuteczne wdrożenie i egzekwowanie niniejszego rozporządzenia wymaga ram zarządzania, które umożliwią koordynację i gromadzenie centralnej wiedzy fachowej na poziomie Unii. Misją Urzędu ds. AI, który został ustanowiony decyzją Komisji (45), jest rozwijanie unijnej wiedzy fachowej i unijnych zdolności w dziedzinie AI oraz przyczynianie się do wdrażania prawa Unii dotyczącego AI. Państwa członkowskie powinny ułatwiać Urzędowi ds. AI wykonywanie zadań z myślą o wspieraniu rozwoju unijnej wiedzy fachowej i unijnych zdolności oraz wzmacnianiu funkcjonowania jednolitego rynku cyfrowego. Ponadto należy ustanowić Radę ds. AI składającą się z przedstawicieli państw członkowskich, panel naukowy w celu zaangażowania środowiska naukowego oraz forum doradcze w celu wnoszenia przez zainteresowane strony wkładu w wykonywanie niniejszego rozporządzenia na poziomie Unii i poziomie krajowym. Rozwój unijnej wiedzy fachowej i unijnych zdolności powinien również obejmować wykorzystanie istniejących zasobów i wiedzy fachowej, w szczególności poprzez synergię ze strukturami zbudowanymi w kontekście egzekwowania innych przepisów na poziomie Unii oraz synergię z powiązanymi inicjatywami na poziomie Unii, takimi jak Wspólne Przedsięwzięcie EuroHPC i ośrodki testowo-doświadczalne w dziedzinie AI w ramach programu „Cyfrowa Europa”.
(149)
Da bi omogočili nemoteno, učinkovito in harmonizirano izvajanje te uredbe, bi bilo treba ustanoviti Odbor. Odbor bi moral odražati različne interese ekosistema UI in sestavljati bi ga morali predstavniki držav članic. Odgovoren bi moral biti za številne svetovalne naloge, med drugim za izdajanje mnenj, priporočil in nasvetov ali za prispevanje k dajanju smernic o zadevah, povezanih z izvajanjem te uredbe, vključno z zadevami glede izvrševanja, tehničnimi specifikacijami ali obstoječimi standardi v zvezi z zahtevami iz te uredbe, ter za svetovanje Komisiji ter državam članicam in njihovim pristojnim nacionalnim organom pri posebnih vprašanjih v zvezi z UI. Da bi državam članicam omogočili nekaj prožnosti pri imenovanju njihovih predstavnikov v Odbor, so lahko ti predstavniki katere koli osebe, ki pripadajo javnim subjektom, ter bi morale imeti ustrezne pristojnosti in pooblastila za lažje usklajevanje na nacionalni ravni in prispevanje k izpolnjevanju nalog Odbora. Odbor bi moral ustanoviti dve stalni podskupini, da bi zagotovili platformo za sodelovanje in izmenjavo med organi za nadzor trga in priglasitvenimi organi o vprašanjih, povezanih z nadzorom trga oziroma priglašenimi organi. Stalna podskupina za nadzor trga bi morala delovati kot skupina za upravno koordinacijo (ADCO) za to uredbo v smislu člena 30 Uredbe (EU) 2019/1020. V skladu s členom 33 navedene uredbe bi morala Komisija podpirati dejavnosti stalne podskupine za nadzor trga z ocenjevanji ali študijami trga, zlasti z namenom opredelitve vidikov te uredbe, pri katerih je potrebno posebno in nujno usklajevanje med organi za nadzor trga. Odbor lahko ustanovi druge stalne ali začasne podskupine za preučitev posebnih vprašanj. Po potrebi bi moral sodelovati tudi z ustreznimi organi, strokovnimi skupinami in mrežami Unije, dejavnimi v okviru ustreznega prava Unije, zlasti tudi s tistimi, dejavnimi na podlagi ustreznega prava Unije o podatkih, digitalnih proizvodih in storitvah.
(149)
Aby ułatwić sprawne, skuteczne i zharmonizowane wykonywanie niniejszego rozporządzenia, należy ustanowić Radę ds. AI. Rada ds. AI powinna odzwierciedlać różne interesy ekosystemu AI i składać się z przedstawicieli państw członkowskich. Rada ds. AI powinna odpowiadać za szereg zadań doradczych, w tym wydawanie opinii lub zaleceń oraz udzielanie porad lub udział w tworzeniu wskazówek w dziedzinach związanych z wykonywaniem niniejszego rozporządzenia, także w kwestiach egzekwowania, specyfikacji technicznych lub istniejących norm dotyczących wymogów ustanowionych w niniejszym rozporządzeniu, jak również za udzielanie porad Komisji oraz państwom członkowskim i ich właściwym organom krajowym w konkretnych kwestiach związanych z AI. Aby zapewnić państwom członkowskim pewną swobodę w zakresie wyznaczania przedstawicieli do Rady ds. AI, takimi przedstawicielami mogą być wszelkie osoby należące do podmiotów publicznych, które powinny mieć odpowiednie kompetencje i uprawnienia, aby ułatwiać koordynację na poziomie krajowym i przyczyniać się do realizacji zadań Rady ds. AI. Rada ds. AI powinna ustanowić dwie stałe podgrupy służące jako platforma współpracy i wymiany między organami nadzoru rynku i organami notyfikującymi w zakresie kwestii dotyczących odpowiednio nadzoru rynku i jednostek notyfikowanych. Stała podgrupa ds. nadzoru rynku powinna do celów niniejszego rozporządzenia pełnić rolę grupy ds. współpracy administracyjnej (ADCO) w rozumieniu art. 30 rozporządzenia (UE) 2019/1020. Zgodnie z art. 33 przywołanego rozporządzenia Komisja powinna wspierać działania stałej podgrupy ds. nadzoru rynku poprzez przeprowadzanie ocen lub badań rynku, w szczególności w celu zidentyfikowania aspektów niniejszego rozporządzenia wymagających szczególnej i pilnej koordynacji między organami nadzoru rynku. W stosownych przypadkach Rada ds. AI może również tworzyć inne stałe lub tymczasowe podgrupy na potrzeby zbadania konkretnych kwestii. Rada ds. AI powinna również w stosownych przypadkach współpracować z odpowiednimi unijnymi organami, grupami ekspertów i sieciami działającymi w kontekście odpowiedniego prawa Unii, w tym w szczególności z tymi, które działają na podstawie odpowiednich przepisów prawa Unii dotyczących danych oraz produktów i usług cyfrowych.
(150)
Za zagotavljanje sodelovanja deležnikov pri izvajanju in uporabi te uredbe, bi bilo treba vzpostaviti svetovalni forum, ki bi Odboru in Komisiji svetoval in jima zagotavljal tehnično strokovno znanje. Da bi zagotovili raznoliko in uravnoteženo zastopanost deležnikov glede na komercialne in nekomercialne interese, znotraj kategorije poslovnih interesov pa v zvezi z MSP in drugimi podjetji, bi moral biti svetovalni forum med drugim sestavljen iz predstavnikov industrije, zagonskih podjetij, MSP, akademskih krogov, civilne družbe, vključno s socialnimi partnerji, pa tudi Agencije za temeljne pravice, ENISA, Evropskega odbora za standardizacijo (CEN), Evropskega odbora za elektrotehniško standardizacijo (CENELEC) in Evropskega inštituta za telekomunikacijske standarde (ETSI).
(150)
Aby zapewnić zaangażowanie zainteresowanych stron we wdrażanie i stosowanie niniejszego rozporządzenia, należy ustanowić forum doradcze, które ma doradzać Radzie ds. AI i Komisji oraz zapewniać im fachową wiedzę techniczną. Aby zapewnić zróżnicowaną i zrównoważoną reprezentację zainteresowanych stron z uwzględnieniem interesów handlowych i niehandlowych oraz – w ramach kategorii interesów handlowych – w odniesieniu do MŚP i innych przedsiębiorstw, forum doradcze powinno obejmować m.in. przemysł, przedsiębiorstwa typu start-up, MŚP, środowisko akademickie, społeczeństwo obywatelskie, w tym partnerów społecznych, a także Agencję Praw Podstawowych, ENISA, Europejski Komitet Normalizacyjny (CEN), Europejski Komitet Normalizacyjny Elektrotechniki (CENELEC) i Europejski Instytut Norm Telekomunikacyjnych (ETSI).
(151)
Za podporo izvajanju in izvrševanju te uredbe, zlasti dejavnosti spremljanja, ki jih v zvezi z modeli UI za splošne namene izvaja Urad za UI, bi bilo treba ustanoviti znanstveni odbor neodvisnih strokovnjakov. Neodvisni strokovnjaki, ki sestavljajo znanstveni odbor, bi morali biti izbrani zaradi najnovejšega znanstvenega ali tehničnega strokovnega znanja na področju UI in bi morali svoje naloge opravljati nepristransko in objektivno ter zagotavljati zaupnost informacij in podatkov, pridobljenih pri izvajanju njihovih nalog in dejavnosti. Da bi omogočili okrepitev nacionalnih zmogljivosti, potrebnih za učinkovito izvrševanje te uredbe, bi morale imeti države članice možnost, da strokovnjake, ki sestavljajo znanstveni odbor, zaprosijo, da jim pomagajo pri dejavnostih izvrševanja.
(151)
Aby wspierać wdrażanie i egzekwowanie niniejszego rozporządzenia, w szczególności działania monitorujące prowadzone przez Urząd ds. AI w odniesieniu do modeli AI ogólnego przeznaczenia, należy ustanowić panel naukowy złożony z niezależnych ekspertów. Niezależni eksperci tworzący panel naukowy powinni być wybierani na podstawie aktualnej wiedzy naukowej lub technicznej w dziedzinie AI i powinni wykonywać swoje zadania w sposób bezstronny i obiektywny oraz zapewniać poufność informacji i danych uzyskanych w trakcie wykonywania swoich zadań i działań. Aby umożliwić wzmocnienie krajowych zdolności niezbędnych do skutecznego egzekwowania niniejszego rozporządzenia, państwa członkowskie powinny mieć możliwość zwrócenia się o wsparcie do zespołu ekspertów wchodzących w skład panelu naukowego w odniesieniu do ich działań w zakresie egzekwowania przepisów.
(152)
Da bi podprli ustrezno izvrševanje v zvezi s sistemi UI in okrepili zmogljivosti držav članic, bi bilo treba vzpostaviti podporne strukture Unije za testiranje UI in jih dati na voljo državam članicam.
(152)
Aby wspierać odpowiednie egzekwowanie w odniesieniu do systemów AI i wzmocnić zdolności państw członkowskich, należy ustanowić unijne struktury wsparcia testowania AI i udostępnić je państwom członkowskim.
(153)
Države članice imajo ključno vlogo pri uporabi in izvrševanju te uredbe. V zvezi s tem bi morala vsaka država članica za pristojne nacionalne organe za namen nadzora uporabe in izvajanja te uredbe imenovati vsaj en priglasitveni organ in vsaj en organ za nadzor trga. Države članice se lahko v skladu s svojimi specifičnimi nacionalnimi organizacijskimi značilnostmi in potrebami odločijo, da za opravljanje nalog pristojnih nacionalnih organov v smislu te uredbe imenujejo kateri koli javni subjekt. Da bi na strani držav članic izboljšali učinkovitost organizacije ter vzpostavili enotno kontaktno točko za stike z javnostjo in drugimi partnerji na ravni držav članic in Unije, bi morala vsaka država članica imenovati organ za nadzor trga, ki deluje kot enotna kontaktna točka.
(153)
Państwa członkowskie odgrywają kluczową rolę w stosowaniu i egzekwowaniu niniejszego rozporządzenia. W tym zakresie każde państwo członkowskie powinno wyznaczyć co najmniej jedną jednostkę notyfikującą i co najmniej jeden organ nadzoru ryku jako właściwe organy krajowe do celów sprawowania nadzoru nad stosowaniem i wykonywaniem niniejszego rozporządzenia. Państwa członkowskie mogą podjąć decyzję o wyznaczeniu dowolnego rodzaju podmiotu publicznego do wykonywania zadań właściwych organów krajowych w rozumieniu niniejszego rozporządzenia, zgodnie z ich określonymi krajowymi cechami organizacyjnymi i potrzebami. Aby zwiększyć efektywność organizacyjną po stronie państw członkowskich oraz ustanowić pojedynczy punkt kontaktowy dla ogółu społeczeństwa oraz innych partnerów na poziomie państw członkowskich i na poziomie Unii, każde państwo członkowskie powinno wyznaczyć organ nadzoru rynku, który pełniłby funkcję pojedynczego punktu kontaktowego.
(154)
Pristojni nacionalni organi bi svoja pooblastila morali izvajati neodvisno, nepristransko in brez predsodkov, da bi zaščitili objektivnost svojih dejavnosti in nalog ter zagotovili uporabo in izvajanje te uredbe. Člani teh organov bi se morali vzdržati vseh dejanj, ki niso združljiva z njihovimi dolžnostmi, in zanje bi se morala uporabljati pravila o zaupnosti na podlagi te uredbe.
(154)
Właściwe organy krajowe powinny wykonywać swoje uprawnienia w sposób niezależny, bezstronny i wolny od uprzedzeń, aby zagwarantować przestrzeganie zasady obiektywności swoich działań i zadań oraz zapewnić stosowanie i wykonywanie niniejszego rozporządzenia. Członkowie tych organów powinni powstrzymać się od wszelkich działań niezgodnych z ich obowiązkami i powinni podlegać zasadom poufności na mocy niniejszego rozporządzenia.
(155)
Da bi zagotovili, da ponudniki visokotveganih sistemov UI izkušnje pri uporabi visokotveganih sistemov UI lahko upoštevajo za izboljšanje svojih sistemov ter postopka zasnove in razvoja ali da lahko pravočasno izvedejo morebitne popravne ukrepe, bi morali imeti vsi ponudniki vzpostavljen sistem spremljanja po dajanju na trg. Po potrebi bi spremljanje po dajanju na trg moralo vključevati analizo interakcije z drugimi sistemi UI, tudi drugimi napravami in programsko opremo. V spremljanje po dajanju na trg ne bi smeli biti zajeti občutljivi operativni podatki uvajalcev, ki so organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj. Ta sistem je tudi ključen za zagotovitev učinkovitejše in pravočasnejše obravnave morebitnih tveganj, ki izhajajo iz sistemov UI, ki se po dajanju na trg ali v uporabo še naprej „učijo“. V zvezi s tem bi bilo treba od ponudnikov zahtevati tudi, da imajo vzpostavljen sistem za poročanje ustreznim organom o vseh resnih incidentih, ki so posledica uporabe njihovih sistemov UI, tj. incidentih ali okvarah, ki povzročijo smrt ali resno ogroženost zdravja, hude in nepopravljive motnje v upravljanju in delovanju kritične infrastrukture, kršitve obveznosti na podlagi prava Unije o zaščiti temeljnih pravic ali hudo škodo premoženju ali okolju.
(155)
W celu zapewnienia, aby dostawcy systemów AI wysokiego ryzyka mogli wykorzystywać doświadczenia związane ze stosowaniem systemów AI wysokiego ryzyka do ulepszenia swoich systemów oraz procesu projektowania i rozwoju lub byli w stanie odpowiednio szybko podejmować wszelkie możliwe działania naprawcze, każdy dostawca powinien wdrożyć system monitorowania po wprowadzeniu do obrotu. W stosownych przypadkach monitorowanie po wprowadzeniu do obrotu powinno obejmować analizę interakcji z innymi systemami AI, w tym z innymi urządzeniami i oprogramowaniem. Monitorowanie po wprowadzeniu do obrotu nie obejmuje wrażliwych danych operacyjnych podmiotów stosujących, które są organami ścigania. System ten ma również zasadnicze znaczenie dla zapewnienia skuteczniejszego i terminowego przeciwdziałania możliwym pojawiającym się ryzykom związanym z systemami AI, które nadal „uczą się” po wprowadzeniu do obrotu lub oddaniu do użytku. W tym kontekście dostawcy powinni być również zobowiązani do wdrożenia systemu zgłaszania odpowiednim organom wszelkich poważnych incydentów zaistniałych w związku z wykorzystaniem ich systemów AI, tj. incydentu lub nieprawidłowego działania prowadzącego do śmierci lub poważnej szkody dla zdrowia, poważnych i nieodwracalnych zakłóceń w zarządzaniu infrastrukturą krytyczną i jej działaniu, naruszeń obowiązków ustanowionych w prawie Unii, których celem jest ochrona praw podstawowych, lub poważnych szkód majątkowych lub środowiskowych.
(156)
Za zagotovitev ustreznega in učinkovitega izvrševanja zahtev in obveznosti iz te uredbe, ki je harmonizacijska zakonodaja Unije, bi bilo treba v celoti uporabljati sistem nadzora trga in skladnosti proizvodov, vzpostavljen z Uredbo (EU) 2019/1020. Organi za nadzor trga, imenovani na podlagi te uredbe, bi morali imeti vsa izvršilna pooblastila, določena v tej uredbi in Uredbi (EU) 2019/1020, ter bi morali svoja pooblastila in dolžnosti izvajati neodvisno, nepristransko in brez predsodkov. Čeprav za večino sistemov UI ne veljajo posebne zahteve in obveznosti iz te uredbe, lahko organi za nadzor trga sprejmejo ukrepe v zvezi z vsemi sistemi UI, če ti predstavljajo tveganje v skladu s to uredbo. Zaradi posebne narave institucij, agencij in organov Unije, ki spadajo na področje uporabe te uredbe, je za organ za nadzor trga, ki bo pristojen zanje, primerno imenovati Evropskega nadzornika za varstvo podatkov. To ne bi smelo posegati v imenovanje pristojnih nacionalnih organov s strani držav članic. Dejavnosti nadzora trga ne bi smele vplivati na zmožnost nadzorovanih subjektov, da svoje naloge opravljajo neodvisno, kadar je taka neodvisnost zahtevana po pravu Unije.
(156)
Aby zapewnić odpowiednie i skuteczne egzekwowanie wymogów i obowiązków ustanowionych w niniejszym rozporządzeniu, które należy do unijnego prawodawstwa harmonizacyjnego, pełne zastosowanie powinien mieć system nadzoru rynku i zgodności produktów ustanowiony rozporządzeniem (UE) 2019/1020. Organy nadzoru rynku wyznaczone zgodnie z niniejszym rozporządzeniem powinny mieć wszystkie uprawnienia w zakresie egzekwowania wymogów i obowiązków ustanowione w niniejszym rozporządzeniu oraz z rozporządzenia (UE) 2019/1020 i powinny wykonywać swoje uprawnienia i obowiązki w sposób niezależny, bezstronny i wolny od uprzedzeń. Chociaż większość systemów AI nie podlega szczególnym wymogom i obowiązkom na podstawie niniejszego rozporządzenia, organy nadzoru rynku mogą podejmować środki w odniesieniu do wszystkich systemów AI, jeżeli zgodnie z niniejszym rozporządzeniem stwarzają one ryzyko. Z uwagi na szczególny charakter instytucji, organów i jednostek organizacyjnych Unii objętych zakresem stosowania niniejszego rozporządzenia, należy wyznaczyć Europejskiego Inspektora Ochrony Danych jako właściwy dla nich organ nadzoru rynku. Powinno to pozostawać bez uszczerbku dla wyznaczenia właściwych organów krajowych przez państwa członkowskie. Działania w zakresie nadzoru rynku nie powinny wpływać na zdolność nadzorowanych podmiotów do niezależnego wypełniania ich zadań, w przypadku gdy taka niezależność jest wymagana prawem Unii.
(157)
Ta uredba ne posega v pristojnosti, naloge, pooblastila in neodvisnost ustreznih nacionalnih javnih organov ali teles, ki nadzorujejo uporabo prava Unije o varstvu temeljnih pravic, tudi ne organov za enakost in organov za varstvo podatkov. Kadar je to potrebno za njihov mandat, bi morali imeti navedeni nacionalni javni organi ali telesa tudi dostop do kakršne koli dokumentacije, pripravljene na podlagi te uredbe. Določiti bi bilo treba poseben zaščitni postopek za zagotavljanje ustreznega in pravočasnega izvrševanja v zvezi s sistemi UI, ki predstavljajo tveganje za zdravje, varnost in temeljne pravice. Postopek za take sisteme UI, ki predstavljajo tveganje, bi bilo treba uporabljati za visokotvegane sisteme UI, ki predstavljajo tveganje, prepovedane sisteme, ki so bili dani na trg ali v uporabo oziroma se uporabljajo v skladu s prepovedanimi praksami iz te uredbe, in sisteme UI, ki predstavljajo tveganje in katerih dostopnost je bila omogočena v nasprotju z zahtevami glede preglednosti iz te uredbe.
(157)
Niniejsze rozporządzenie pozostaje bez uszczerbku dla kompetencji, zadań, uprawnień i niezależności odpowiednich krajowych organów lub podmiotów publicznych, które nadzorują stosowanie prawa Unii w zakresie ochrony praw podstawowych, w tym organów ds. równości i organów ochrony danych. W przypadku gdy jest to niezbędne do wykonywania ich mandatu, te krajowe organy lub podmioty publiczne powinny również mieć dostęp do wszelkiej dokumentacji sporządzonej na podstawie niniejszego rozporządzenia. Należy ustanowić szczególną procedurę ochronną, aby zapewnić odpowiednie i terminowe egzekwowanie przepisów niniejszego rozporządzenia w odniesieniu do systemów AI stwarzających ryzyko dla zdrowia, bezpieczeństwa i praw podstawowych. Procedurę dotyczącą takich systemów AI stwarzających ryzyko należy stosować w odniesieniu do systemów AI wysokiego ryzyka stwarzających ryzyko, zakazanych systemów, które zostały wprowadzone do obrotu, oddane do użytku lub są wykorzystywane z naruszeniem zasad dotyczących zakazanych praktyk ustanowionych w niniejszym rozporządzeniu, oraz systemów AI, które zostały udostępnione z naruszeniem ustanowionych w niniejszym rozporządzeniu wymogów przejrzystości i które stwarzają ryzyko.
(158)
Pravo Unije o finančnih storitvah vključuje pravila in zahteve glede notranjega upravljanja in obvladovanja tveganj, ki veljajo za regulirane finančne institucije med opravljanjem teh storitev, tudi kadar uporabljajo sisteme UI. Za zagotovitev usklajene uporabe in izvrševanja obveznosti na podlagi te uredbe ter ustreznih pravil in zahtev iz pravnih aktov Unije o finančnih storitvah bi bilo treba pristojne organe za nadzor in izvrševanje navedenih pravnih aktov, zlasti pristojne organe, opredeljene v Uredbi (EU) št. 575/2013 Evropskega parlamenta in Sveta (46) ter direktivah 2008/48/ES (47), 2009/138/ES (48), 2013/36/EU (49), 2014/17/EU (50) in (EU) 2016/97 (51) Evropskega parlamenta in Sveta, glede na njihove zadevne pristojnosti imenovati za pristojne organe za namen nadzora izvajanja te uredbe, vključno z dejavnostmi nadzora trga, v zvezi s sistemi UI, ki jih zagotavljajo ali uporabljajo regulirane in nadzorovane finančne institucije, razen če se država članica ne odloči, da bo za opravljanje teh nalog nadzora trga imenovala drug organ. Ti pristojni organi bi morali imeti vsa pooblastila na podlagi te uredbe in Uredbe (EU) 2019/1020 za izvrševanje zahtev in obveznosti iz te uredbe, vključno s pooblastili za izvajanje naknadnih dejavnosti nadzora trga, ki jih lahko, če je to primerno, vključijo v svoje obstoječe nadzorne mehanizme in postopke na podlagi zadevnega prava Unije o finančnih storitvah. Primerno je predvideti, da bi morali nacionalni organi, ki so odgovorni za nadzor kreditnih institucij, ki jih ureja Direktiva 2013/36/EU, in sodelujejo v enotnem mehanizmu nadzora, vzpostavljenem z Uredbo Sveta (EU) št. 1024/2013 (52), kadar delujejo kot organi za nadzor trga na podlagi te uredbe, Evropski centralni banki nemudoma sporočiti vse informacije, pridobljene v okviru njihovih dejavnosti nadzora trga, ki bi lahko bile zanimive za naloge bonitetnega nadzora Evropske centralne banke, kot so določene v navedeni uredbi. Za nadaljnjo krepitev skladnosti med to uredbo in pravili, ki se uporabljajo za kreditne institucije, ki jih ureja Direktiva 2013/36/EU, je primerno v obstoječe obveznosti in postopke iz Direktive 2013/36/EU vključiti tudi nekatere postopkovne obveznosti ponudnikov v zvezi z obvladovanjem tveganj, spremljanjem po dajanju na trg ter dokumentacijo. Da bi se izognili prekrivanju, bi bilo treba predvideti tudi omejena odstopanja v zvezi s sistemom ponudnikov za upravljanje kakovosti in obveznostjo spremljanja, naloženo uvajalcem visokotveganih sistemov UI, če se ta uporabljajo za kreditne institucije, ki jih ureja Direktiva 2013/36/EU. Isto ureditev bi bilo treba uporabljati za zavarovalnice in pozavarovalnice ter zavarovalne holdinge na podlagi Direktive 2009/138/ES in zavarovalne posrednike na podlagi Direktive (EU) 2016/97 ter druge vrste finančnih institucij, za katere veljajo zahteve glede notranjega upravljanja, ureditev ali postopkov, vzpostavljenih na podlagi ustreznega prava Unije o finančnih storitvah, da se zagotovita doslednost in enaka obravnava v finančnem sektorju.
(158)
Przepisy prawa Unii dotyczące usług finansowych obejmują zasady i wymogi dotyczące zarządzania wewnętrznego i zarządzania ryzykiem, które mają zastosowanie do regulowanych instytucji finansowych podczas świadczenia tych usług, w tym wówczas, gdy korzystają one z systemów AI. Aby zapewnić spójne stosowanie i egzekwowanie obowiązków ustanowionych w niniejszym rozporządzeniu oraz odpowiednich zasad i wymogów ustanowionych w unijnych aktach prawnych dotyczących usług finansowych, właściwe organy do celów nadzoru nad tymi aktami prawnymi i ich egzekwowania, w szczególności właściwe organy zdefiniowane w rozporządzeniu Parlamentu Europejskiego i Rady (UE) nr 575/2013 (46) oraz dyrektywach Parlamentu Europejskiego i Rady 2008/48/WE (47), 2009/138/WE (48), 2013/36/UE (49), 2014/17/UE (50) i (UE) 2016/97 (51), należy wyznaczyć w ramach ich odpowiednich kompetencji jako właściwe organy do celów nadzoru nad wykonywaniem niniejszego rozporządzenia, w tym do celów działań w zakresie nadzoru rynku, w odniesieniu do systemów AI dostarczanych lub wykorzystywanych przez objęte regulacją i nadzorem instytucje finansowe, chyba że państwa członkowskie zdecydują się wyznaczyć inny organ do wypełniania tych zadań związanych z nadzorem rynku. Te właściwe organy powinny mieć wszystkie uprawnienia wynikające z niniejszego rozporządzenia i rozporządzenia (UE) 2019/1020 w celu egzekwowania wymogów i obowiązków ustanowionych w niniejszym rozporządzeniu, w tym uprawnienia do prowadzenia działań ex post w zakresie nadzoru rynku, które można w stosownych przypadkach włączyć do ich istniejących mechanizmów i procedur nadzorczych na podstawie odpowiednich przepisów prawa Unii dotyczących usług finansowych. Należy przewidzieć, że – działając w charakterze organów nadzoru rynku na podstawie niniejszego rozporządzenia –krajowe organy odpowiedzialne za nadzór nad instytucjami kredytowymi uregulowanymi w dyrektywie 2013/36/UE, które uczestniczą w jednolitym mechanizmie nadzorczym ustanowionym rozporządzeniem Rady (UE) nr 1024/2013 (52), powinny niezwłocznie przekazywać Europejskiemu Bankowi Centralnemu wszelkie informacje zidentyfikowane w trakcie prowadzonych przez siebie działań w zakresie nadzoru rynku, które potencjalnie mogą mieć znaczenie dla Europejskiego Banku Centralnego z punktu widzenia określonych w tym rozporządzeniu zadań EBC dotyczących nadzoru ostrożnościowego. Aby dodatkowo zwiększyć spójność między niniejszym rozporządzeniem a przepisami mającymi zastosowanie do instytucji kredytowych uregulowanych w dyrektywie 2013/36/UE, niektóre obowiązki proceduralne dostawców związane z zarządzaniem ryzykiem, monitorowaniem po wprowadzeniu do obrotu oraz prowadzeniem dokumentacji należy również włączyć do istniejących obowiązków i procedur przewidzianych w dyrektywie 2013/36/UE. Aby uniknąć nakładania się przepisów, należy również przewidzieć ograniczone odstępstwa dotyczące systemu zarządzania jakością prowadzonego przez dostawców oraz obowiązku monitorowania nałożonego na podmioty stosujące systemy AI wysokiego ryzyka w zakresie, w jakim mają one zastosowanie do instytucji kredytowych uregulowanych w dyrektywie 2013/36/UE. Ten sam system powinien mieć zastosowanie do zakładów ubezpieczeń i zakładów reasekuracji oraz ubezpieczeniowych spółek holdingowych na podstawie dyrektywy 2009/138/WE oraz pośredników ubezpieczeniowych na mocy dyrektywy (UE) 2016/97, a także do innych rodzajów instytucji finansowych objętych wymogami dotyczącymi systemu zarządzania wewnętrznego, uzgodnień lub procedur ustanowionych zgodnie z odpowiednimi przepisami prawa Unii dotyczącymi usług finansowych, w celu zapewnienia spójności i równego traktowania w sektorze finansowym.
(159)
Vsak organ za nadzor trga za visokotvegane sisteme UI na področju biometrike, kot so navedeni v eni od prilog k tej uredbi, če se ti sistemi uporabljajo za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, migracij, azila in upravljanja nadzora meja ali za pravosodje in demokratične procese, bi moral imeti pooblastila za preiskovanje in popravne ukrepe, vključno vsaj s pooblastilom za pridobitev dostopa do vseh osebnih podatkov, ki se obdelujejo, in do vseh informacij, potrebnih za opravljanje njegovih nalog. Organi za nadzor trga bi morali imeti možnost, da svoja pooblastila izvajajo popolnoma neodvisno. Morebitne omejitve njihovega dostopa do občutljivih operativnih podatkov na podlagi te uredbe ne bi smele posegati v pooblastila, ki so jim podeljena z Direktivo (EU) 2016/680. Nobena izključitev glede razkritja podatkov nacionalnim organom za varstvo podatkov na podlagi te uredbe ne bi smela vplivati na sedanja ali prihodnja pooblastila teh organov zunaj področja uporabe te uredbe.
(159)
Każdy organ nadzoru rynku ds. systemów AI wysokiego ryzyka w obszarze danych biometrycznych, wymienionych w załączniku do niniejszego rozporządzenia, o ile systemy te są wykorzystywane do celów ścigania przestępstw, zarządzania migracją, azylem i kontrolą graniczną lub do celów sprawowania wymiaru sprawiedliwości i procesów demokratycznych, powinien dysponować skutecznymi uprawnieniami do prowadzenia postępowań i uprawnieniami naprawczymi, w tym co najmniej uprawnieniami do uzyskania dostępu do wszystkich przetwarzanych danych osobowych oraz do wszelkich informacji niezbędnych do wykonywania jego zadań. Organy nadzoru rynku powinny mieć możliwość wykonywania swoich uprawnień, działając w sposób całkowicie niezależny. Wszelkie ograniczenia dostępu tych organów do wrażliwych danych operacyjnych na mocy niniejszego rozporządzenia powinny pozostawać bez uszczerbku dla uprawnień przyznanych im na mocy dyrektywy (UE) 2016/680. Żadne wyłączenie dotyczące ujawniania danych krajowym organom ochrony danych na mocy niniejszego rozporządzenia nie powinno mieć wpływu na obecne lub przyszłe uprawnienia tych organów wykraczające poza zakres niniejszego rozporządzenia.
(160)
Organom za nadzor trga in Komisiji bi moralo biti omogočeno, da predlagajo skupne dejavnosti – vključno s skupnimi preiskavami, ki jih izvajajo organi za nadzor trga sami ali skupaj s Komisijo –, katerih cilj je spodbujanje skladnosti, odkrivanje neskladnosti, ozaveščanje ali zagotavljanje smernic v zvezi s to uredbo, kar zadeva posebne kategorije visokotveganih sistemov UI, za katere se ugotovi, da predstavljajo resno tveganje v dveh ali več državah članicah. Skupne dejavnosti za spodbujanje skladnosti bi bilo treba izvajati v skladu s členom 9 Uredbe (EU) 2019/1020. Urad za UI bi moral zagotavljati usklajevalno podporo za skupne preiskave.
(160)
Organy nadzoru rynku i Komisja powinny mieć możliwość proponowania wspólnych działań, w tym wspólnych postępowań, które mają być prowadzone przez organy nadzoru rynku lub organy nadzoru rynku wspólnie z Komisją, których celem jest promowanie zgodności, wykrywanie niezgodności, podnoszenie świadomości i zapewnianie wytycznych dotyczących niniejszego rozporządzenia w odniesieniu do konkretnych kategorii systemów AI wysokiego ryzyka, w przypadku których stwierdzono, że stwarzają poważne ryzyko w co najmniej dwóch państwach członkowskich. Wspólne działania na rzecz promowania zgodności należy prowadzić zgodnie z art. 9 rozporządzenia (UE) 2019/1020. Urząd ds. AI powinien zapewniać wsparcie w zakresie koordynacji wspólnych postępowań.
(161)
Pojasniti je treba odgovornosti in pristojnosti na ravni Unije in nacionalni ravni v zvezi z sistemi UI, ki temeljijo na modelih UI za splošne namene. Da bi se izognili prekrivanju pristojnosti, kadar sistem UI temelji na modelu UI za splošne namene ter kadar model in sistem zagotavlja isti ponudnik, bi moral biti za nadzor na ravni Unije pristojen Urad za UI, ki bi moral v ta namen imeti pooblastila organa za nadzor trga v smislu Uredbe (EU) 2019/1020. V vseh drugih primerih so za nadzor sistemov UI še naprej odgovorni nacionalni organi za nadzor trga. Vendar bi morali organi za nadzor trga za sisteme UI za splošne namene, ki jih lahko uvajalci neposredno uporabljajo za vsaj en namen, ki je razvrščen kot visoko tveganje, sodelovati z Uradom za UI pri izvedbi ocen skladnosti ter o tem ustrezno obvestili Odbor in druge organe za nadzor trga. Poleg tega bi morali imeti organi za nadzor trga možnost, da Urad za UI zaprosijo za pomoč, kadar organ za nadzor trga ne more zaključiti preiskave visokotveganega sistema UI, ker ne more dostopati do nekaterih informacij, ki se nanašajo na model UI za splošne namene, na katerem temelji visokotvegani sistem UI. V takih primerih bi se moral smiselno uporabljati postopek v zvezi s čezmejno medsebojno pomočjo iz poglavja VI Uredbe (EU) 2019/1020.
(161)
Konieczne jest wyjaśnienie odpowiedzialności i kompetencji na poziomie Unii i poziomie krajowym w odniesieniu do systemów AI, które opierają się na modelach AI ogólnego przeznaczenia. Aby uniknąć nakładania się kompetencji, w przypadku gdy system AI opiera się na modelu AI ogólnego przeznaczenia, a model i system są dostarczone przez tego samego dostawcę, nadzór powinien odbywać się na poziomie Unii za pośrednictwem Urzędu ds. AI, który w tym celu powinien posiadać uprawnienia organu nadzoru rynku w rozumieniu rozporządzenia (UE) 2019/1020. We wszystkich innych przypadkach krajowe organy nadzoru rynku pozostają odpowiedzialne za nadzór nad systemami AI. Natomiast w przypadku systemów AI ogólnego przeznaczenia, które mogą być wykorzystywane bezpośrednio przez podmioty stosujące do co najmniej jednego celu zaklasyfikowanego jako cel wysokiego ryzyka, organy nadzoru rynku powinny współpracować z Urzędem ds. AI przy prowadzeniu ocen zgodności i by odpowiednio informować Radę ds. AI i inne organy nadzoru rynku. Ponadto organy nadzoru rynku powinny mieć możliwość zwrócenia się o pomoc do Urzędu ds. AI, jeżeli organ nadzoru rynku nie jest w stanie zakończyć postępowania w sprawie systemu AI wysokiego ryzyka ze względu na niemożność dostępu do niektórych informacji związanych z modelem AI ogólnego przeznaczenia, na którym opiera się ten system AI wysokiego ryzyka. W takich przypadkach powinna mieć zastosowanie odpowiednio procedura dotycząca wzajemnej pomocy transgranicznej określona w rozdziale VI rozporządzenia (UE) 2019/1020.
(162)
Da bi na ravni Unije čim bolje izkoristili centralizirano strokovno znanje in sinergije Unije, bi morala biti pooblastila za nadzor in izvrševanje obveznosti za ponudnike modelov UI za splošne namene v pristojnosti Komisije. Urad za UI bi moral imeti možnost, da izvede vse potrebne ukrepe za spremljanje učinkovitega izvajanja te uredbe v zvezi z modeli UI za splošne namene. Imeti bi moral možnost, da na lastno pobudo na podlagi rezultatov njegovih dejavnosti spremljanja ali na zahtevo organov za nadzor trga v skladu s pogoji iz te uredbe razišče morebitne kršitve pravil o ponudnikih modelov UI za splošne namene. Da bi podprli učinkovito spremljanje Urada za UI, bi bilo treba določiti možnost, da lahko ponudniki nižje v verigi vložijo pritožbe zaradi morebitnih kršitev pravil o ponudnikih modelov UI za splošne namene in sistemov UI.
(162)
Aby jak najlepiej wykorzystać scentralizowaną unijną wiedzę fachową i synergie na poziomie Unii, uprawnienia w zakresie nadzoru i egzekwowania obowiązków spoczywających na dostawcach modeli AI ogólnego przeznaczenia powinny należeć do kompetencji Komisji. Urząd ds. AI powinien mieć możliwość prowadzenia wszelkich niezbędnych działań w celu monitorowania skutecznego wykonywania niniejszego rozporządzenia w odniesieniu do modeli AI ogólnego przeznaczenia. Powinien mieć możliwość prowadzenia postępowań w sprawie ewentualnych naruszeń przepisów dotyczących dostawców modeli AI ogólnego przeznaczenia zarówno z własnej inicjatywy, na podstawie wyników swoich działań monitorujących, jak i na wniosek organów nadzoru rynku zgodnie z warunkami określonymi w niniejszym rozporządzeniu. W celu wsparcia skutecznego monitorowania Urząd ds. AI powinien ustanowić możliwość składania przez dostawców niższego szczebla skarg na dostawców modeli i systemów AI ogólnego przeznaczenia dotyczących ewentualnych naruszeń przepisów.
(163)
Da bi dopolnili sisteme upravljanja modelov UI za splošne namene, bi moral znanstveni odbor prispevati k dejavnostim spremljanja Urada za UI, ki mu v nekaterih primerih lahko pošlje kvalificirana opozorila, ki sprožijo nadaljnje ukrepanje, kot so preiskave. To bi se moralo zgoditi, kadar znanstveni odbor utemeljeno sumi, da model UI za splošne namene predstavlja konkretno in prepoznavno tveganje na ravni Unije. To bi se prav tako moralo zgoditi, kadar znanstveni odbor utemeljeno sumi, da model UI za splošne namene izpolnjuje merila, na podlagi katerih bi moral biti razvrščen kot model UI za splošne namene s sistemskim tveganjem. Da se znanstvenemu svetu zagotovijo informacije, potrebne za opravljanje teh nalog, bi moral obstajati mehanizem, s katerim lahko znanstveni odbor zaprosi Komisijo, da od ponudnika zahteva dokumentacijo ali informacije.
(163)
W celu uzupełnienia systemów zarządzania modelami AI ogólnego przeznaczenia panel naukowy powinien wspierać działania monitorujące Urzędu ds. AI i może, w niektórych przypadkach, przekazywać Urzędowi ds. AI ostrzeżenia kwalifikowane, które uruchamiają działania następcze, takie jak postępowania. Powinno to mieć miejsce w przypadku, gdy panel naukowy ma powody, by podejrzewać, że model AI ogólnego przeznaczenia stwarza konkretne i możliwe do zidentyfikowania ryzyko na poziomie Unii. Ponadto powinno to mieć miejsce w przypadku, gdy panel naukowy ma powody, by podejrzewać, że model AI ogólnego przeznaczenia spełnia kryteria, które prowadziłyby do zaklasyfikowania go jako modelu AI ogólnego przeznaczenia z ryzykiem systemowym. Aby panel naukowy mógł dysponować informacjami niezbędnymi do wykonywania tych zadań, powinien istnieć mechanizm, w ramach którego panel naukowy może zwrócić się do Komisji, aby wystąpiła do dostawcy z wnioskiem o przedstawienie dokumentacji lub informacji.
(164)
Urad za UI bi moral imeti možnost, da sprejme potrebne ukrepe za spremljanje učinkovitega izvajanja in izpolnjevanja obveznosti za ponudnike modelov UI za splošne namene iz te uredbe. Urad za UI bi moral imeti možnost, da razišče morebitne kršitve v skladu s pooblastili na podlagi te uredbe, tudi tako, da zahteva dokumentacijo in informacije, izvaja ocenjevanje ter od ponudnikov modelov UI za splošne namene zahteva ukrepe. Pri izvajanju ocenjevanja in zato, da bi uporabili neodvisno strokovno znanje, bi moral Urad za UI imeti možnost vključiti neodvisne strokovnjake, da v njegovem imenu izvedejo ocenjevanje. Izpolnjevanje obveznosti bi moralo biti izvršljivo, med drugim z zahtevami za sprejetje ustreznih ukrepov, vključno z ukrepi za zmanjšanje tveganja v primeru prepoznanih sistemskih tveganj, ter z omejevanjem omogočanja dostopnosti modela na trgu, njegovim umikom ali odpoklicem. Kot zaščitni ukrepi, kadar je to potrebno poleg procesnih pravic iz te uredbe, bi morali imeti ponudniki modelov UI za splošne namene procesne pravice iz člena 18 Uredbe (EU) 2019/1020, ki bi se morale uporabljati smiselno in brez poseganja v bolj specifične procesne pravice iz te uredbe.
(164)
Urząd ds. AI powinien mieć możliwość podejmowania niezbędnych działań w celu monitorowania skutecznego wdrażania i spełniania obowiązków przez dostawców modeli AI ogólnego przeznaczenia określonych w niniejszym rozporządzeniu. Urząd ds. AI powinien mieć możliwość prowadzenia postępowań w sprawie ewentualnych naruszeń zgodnie z uprawnieniami przewidzianymi w niniejszym rozporządzeniu, w tym poprzez zwracanie się o dokumentację i informacje, przeprowadzanie ocen, a także zwracanie się do dostawców modeli AI ogólnego przeznaczenia o zastosowanie określonych środków. Aby wykorzystać niezależną wiedzę fachową w ramach prowadzenia ocen, Urząd ds. AI powinien mieć możliwość angażowania niezależnych ekspertów do przeprowadzania ocen w jego imieniu. Spełnienie obowiązków powinno być możliwe do wyegzekwowania m.in. poprzez wezwanie do podjęcia odpowiednich środków, w tym środków ograniczających ryzyko w przypadku zidentyfikowanego ryzyka systemowego, a także poprzez ograniczenie udostępniania modelu na rynku, wycofanie modelu z rynku lub z użytku. Jako zabezpieczenie, jeśli zaistnieją potrzeby wykraczające poza prawa proceduralne przewidziane w niniejszym rozporządzeniu, dostawcy modeli AI ogólnego przeznaczenia powinni dysponować prawami proceduralnymi przewidzianymi w art. 18 rozporządzenia (UE) 2019/1020, które powinny mieć zastosowanie odpowiednio, bez uszczerbku dla bardziej szczególnych praw proceduralnych przewidzianych w niniejszym rozporządzeniu.
(165)
Razvoj sistemov UI, ki niso visokotvegani sistemi UI, v skladu z zahtevami iz te uredbe lahko pripelje do večjega koriščenja etične in zaupanja vredne UI v Uniji. Ponudnike sistemov UI, ki niso sistemi visokega tveganja, bi bilo treba spodbujati k oblikovanju kodeksov ravnanja, vključno s povezanimi mehanizmi upravljanja, ki bodo namenjeni spodbujanju prostovoljne uporabe nekaterih ali vseh obveznih zahtev, ki se uporabljajo za visokotvegane sisteme UI, prilagojeni predvidenemu namenu sistemov in manjšemu tveganju ter bodo v njih upoštevane razpoložljive tehnične rešitve in najboljše prakse v industriji, kot so modeli in podatkovne kartice. Ponudnike in po potrebi uvajalce vseh sistemov UI, ne glede na to, ali so sistemi visokega tveganja ali ne, in modelov UI bi bilo treba spodbujati tudi k prostovoljni uporabi dodatnih zahtev, povezanih na primer z elementi etičnih smernic Unije za zaupanja vredno UI, okoljsko trajnostnostjo, ukrepi za pismenost na področju UI, zasnovo in razvojem sistemov UI, ki zagotavljata inkluzivnost in raznolikost, vključno s poudarkom na ranljivih osebah in dostopnostjo za invalide, sodelovanjem deležnikov, po potrebi s sodelovanjem ustreznih deležnikov, kot so podjetja in organizacije civilne družbe, akademski krogi, raziskovalne organizacije, sindikati in organizacije za varstvo potrošnikov, pri zasnovi in razvoju sistemov UI, ter z raznolikostjo razvojnih skupin, vključno z uravnoteženo zastopanostjo spolov. Da bi zagotovili učinkovitost prostovoljnih kodeksov ravnanja, bi morali ti temeljiti na jasnih ciljih in ključnih kazalnikih uspešnosti za merjenje doseganja teh ciljev. Prav tako bi jih bilo treba razvijati na inkluziven način, kot je ustrezno, ob sodelovanju ustreznih deležnikov, kot so podjetja in organizacije civilne družbe, akademski krogi, raziskovalne organizacije, sindikati in organizacije za varstvo potrošnikov. Komisija lahko pripravi pobude, tudi sektorske narave, da se omogoči zmanjšanje tehničnih ovir za čezmejno izmenjavo podatkov za razvoj UI, tudi na infrastrukturi za dostop do podatkov, ter semantično in tehnično interoperabilnost različnih vrst podatkov.
(165)
Rozwój systemów AI innych niż systemy AI wysokiego ryzyka zgodnie z wymogami niniejszego rozporządzenia może doprowadzić do szerszego upowszechnienia etycznej i godnej zaufania AI w Unii. Dostawców systemów AI niebędących systemami wysokiego ryzyka należy zachęcać do opracowywania kodeksów postępowania, w tym powiązanych mechanizmów zarządzania, wspierających dobrowolne stosowanie niektórych lub wszystkich obowiązkowych wymogów mających zastosowanie do systemów AI wysokiego ryzyka, dostosowanych do przeznaczenia tych systemów i związanego z nimi niższego ryzyka oraz z uwzględnieniem dostępnych rozwiązań technicznych i najlepszych praktyk branżowych, takich jak karty modeli i karty charakterystyki. Dostawców wszystkich systemów AI, zarówno wysokiego ryzyka, jak i nie stanowiących wysokiego ryzyka, oraz modeli AI, a w stosownych przypadkach, podmioty stosujące te systemy i modele należy również zachęcać do dobrowolnego stosowania dodatkowych wymogów dotyczących na przykład elementów unijnych Wytycznych w zakresie etyki dotyczących godnej zaufania sztucznej inteligencji, zrównoważenia środowiskowego, środków wspierających kompetencje w zakresie AI, projektowania i rozwoju systemów AI z uwzględnieniem różnorodności i inkluzywności, w tym szczególnej uwagi poświęconej osobom szczególnie wrażliwym i dostępności dla osób z niepełnosprawnościami, udziału zainteresowanych stron w tym, w stosownych przypadkach, organizacji przedsiębiorców i społeczeństwa obywatelskiego, środowisk akademickich, organizacji badawczych, związków zawodowych i organizacji ochrony konsumentów w projektowaniu i rozwoju systemów AI oraz dotyczących różnorodności zespołów programistycznych, w tym pod względem równowagi płci. W celu zapewnienia skuteczności dobrowolnych kodeksów postępowania, powinny się one opierać się na jasnych celach i kluczowych wskaźnikach skuteczności działania służących do pomiaru stopnia osiągnięcia tych celów. Należy je również rozwijać w sposób inkluzywny, w stosownych przypadkach, z udziałem odpowiednich zainteresowanych stron, takich jak organizacje przedsiębiorców i społeczeństwa obywatelskiego, środowiska akademickie, organizacje badawcze, związki zawodowe i organizacje ochrony konsumentów. Komisja może opracowywać inicjatywy, również o charakterze sektorowym, aby ułatwiać zmniejszanie barier technicznych utrudniających transgraniczną wymianę danych na potrzeby rozwoju AI, w tym w zakresie infrastruktury dostępu do danych oraz interoperacyjności semantycznej i technicznej różnych rodzajów danych.
(166)
Pomembno je, da so sistemi UI, ki so povezani s proizvodi brez visokega tveganja v skladu s to uredbo in jim zato ni treba izpolnjevati zahtev za visokotvegane sisteme UI, kljub temu varni, ko so dani na trg ali v uporabo. Da bi prispevali k temu cilju, bi se Uredba (EU) 2023/988 Evropskega parlamenta in Sveta (53) uporabljala kot varnostna mreža.
(166)
Istotne jest, aby systemy AI powiązane z produktami, które nie są systemami wysokiego ryzyka w rozumieniu niniejszego rozporządzenia, a zatem nie muszą być zgodne z wymogami ustanowionymi w przypadku systemów AI wysokiego ryzyka, były mimo to bezpieczne w chwili wprowadzenia ich do obrotu lub oddawania ich do użytku. Aby przyczynić się do osiągnięcia tego celu, rozporządzenie Parlamentu Europejskiego i Rady (UE) 2023/988 (53) miałoby zastosowanie jako rozwiązanie zapasowe.
(167)
Za zagotovitev zaupanja vrednega in konstruktivnega sodelovanja pristojnih organov na ravni Unije in nacionalni ravni bi morale vse strani, ki sodelujejo pri uporabi te uredbe, spoštovati zaupnost informacij in podatkov, ki so jih pridobili pri opravljanju svojih nalog, v skladu s pravom Unije ali nacionalnim pravom. Svoje naloge in dejavnosti bi morali opravljati tako, da varujejo zlasti pravice intelektualne lastnine, zaupne poslovne informacije in poslovne skrivnosti, učinkovito izvajanje te uredbe, javne in nacionalne varnostne interese, celovitost kazenskih in upravnih postopkov ter celovitost tajnih podatkov.
(167)
W celu zapewnienia opartej na zaufaniu i konstruktywnej współpracy właściwych organów na poziomie Unii i poziomie krajowym wszystkie strony uczestniczące w stosowaniu niniejszego rozporządzenia powinny przestrzegać zasady poufności informacji i danych uzyskanych podczas wykonywania swoich zadań, zgodnie z prawem Unii lub prawem krajowym. Powinny one wykonywać swoje zadania i prowadzić działania w taki sposób, aby chronić w szczególności prawa własności intelektualnej, poufne informacje handlowe i tajemnice przedsiębiorstwa, skuteczne wykonywanie niniejszego rozporządzenia, interesy bezpieczeństwa publicznego i narodowego, integralność postępowań karnych i administracyjnych oraz integralność informacji niejawnych.
(168)
Skladnost s to uredbo bi morala biti izvršljiva z naložitvijo kazni in drugimi izvršilnimi ukrepi. Države članice bi morale sprejeti vse potrebne ukrepe za zagotovitev izvajanja določb te uredbe, tudi z določitvijo učinkovitih, sorazmernih in odvračilnih kazni za njihovo kršitev, in za upoštevanje načela ne bis in idem. Za okrepitev in uskladitev upravnih kazni za kršitev te uredbe bi bilo treba določiti zgornje meje za določitev upravnih glob za nekatere posebne kršitve. Države članice bi morale pri določanju višine glob v vsakem posameznem primeru upoštevati vse ustrezne okoliščine konkretne situacije, zlasti pa naravo, težo in trajanje kršitve ter njene posledice in velikost ponudnika, zlasti če je ponudnik MSP, vključno z zagonskim podjetjem. Evropski nadzornik za varstvo podatkov bi moral biti pooblaščen za nalaganje glob institucijam, agencijam in organom Unije, ki spadajo na področje uporabe te uredbe.
(168)
Zgodność z niniejszym rozporządzeniem powinna być możliwa do wyegzekwowania poprzez nakładanie kar i innych środków egzekwowania prawa. Państwa członkowskie powinny podjąć wszelkie niezbędne środki, aby zapewnić wdrożenie przepisów niniejszego rozporządzenia, w tym poprzez ustanowienie skutecznych, proporcjonalnych i odstraszających kar za ich naruszenie, oraz poszanowanie zasady ne bis in idem. Aby wzmocnić i zharmonizować kary administracyjne za naruszenie niniejszego rozporządzenia należy ustanowić górne limity dla ustalania administracyjnych kar pieniężnych za niektóre konkretne naruszenia. Przy ocenie wysokości kar pieniężnych, państwa członkowskie powinny w każdym indywidualnym przypadku brać pod uwagę wszystkie istotne okoliczności danej sytuacji, z należytym uwzględnieniem w szczególności charakteru, wagi i czasu trwania naruszenia oraz jego skutków, a także wielkości dostawcy, w szczególności faktu, czy dostawca jest MŚP, w tym przedsiębiorstwem typu start-up. Europejski Inspektor Ochrony Danych powinien mieć uprawnienia do nakładania kar pieniężnych na instytucje, organy i jednostki organizacyjne Unii objęte zakresem stosowania niniejszego rozporządzenia.
(169)
Izpolnjevanje obveznosti za ponudnike modelov UI za splošne namene, določenih na podlagi te uredbe, bi moralo med drugim biti izvršljivo z globami. V ta namen bi bilo treba določiti tudi ustrezne ravni glob za kršitev navedenih obveznosti, vključno z neizpolnjevanjem ukrepov, ki jih Komisija zahteva v skladu s to uredbo, ob upoštevanju ustreznih zastaralnih rokov v skladu z načelom sorazmernosti. Vse odločitve, ki jih Komisija sprejme na podlagi te uredbe, so podvržene nadzoru Sodišča Evropske unije v skladu s PDEU, vključno z neomejeno pristojnostjo Sodišča glede kazni na podlagi člena 261 PDEU.
(169)
Spełnienie obowiązków spoczywających na dostawcach modeli AI ogólnego przeznaczenia nałożonych na mocy niniejszego rozporządzenia powinna być możliwa do wyegzekwowania między innymi za pomocą kar pieniężnych. W tym celu należy również ustanowić odpowiednią wysokość kar pieniężnych za naruszenie tych obowiązków, w tym za niezastosowanie środków wymaganych przez Komisję zgodnie z niniejszym rozporządzeniem, z zastrzeżeniem odpowiednich terminów przedawnienia zgodnie z zasadą proporcjonalności. Wszystkie decyzje przyjmowane przez Komisję na podstawie niniejszego rozporządzenia podlegają kontroli Trybunału Sprawiedliwości Unii Europejskiej zgodnie z TFUE, w tym nieograniczonemu prawu orzekania zgodnie z art. 261 TFUE.
(170)
Pravo Unije in nacionalno pravo fizičnim in pravnim osebam, na pravice in svoboščine katerih negativno vpliva uporaba sistemov UI, že zagotavljata učinkovita pravna sredstva. Brez poseganja v ta pravna sredstva lahko pritožbo pri ustreznem organu za nadzor trga vloži vsaka fizična ali pravna oseba, ki upravičeno meni, da je prišlo do kršitve te uredbe.
(170)
W przepisach prawa Unii i prawa krajowego przewidziano już skuteczne środki odwoławcze dla osób fizycznych i prawnych, na których prawa i wolności negatywnie wpływa wykorzystanie systemów AI. Bez uszczerbku dla tych środków odwoławczych każda osoba fizyczna lub prawna, która ma podstawy, by uważać, że doszło do naruszenia niniejszego rozporządzenia, powinna być uprawniona do wniesienia skargi do odpowiedniego organu nadzoru rynku.
(171)
Osebe, na katere vpliva uporaba sistemov UI, bi morale imeti pravico do pojasnila, kadar odločitev uvajalca temelji predvsem na izhodnih podatkih nekaterih visokotveganih sistemov UI, ki spadajo na področje uporabe te uredbe, in kadar ima ta odločitev pravne učinke za te osebe ali nanje podobno znatno vpliva na način, za katerega menijo, da ima negativne učinke na njihovo zdravje, varnost in temeljne pravice. To pojasnilo bi moralo biti jasno in smiselno ter temelj, na podlagi katerega osebe, na katere vpliva uporaba sistemov UI, lahko uveljavljajo svoje pravice. Pravica do pojasnila se ne bi smela uporabljati za uporabo sistemov UI, za katere izjeme ali omejitve izhajajo iz prava Unije ali nacionalnega prava, temveč bi se morala uporabljati le, če ta pravica še ni določena na podlagi prava Unije.
(171)
Osoby, na które AI ma wpływ, powinny mieć prawo do uzyskania wyjaśnienia, jeżeli decyzja podmiotu stosującego opiera się głównie na wynikach określonych systemów AI wysokiego ryzyka objętych zakresem stosowania niniejszego rozporządzenia i jeżeli decyzja ta wywołuje skutki prawne lub podobnie znacząco oddziałuje na te osoby w sposób, który ich zdaniem ma niepożądany wpływ na ich zdrowie, bezpieczeństwo lub prawa podstawowe. Wyjaśnienie to powinno być jasne i merytoryczne oraz powinno dawać osobom, na które AI ma wpływ, podstawę do korzystania z ich praw. Prawo do uzyskania wyjaśnienia nie powinno mieć zastosowania do wykorzystania systemów AI, co do których na mocy przepisów praw Unii lub prawa krajowego obowiązują wyjątki lub ograniczenia, i powinno mieć zastosowanie wyłącznie w zakresie, w jakim prawo to nie jest jeszcze przewidziane w przepisach prawa Unii.
(172)
Osebe, ki kot žvižgači opozarjajo na kršitve te uredbe, bi morale biti zaščitene na podlagi prava Unije. Za prijavo kršitev te uredbe in zaščito oseb, ki te kršitve prijavijo, bi se zato morala uporabljati Direktiva (EU) 2019/1937 Evropskega parlamenta in Sveta (54).
(172)
Osoby działające w charakterze sygnalistów w związku z naruszeniami niniejszego rozporządzenia powinny być chronione na mocy prawa Unii. Do zgłaszania naruszeń przepisów niniejszego rozporządzenia oraz ochrony osób zgłaszających przypadki takich naruszeń powinno zatem stosować się dyrektywę Parlamentu Europejskiego i Rady (UE) 2019/1937 (54).
(173)
Za zagotovitev, da se regulativni okvir lahko po potrebi prilagodi, bi bilo treba na Komisijo prenesti pooblastilo, da v skladu s členom 290 PDEU sprejme akte za spremembo pogojev, pod katerimi se sistem UI ne sme šteti za sistem visokega tveganja, seznama visokotveganih sistemov UI, določb o tehnični dokumentaciji, vsebine EU izjave o skladnosti, določb o postopkih ugotavljanja skladnosti, določb o vzpostavitvi visokotveganih sistemov UI, za katere bi se moral uporabljati postopek ugotavljanja skladnosti na podlagi ocene sistema upravljanja kakovosti in ocene tehnične dokumentacije, praga, meril uspešnosti in kazalnikov, tudi z njihovo dopolnitvijo, kot so opredeljeni v pravilih za razvrščanje modelov UI za splošne namene s sistemskim tveganjem, meril za označevanje modelov UI za splošne namene s sistemskim tveganjem, tehnične dokumentacije za ponudnike modelov UI za splošne namene in informacij o preglednosti za ponudnike modelov UI za splošne namene. Zlasti je pomembno, da se Komisija pri svojem pripravljalnem delu ustrezno posvetuje, tudi na ravni strokovnjakov, in da se ta posvetovanja izvedejo v skladu z načeli, določenimi v Medinstitucionalnem sporazumu z dne 13. aprila 2016 o boljši pripravi zakonodaje (55). Za zagotovitev enakopravnega sodelovanja pri pripravi delegiranih aktov Evropski parlament in Svet zlasti prejmeta vse dokumente sočasno s strokovnjaki iz držav članic, njuni strokovnjaki pa se lahko sistematično udeležujejo sestankov strokovnih skupin Komisije, ki zadevajo pripravo delegiranih aktov.
(173)
Aby zapewnić możliwość dostosowania w razie potrzeby ram regulacyjnych, należy przekazać Komisji uprawnienia do przyjmowania aktów zgodnie z art. 290 TFUE w celu zmiany warunków, na podstawie których systemu AI nie uznaje się za system AI wysokiego ryzyka, zmiany wykazu systemów AI wysokiego ryzyka, przepisów dotyczących dokumentacji technicznej, treści deklaracji zgodności UE, przepisów dotyczących procedur oceny zgodności, przepisów określających systemy AI wysokiego ryzyka, do których powinna mieć zastosowanie procedura oceny zgodności oparta na ocenie systemu zarządzania jakością oraz ocenie dokumentacji technicznej, progu, poziomów odniesienia i wskaźników, które zostały określone w przepisach dotyczących klasyfikacji modeli AI ogólnego przeznaczenia z ryzykiem systemowym, w tym poprzez uzupełnienie tych poziomów odniesienia i wskaźników, kryteriów uznawania modeli za modele AI ogólnego przeznaczenia z ryzykiem systemowym, dokumentacji technicznej dostawców modeli AI ogólnego przeznaczenia oraz informacji dotyczących przejrzystości od dostawców modeli AI ogólnego przeznaczenia. Szczególnie ważne jest, aby w czasie prac przygotowawczych Komisja prowadziła stosowne konsultacje, w tym na poziomie ekspertów, oraz aby konsultacje te prowadzone były zgodnie z zasadami określonymi w Porozumieniu międzyinstytucjonalnym z dnia 13 kwietnia 2016 r. w sprawie lepszego stanowienia prawa (55). W szczególności, aby zapewnić Parlamentowi Europejskiemu i Radzie udział na równych zasadach w przygotowaniu aktów delegowanych, instytucje te otrzymują wszelkie dokumenty w tym samym czasie co eksperci państw członkowskich, a eksperci tych instytucji mogą systematycznie brać udział w posiedzeniach grup eksperckich Komisji zajmujących się przygotowaniem aktów delegowanych.
(174)
Glede na hiter tehnološki razvoj in tehnično strokovno znanje, potrebno za učinkovito izvajanje te uredbe bi morala Komisija oceniti in pregledati to uredbo do 2. avgusta 2029 in nato vsaka štiri leta ter poročati Evropskemu parlament in Svetu. Poleg tega bi morala Komisija ob upoštevanju posledic za področje uporabe te uredbe enkrat letno oceniti potrebo po spremembi seznama visokotveganih sistemov UI in seznama prepovedanih praks. Komisija bi morala do 2. avgusta 2028 in nato vsaka štiri leta oceniti tudi potrebo po spremembi seznama področij z visokim tveganjem iz ene od prilog k tej uredbi, sisteme UI, ki spadajo na področje uporabe obveznosti glede preglednosti, učinkovitost sistema nadzora in upravljanja ter napredek pri razvoju standardizacijskih dokumentov o energetsko učinkovitem razvoj modelov UI za splošno rabo, vključno s potrebo po nadaljnjih ukrepih ali dejavnostih, ter o tem poročati Evropskemu parlamentu in Svetu. Komisija bi morala do 2. avgusta 2028 ter nato vsaka tri leta oceniti učinek in učinkovitost prostovoljnih kodeksov ravnanja za spodbujanje uporabe zahtev, ki veljajo za visokotvegane sisteme UI, za sisteme UI, ki niso visokotvegani sistemi UI, ter morebitnih drugih dodatnih zahtev za takšne sisteme UI.
(174)
Z uwagi na szybki rozwój technologiczny i wiedzę techniczną wymaganą do skutecznego stosowania niniejszego rozporządzenia, Komisja powinna dokonać oceny i przeglądu niniejszego rozporządzenia do dnia 2 sierpnia 2029 r., a następnie co cztery lata oraz składać sprawozdania Parlamentowi Europejskiemu i Radzie. Ponadto ze względu na skutki dla zakresu stosowania niniejszego rozporządzenia Komisja powinna raz w roku ocenić, czy konieczne jest wprowadzenie zmian w wykazie systemów AI wysokiego ryzyka i w wykazie zakazanych praktyk. Dodatkowo do dnia 2 sierpnia 2028 r., a następnie co cztery lata, Komisja powinna ocenić, czy należy wprowadzić zmiany w wykazie nagłówków dotyczących obszarów wysokiego ryzyka zawartym w załączniku do niniejszego rozporządzenia, zmiany w zakresie systemów AI objętych obowiązkami w zakresie przejrzystości, zmiany służące skuteczności systemu nadzoru i zarządzania oraz ocenić postępy w opracowywaniu dokumentów normalizacyjnych dotyczących efektywnego energetycznie rozwoju modeli AI ogólnego przeznaczenia, w tym potrzebę wprowadzenia dalszych środków lub działań, a następnie przekazać sprawozdania z tych ocen Parlamentowi Europejskiemu i Radzie. Ponadto do dnia 2 sierpnia 2028 r., a następnie co trzy lata, Komisja powinna oceniać wpływ i skuteczność dobrowolnych kodeksów postępowania pod względem wspierania stosowania wymogów przewidzianych w przypadku systemów AI wysokiego ryzyka do systemów AI innych niż systemy AI wysokiego ryzyka oraz ewentualnie innych dodatkowych wymogów dotyczących takich systemów AI.
(175)
Da se zagotovijo enotni pogoji za izvajanje te uredbe, bi bilo treba na Komisijo prenesti izvedbena pooblastila. Ta pooblastila bi bilo treba izvajati v skladu z Uredbo (EU) št. 182/2011 Evropskega parlamenta in Sveta (56).
(175)
W celu zapewnienia jednolitych warunków wykonywania niniejszego rozporządzenia należy powierzyć Komisji uprawnienia wykonawcze. Uprawnienia te powinny być wykonywane zgodnie z rozporządzeniem Parlamentu Europejskiego i Rady (UE) nr 182/2011 (56).
(176)
Ker cilja te uredbe, in sicer izboljšati delovanje notranjega trga in spodbujati uvajanje na človeka osredotočene in zaupanja vredne UI, ob zagotavljanju visoke ravni varovanja zdravja, varnosti, temeljnih pravic iz Listine, vključno z demokracijo, pravno državo in varstvom okolja, pred škodljivimi učinki sistemov UI v Uniji ter podpiranju inovacij, države članice ne morejo zadovoljivo doseči, temveč se zaradi obsega ali učinka ukrepa lažje doseže na ravni Unije, lahko Unija sprejme ukrepe v skladu z načelom subsidiarnosti iz člena 5 PEU. V skladu z načelom sorazmernosti iz navedenega člena ta uredba ne presega tistega, kar je potrebno za doseganje navedenega cilja.
(176)
Ponieważ cel niniejszego rozporządzenia, a mianowicie poprawa funkcjonowania rynku wewnętrznego i promowanie upowszechniania zorientowanej na człowieka i godnej zaufania AI, przy jednoczesnym zapewnieniu wysokiego poziomu ochrony zdrowia, bezpieczeństwa i praw podstawowych zapisanych w Karcie, w tym demokracji, praworządności i ochrony środowiska przed szkodliwymi skutkami systemów AI w Unii, oraz wspieranie innowacji, nie może zostać osiągnięty w sposób wystarczający przez państwa członkowskie, natomiast ze względu na rozmiary lub skutki działania możliwe jest jego lepsze osiągnięcie na poziomie Unii, może ona podjąć działania zgodnie z zasadą pomocniczości określoną w art. 5 TUE. Zgodnie z zasadą proporcjonalności określoną w tym artykule niniejsze rozporządzenie nie wykracza poza to, co jest konieczne do osiągnięcia tego celu.
(177)
Da se zagotovita pravna varnost in ustrezno prilagoditveno obdobje za operaterje ter preprečijo motnje na trgu, vključno z zagotavljanjem neprekinjene uporabe sistemov UI, je primerno, da se ta uredba uporablja za visokotvegane sisteme UI, ki so bili dani na trg ali v uporabo pred splošnim datumom začetka njene uporabe, le, če se pri navedenih sistemih z navedenim datumom bistveno spremeni njihova zasnova ali predvideni namen. Primerno je pojasniti, da bi bilo treba v zvezi s tem koncept bistvene spremembe razumeti kot vsebinsko enakovreden pojmu bistvene spremembe, ki se uporablja samo za visokotvegane sisteme UI na podlagi te uredbe. Tako upravljavci sistemov UI, ki so komponente obsežnih informacijskih sistemov, vzpostavljenih s pravnimi akti iz ene od prilog k tej uredbi, kot tudi operaterji visokotveganih sistemov UI, ki naj bi jih uporabljali javni organi, bi morali izjemoma in glede na javno odgovornost sprejeti potrebne ukrepe za dosego skladnosti z zahtevami iz te uredbe do konca leta 2030 oziroma do 2. avgusta 2030.
(177)
Aby zapewnić pewność prawa, zapewnić operatorom odpowiedni okres na dostosowanie się i uniknąć zakłóceń na rynku, w tym dzięki zapewnieniu ciągłości korzystania z systemów AI, niniejsze rozporządzenie należy stosować do systemów AI wysokiego ryzyka, które zostały wprowadzone do obrotu lub oddane do użytku przed ogólną datą rozpoczęcia jego stosowania, tylko wtedy, gdy po tej dacie w systemach tych wprowadzane będą istotne zmiany dotyczące ich projektu lub przeznaczeniu. Należy wyjaśnić, że w tym względzie pojęcie istotnej zmiany należy rozumieć jako równoważne znaczeniowo z pojęciem istotnej zmiany, które stosuje się wyłącznie w odniesieniu do systemów AI wysokiego ryzyka zgodnie z niniejszym rozporządzeniem. W drodze wyjątku i z uwagi na odpowiedzialność publiczną, operatorzy systemów AI, które są elementami wielkoskalowych systemów informatycznych ustanowionych na mocy aktów prawnych wymienionych w załączniku do niniejszego rozporządzenia, oraz operatorzy systemów AI wysokiego ryzyka, które mają być wykorzystywane przez organy publiczne, powinni odpowiednio podjąć niezbędne kroki w celu spełnienia wymogów niniejszego rozporządzenia do końca 2030 r. i do dnia 2 sierpnia 2030 r.
(178)
Ponudnike visokotveganih sistemov UI se spodbuja, da že v prehodnem obdobju začnejo prostovoljno izpolnjevati ustrezne obveznosti iz te uredbe.
(178)
Dostawców systemów AI wysokiego ryzyka zachęca się, by już w okresie przejściowym przystąpili do dobrowolnego spełniania odpowiednich obowiązków ustanowionych w niniejszym rozporządzeniu.
(179)
Ta uredba se uporablja od 2. avgusta 2026. Vendar bi bilo treba zaradi nesprejemljivega tveganja, povezanega z uporabo UI na določene načine, prepovedi ter splošne določbe te uredbe uporabljati že od 2. februarja 2025. Čeprav bodo te prepovedi polno učinkovale šele po vzpostavitvi upravljanja in izvrševanja te uredbe, je pomembno predvideti uporabo prepovedi, da se upoštevajo nesprejemljiva tveganja in zato, da bi to vplivalo na druge postopke, kot denimo v civilnem pravu. Poleg tega bi morala infrastruktura, povezana z upravljanjem in sistemom ugotavljanja skladnosti, začeti delovati pred 2. avgustom 2026, zato bi bilo treba določbe o priglašenih organih in strukturi upravljanja uporabljati od 2. avgusta 2025. Glede na hiter tehnološki napredek in sprejetje modelov UI za splošne namene bi bilo treba obveznosti za ponudnike modelov UI za splošne namene uporabljati od 2. avgusta 2025. Kodekse prakse bi bilo treba pripraviti najpozneje do 2. maja 2025, da bi ponudniki lahko pravočasno dokazali skladnost. Urad za UI bi moral zagotavljati posodabljanje pravil in postopkov razvrščanja glede na tehnološki razvoj. Poleg tega bi morale države članice določiti pravila o kaznih, vključno z upravnimi globami, in o njih uradno obvestiti Komisijo ter do datuma začetka uporabe te uredbe zagotoviti, da jih bodo učinkovito izvajale. Zato bi bilo treba določbe o kaznih uporabljati od 2. avgusta 2025.
(179)
Niniejsze rozporządzenie należy stosować od dnia 2 sierpnia 2026 r. Biorąc jednak pod uwagę niedopuszczalne ryzyko związane z niektórymi sposobami wykorzystania AI, zakazy oraz przepisy ogólne niniejszego rozporządzenia należy stosować już od dnia 2 lutego 2025 r. Chociaż pełne skutki tych zakazów zrealizowane zostaną w momencie ustanowienia zarządzania i egzekwowania niniejszego rozporządzenia, wcześniejsze ich stosowanie jest ważne, by uwzględnić niedopuszczalne ryzyko i wywrzeć wpływ na inne procedury, np. w prawie cywilnym. Ponadto infrastruktura związana z zarządzaniem i systemem oceny zgodności powinna być gotowa przed dniem 2 sierpnia 2026 r., w związku z czym przepisy dotyczące jednostek notyfikowanych oraz struktury zarządzania należy stosować od dnia 2 sierpnia 2025 r. Biorąc pod uwagę szybkie tempo postępu technologicznego i przyjęcie modeli AI ogólnego przeznaczenia, obowiązki dostawców modeli AI ogólnego przeznaczenia należy stosować od dnia 2 sierpnia 2025 r. Kodeksy praktyk powinny być gotowe do dnia 2 maja 2025 r., tak aby umożliwić dostawcom terminowe wykazanie zgodności. Urząd ds. AI powinien zapewniać aktualność zasad i procedur klasyfikacji w świetle rozwoju technologicznego. Ponadto państwa członkowskie powinny ustanowić przepisy dotyczące kar, w tym administracyjnych kar pieniężnych i powiadomić o nich Komisję oraz zapewnić ich właściwe i skuteczne wdrożenie przed dniem rozpoczęcia stosowania niniejszego rozporządzenia. Przepisy dotyczące kar należy zatem stosować od dnia 2 sierpnia 2025 r.
(180)
V skladu s členom 42(1) in (2) Uredbe (EU) 2018/1725 je bilo opravljeno posvetovanje z Evropskim nadzornikom za varstvo podatkov in Evropskim odborom za varstvo podatkov, ki sta dala mnenje 18. junija 2021 –
(180)
Zgodnie z art. 42 ust. 1 i 2 rozporządzenia (UE) 2018/1725 skonsultowano się z Europejskim Inspektorem Ochrony Danych i Europejską Radą Ochrony Danych, którzy wydali wspólną opinię dnia 18 czerwca 2021 r.,
SPREJELA NASLEDNJO UREDBO:
PRZYJMUJĄ NINIEJSZE ROZPORZĄDZENIE:
1. Ta uredba se uporablja za:
1. Niniejsze rozporządzenie stosuje się do:
(a)
ponudnike, ki dajejo na trg ali v uporabo sisteme UI ali dajejo na trg modele UI za splošne namene v Uniji, ne glede na to, ali imajo ti ponudniki sedež ali se nahajajo v Uniji ali v tretji državi;
a)
dostawców wprowadzających do obrotu lub oddających do użytku systemy AI lub wprowadzających do obrotu modele AI ogólnego przeznaczenia w Unii, niezależnie od tego, czy dostawcy ci mają siedzibę lub znajdują się w Unii czy w państwie trzecim;
(b)
uvajalce sistemov UI, ki imajo sedež ali se nahajajo v Uniji;
b)
podmiotów stosujących systemy AI, które to podmioty mają siedzibę lub znajdują się w Unii;
(c)
ponudnike in uvajalce sistemov UI, ki imajo sedež ali se nahajajo v tretji državi, kadar se izhodni podatki, ki jih sistem UI ustvari, uporabljajo v Uniji;
c)
dostawców systemów AI i podmiotów stosujących systemy AI, którzy mają siedzibę lub znajdują się w państwie trzecim, w przypadku gdy wyniki wytworzone przez system AI są wykorzystywane w Unii;
(d)
uvoznike in distributerje sistemov UI;
d)
importerów i dystrybutorów systemów AI;
(e)
proizvajalce proizvodov, ki dajejo sistem UI na trg ali v uporabo skupaj s svojim proizvodom in pod svojim imenom ali znamko;
e)
producentów produktu, którzy pod własną nazwą lub znakiem towarowym oraz wraz ze swoim produktem wprowadzają do obrotu lub oddają do użytku system AI;
(f)
pooblaščene zastopnike ponudnikov, ki nimajo sedeža v Uniji;
f)
upoważnionych przedstawicieli dostawców niemających siedziby w Unii;
(g)
osebe, ki jih zadeva in se nahajajo v Uniji.
g)
osób, na które AI ma wpływ i które znajdują się w Unii.
2. Za sisteme UI, ki so razvrščeni med visoko tvegane sisteme UI v skladu s členom 6(1) v povezavi s proizvodi, zajetimi v harmonizacijski zakonodaji Unije s seznama v Prilogi I, oddelek B, se uporablja samo člen 6(1), členi 102 do 109 in člen 112. Člen 57 se uporablja le, če so bile zahteve za visokotvegane sisteme UI iz te uredbe vključene v to harmonizacijsko zakonodajo Unije.
2. W przypadku systemów AI zaklasyfikowanych jako systemy AI wysokiego ryzyka zgodnie z art. 6 ust. 1 związanych z produktami, które są objęte unijnym prawodawstwem harmonizacyjnym wymienionym w załączniku I sekcja B, stosuje się wyłącznie art. 6 ust. 1, art. 102–109 i art. 112. Art. 57 stosuje się wyłącznie w zakresie, w jakim wymogi dotyczące systemów AI wysokiego ryzyka ustanowione w niniejszym rozporządzeniu zostały włączone do tego unijnego prawodawstwa harmonizacyjnego.
3. Ta uredba se ne uporablja za področja, ki ne spadajo na področje uporabe prava Unije, in v nobenem primeru ne vpliva na pristojnosti držav članic v zvezi z nacionalno varnostjo, ne glede na vrsto subjekta, ki ga države članice pooblastijo za opravljanje nalog v zvezi s temi pristojnostmi.
3. Niniejszego rozporządzenia nie stosuje się do obszarów wykraczających poza zakres stosowania prawa Unii i w żadnym wypadku nie wpływa ono na kompetencje państw członkowskich w zakresie bezpieczeństwa narodowego, niezależnie od rodzaju podmiotu, któremu państwa członkowskie powierzyły wykonywanie zadań związanych z tymi kompetencjami.
Ta uredba se ne uporablja za sisteme UI, kadar in kolikor so s spremembami ali brez njih dani na trg ali v uporabo oziroma se uporabljajo izključno za vojaške, obrambne ali nacionalne varnostne namene, ne glede na vrsto subjekta, ki izvaja te dejavnosti.
Niniejszego rozporządzenia nie stosuje się do systemów AI, jeżeli – i w zakresie, w jakim – wprowadzono je do obrotu, oddano do użytku lub są one wykorzystywane, ze zmianami lub bez zmian, wyłącznie do celów wojskowych, obronnych lub do celów bezpieczeństwa narodowego, niezależnie od rodzaju podmiotu prowadzącego te działania.
Ta uredba se ne uporablja za sisteme UI, ki niso dani na trg ali v uporabo v Uniji, kadar se izhodni podatki uporabljajo v Uniji izključno za vojaške, obrambne ali nacionalne varnostne namene, ne glede na vrsto subjekta, ki izvaja te dejavnosti.
Niniejszego rozporządzenia nie stosuje się do systemów AI, które nie zostały wprowadzone do obrotu ani oddane do użytku w Unii, a których wyniki są wykorzystywane w Unii wyłącznie do celów wojskowych, obronnych lub de celów bezpieczeństwa narodowego, niezależnie od rodzaju podmiotu prowadzącego te działania.
4. Ta uredba se ne uporablja za javne organe v tretji državi in mednarodne organizacije, ki spadajo na področje uporabe te uredbe na podlagi odstavka 1, kadar ti organi ali organizacije uporabljajo sisteme UI v okviru mednarodnega sodelovanja ali sporazumov za sodelovanje na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ter za sodelovanje na področju pravosodja z Unijo ali z eno ali več državami članicami, pod pogojem, da ta tretja država ali mednarodna organizacija zagotovi ustrezne zaščitne ukrepe v zvezi z varstvom temeljnih pravic in svoboščin posameznikov.
4. Niniejszego rozporządzenia nie stosuje się do organów publicznych w państwie trzecim ani do organizacji międzynarodowych objętych zakresem stosowania niniejszego rozporządzenia na podstawie ust. 1, jeżeli te organy lub organizacje wykorzystują systemy AI w ramach współpracy międzynarodowej lub umów międzynarodowych w sprawie ścigania przestępstw i współpracy sądowej zawartych z Unią lub z jednym państwem członkowskim bądź ich większą liczbą, pod warunkiem zapewnienia przez to państwo trzecie lub organizację międzynarodową odpowiednich zabezpieczeń w odniesieniu do ochrony podstawowych praw i wolności osób fizycznych.
5. Ta uredba ne vpliva na uporabo določb o odgovornosti ponudnikov posredniških storitev iz poglavja II Uredbe (EU) 2022/2065.
5. Niniejsze rozporządzenie nie ma wpływu na stosowanie przepisów dotyczących odpowiedzialności dostawców usług pośrednich określonych w rozdziale II rozporządzenia (UE) 2022/2065.
6. Ta uredba se ne uporablja za sisteme UI ali modele UI, vključno z njihovimi izhodnimi podatki, posebej razvite in dane v uporabo zgolj za namene znanstvenih raziskav in razvoja.
6. Niniejszego rozporządzenia nie stosuje się do systemów AI lub modeli AI, w tym ich wyników, rozwiniętych i oddanych do użytku wyłącznie do celów badań naukowych i rozwojowych.
7. Pravo Unije o varstvu osebnih podatkov, zasebnosti in zaupnosti komunikacij se uporablja za osebne podatke, ki se obdelujejo v zvezi s pravicami in obveznostmi iz te uredbe. Brez poseganja v člen 10(5) in člen 59 te uredbe ta uredba ne vpliva na Uredbo (EU) 2016/679 ali (EU) 2018/1725 ali Direktivo 2002/58/ES ali (EU) 2016/680.
7. Prawo Unii w zakresie ochrony danych osobowych, prywatności i poufności komunikacji stosuje się do danych osobowych przetwarzanych w związku z prawami i obowiązkami ustanowionymi w niniejszym rozporządzeniu. Niniejsze rozporządzenie nie ma wpływu na rozporządzenia (UE) 2016/679 lub (UE) 2018/1725, ani na dyrektywy 2002/58/WE lub (UE) 2016/680, bez uszczerbku dla art. 10 ust. 5 i art. 59 niniejszego rozporządzenia.
8. Ta uredba se ne uporablja za raziskovalne dejavnosti, dejavnosti testiranja ali razvojne dejavnosti v zvezi z sistemi UI ali modeli UI, preden se ti dajo na trg ali v uporabo. Te dejavnosti se morajo izvajati v skladu z veljavnim pravom Unije. Ta izključitev ne zajema testiranja v realnih razmerah.
8. Niniejszego rozporządzenia nie stosuje się do żadnej działalności badawczej, testowej ani rozwojowej dotyczącej systemów AI lub modeli AI przed wprowadzeniem ich do obrotu lub oddaniem ich do użytku. Działalność tego rodzaju prowadzona jest zgodnie z mającym zastosowanie prawem Unii. Niniejsze wyłączenie nie obejmuje testów w warunkach rzeczywistych.
9. Ta uredba ne posega v pravila, določena v drugih pravnih aktih Unije v zvezi z varstvom potrošnikov in varnostjo proizvodov.
9. Niniejsze rozporządzenie nie narusza przepisów ustanowionych w innych aktach prawnych Unii dotyczących ochrony konsumentów i bezpieczeństwa produktów.
10. Ta uredba se ne uporablja za obveznosti uvajalcev, ki so fizične osebe in uporabljajo sisteme UI v okviru povsem osebne nepoklicne dejavnosti.
10. Niniejsze rozporządzenie nie stosuje się do obowiązków podmiotów stosujących będących osobami fizycznymi, które korzystają z systemów AI w ramach czysto osobistej działalności pozazawodowej.
11. Ta uredba Uniji ali državam članicam ne preprečuje, da ohranijo ali uvedejo zakone ali druge predpise, ki so za delavce ugodnejši v smislu varstva njihovih pravic v zvezi z delodajalčevo uporabo sistemov UI, ali da spodbujajo ali dovolijo uporabo kolektivnih pogodb, ki so za delavce ugodnejše.
11. Niniejsze rozporządzenie nie uniemożliwia Unii ani państwom członkowskim utrzymywania lub wprowadzania przepisów ustawowych, wykonawczych lub administracyjnych, które są korzystniejsze dla pracowników pod względem ochrony ich praw w odniesieniu do korzystania z systemów AI przez pracodawców, ani zachęcania do stosowania korzystniejszych dla pracowników układów zbiorowych lub zezwalania na ich stosowanie.
12. Ta uredba se ne uporablja za sisteme UI, objavljene na podlagi prostih in odprtokodnih licenc, razen če so dani na trg ali v uporabo kot visokotvegani sistemi UI ali sistem UI iz člena 5 ali 50.
12. Niniejszego rozporządzenia nie stosuje się do systemów AI udostępnianych na podstawie bezpłatnych licencji otwartego oprogramowania, chyba że systemy te są wprowadzane do obrotu lub oddawane do użytku jako systemy AI wysokiego ryzyka lub jako system AI objęty art. 5 lub 50.
Zakazane praktyki w zakresie AI
1. Prepovedane so naslednje prakse UI:
1. Zakazuje się następujących praktyk w zakresie AI:
(a)
dajanje na trg, dajanje v uporabo ali uporaba sistema UI, ki uporablja subliminalne tehnike, ki presegajo zavest osebe, ali namerno manipulativne ali zavajajoče tehnike, s ciljem ali učinkom bistvenega izkrivljanja vedenja osebe ali skupine oseb, tako da se znatno zmanjša njihova sposobnost, da sprejmejo informirano odločitev, zaradi česar sprejmejo odločitev, ki je sicer ne bi sprejeli, na način, ki tej osebi, drugi osebi ali skupini oseb povzroči znatno škodo ali za katerega obstaja razumna verjetnost, da bo povzročil znatno škodo;
a)
wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemu AI, który stosuje techniki podprogowe będące poza świadomością danej osoby lub celowe techniki manipulacyjne lub wprowadzające w błąd, czego celem lub skutkiem jest dokonanie znaczącej zmiany zachowania danej osoby lub grupy osób poprzez znaczące ograniczenie ich zdolności do podejmowania świadomych decyzji, powodując tym samym podjęcie przez nie decyzji, której inaczej by nie podjęły, w sposób, który wyrządza lub może wyrządzić u niej, u innej osoby lub u grupy osób poważną szkodę;
(b)
dajanje na trg, dajanje v uporabo ali uporaba sistema UI, ki izkorišča katere koli šibke točke fizične osebe ali določene skupine oseb zaradi njihove starosti, invalidnosti ali posebnega socialnega ali ekonomskega položaja, s ciljem ali učinkom, bistvenega izkrivljanja vedenja te osebe ali osebe iz te skupine na način, ki tej ali drugi osebi povzroči znatno škodo ali za katerega obstaja razumna verjetnost, da bo povzročil znatno škodo;
b)
wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemu AI, który wykorzystuje słabości osoby fizycznej lub określonej grupy osób ze względu na ich wiek, niepełnosprawność lub szczególną sytuację społeczną lub ekonomiczną, którego celem lub skutkiem jest dokonanie znaczącej zmiany zachowania danej osoby lub osoby należącej do tej grupy w sposób, który wyrządza lub może z uzasadnionym prawdopodobieństwem wyrządzić u tej osoby lub u innej osoby poważną szkodę;
(c)
dajanje na trg, dajanje v uporabo ali uporaba sistemov UI za ocenjevanje ali razvrščanje fizičnih oseb ali skupin, ki jim pripadajo, v določenem časovnem obdobju na podlagi njihovega družbenega vedenja ali znanih, predpostavljenih ali predvidenih osebnih ali osebnostnih značilnosti, pri čemer število družbenih točk privede do ene ali obeh naslednjih možnosti:
c)
wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemów AI na potrzeby oceny lub klasyfikacji osób fizycznych lub grup osób prowadzonej przez określony czas na podstawie ich zachowania społecznego lub znanych, wywnioskowanych lub przewidywanych cech osobistych lub cech osobowości, kiedy to scoring społeczny prowadzi do jednego lub obu z następujących skutków:
(i)
škodljiva ali neugodna obravnava nekaterih fizičnih oseb ali skupin oseb v družbenih okoliščinah, ki niso povezane s konteksti, v katerih so bili podatki prvotno ustvarjeni ali zbrani;
(i)
krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub grup osób w kontekstach społecznych, które nie są związane z kontekstami, w których pierwotnie wygenerowano lub zebrano dane;
(ii)
škodljiva ali neugodna obravnava nekaterih fizičnih oseb ali skupin oseb, ki je neupravičena ali nesorazmerna z njihovim družbenim vedenjem ali resnostjo njihovega družbenega vedenja;
(ii)
krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub grup osób, które jest nieuzasadnione lub nieproporcjonalne do ich zachowania społecznego lub jego wagi;
(d)
dajanje na trg, dajanje v uporabo za ta posebni namen ali uporaba sistema UI za ocenjevanje tveganja v zvezi s fizičnimi osebami, da se oceni ali predvidi, kakšno je tveganje, da bo fizična oseba storila kaznivo dejanje, izključno na podlagi oblikovanja profila fizične osebe ali ocenjevanja njenih osebnostnih lastnosti in značilnosti; ta prepoved se ne uporablja za sisteme UI, ki se uporabljajo za podporo človeški oceni vpletenosti osebe v kriminalno dejavnost, ki že temelji na objektivnih in preverljivih dejstvih, neposredno povezanih s kriminalno dejavnostjo;
d)
wprowadzania do obrotu, oddawania do użytku w tym konkretnym celu lub wykorzystywania systemu AI do przeprowadzania ocen ryzyka w odniesieniu do osób fizycznych, by ocenić lub przewidzieć ryzyko popełnienia przestępstwa przez osobę fizyczną, wyłącznie na podstawie profilowania osoby fizycznej lub oceny jej cech osobowości i cech charakterystycznych; zakaz ten nie ma zastosowania do systemów AI wykorzystywanych do wspierania dokonywanej przez człowieka oceny udziału danej osoby w działalności przestępczej, która to ocena opiera się już na obiektywnych i weryfikowalnych faktach bezpośrednio związanych z działalnością przestępczą;
(e)
dajanje na trg, dajanje v uporabo za ta posebni namen ali uporaba sistemov UI, ki z neciljnim odvzemom podob obraza z interneta ali s posnetkov kamer CCTV ustvarjajo ali širijo podatkovne zbirke za prepoznavanje obraza;
e)
wprowadzania do obrotu, oddawania do użytku w tym konkretnym celu lub wykorzystywania systemów AI, które tworzą lub rozbudowują bazy danych służące rozpoznawaniu twarzy poprzez nieukierunkowane pozyskiwanie (ang. untargeted scraping) wizerunków twarzy z internetu lub nagrań z telewizji przemysłowej;
(f)
dajanje na trg, dajanje v uporabo za ta posebni namen ali uporaba sistemov UI za sklepanje o čustvih fizične osebe na delovnem mestu in v izobraževalnih ustanovah, razen kadar je uporaba sistema UI namenjena uvedbi ali dajanju na trg iz zdravstvenih ali varnostnih razlogov;
f)
wprowadzania do obrotu, oddawania do użytku w tym konkretnym celu lub wykorzystywania systemów AI do wyciągania wniosków na temat emocji osoby fizycznej w miejscu pracy lub instytucjach edukacyjnych, z wyjątkiem przypadków, w których system AI ma zostać wdrożony lub wprowadzony do obrotu ze względów medycznych lub bezpieczeństwa;
(g)
dajanje na trg, dajanje v uporabo za ta posebni namen ali uporaba sistemov za biometrično kategorizacijo, ki posameznike razvrščajo na podlagi njihovih biometričnih podatkov, da bi prišli do sklepov ali ugotovitev glede njihove rase, političnega prepričanja, članstva v sindikatu, verskega ali filozofskega prepričanja, spolnega življenja ali spolne usmerjenosti; ta prepoved ne zajema označevanja ali filtriranja zakonito pridobljenih naborov biometričnih podatkov, kot so slike, na podlagi biometričnih podatkov ali kategorizacije biometričnih podatkov na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj;
g)
wprowadzania do obrotu, oddawania do użytku w tym konkretnym celu lub wykorzystywania systemów kategoryzacji biometrycznej, które indywidualnie kategoryzują osoby fizyczne w oparciu o ich dane biometryczne, by wydedukować lub wywnioskować informacje na temat ich rasy, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych lub światopoglądowych, seksualności lub orientacji seksualnej; zakaz ten nie obejmuje przypadków etykietowania ani filtrowania pozyskanych zgodnie z prawem zbiorów danych biometrycznych, takich jak obrazy, w oparciu o dane biometryczne, ani kategoryzacji danych biometrycznych w obszarze ścigania przestępstw;
(h)
uporaba sistemov za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, razen če je taka uporaba nujno potrebna za enega od naslednjih ciljev:
h)
wykorzystywania systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw, chyba że – i w zakresie, w jakim – takie wykorzystanie jest bezwzględnie konieczne do jednego z następujących celów:
(i)
ciljno usmerjeno iskanje določenih žrtev ugrabitev, trgovine z ljudmi ali spolnega izkoriščanja ljudi ter iskanje pogrešanih oseb;
(i)
ukierunkowanego poszukiwania konkretnych ofiar uprowadzeń, handlu ludźmi lub wykorzystywania seksualnego ludzi, a także poszukiwania osób zaginionych;
(ii)
preprečitev konkretne, znatne in neposredne nevarnosti za življenje ali fizično varnost fizičnih oseb ali resnične in sedanje ali resnične in predvidljive grožnje terorističnega napada;
(ii)
zapobiegnięcia konkretnemu, istotnemu i bezpośredniemu zagrożeniu życia lub bezpieczeństwa fizycznego osób fizycznych lub rzeczywistemu i aktualnemu lub rzeczywistemu i dającemu się przewidzieć zagrożeniu atakiem terrorystycznym;
(iii)
lokalizacija ali identifikacija osebe, osumljene storitve kaznivega dejanja, za namen izvajanja kazenske preiskave ali pregona ali izvršitve kazenske sankcije za kazniva dejanja iz Priloge II, za katera je v zadevni državi članici predpisana zgornja meja zaporne kazni ali ukrepa, vezanega na odvzem prostosti, najmanj štiri leta.
(iii)
lokalizowania lub identyfikowania osoby podejrzanej o popełnienie przestępstwa w celu prowadzenia postępowania przygotowawczego lub ścigania lub wykonania kar w odniesieniu do przestępstw, o których mowa w załączniku II, podlegających w danym państwie członkowskim karze pozbawienia wolności lub środkowi polegającemu na pozbawieniu wolności przez okres, którego górna granica wynosi co najmniej cztery lata.
Točka (h) prvega pododstavka ne posega v člen 9 Uredbe (EU) 2016/679 v zvezi z obdelavo biometričnih podatkov za namene, ki niso preprečevanje, odkrivanje in preiskovanje kaznivih dejanj.
Akapit pierwszy lit. h) pozostaje bez uszczerbku dla art. 9 rozporządzenia (UE) 2016/679 w odniesieniu do przetwarzania danych biometrycznych do celów innych niż ściganie przestępstw.
2. Sistemi za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj za katerega koli od ciljev iz odstavka 1, prvi pododstavek, točka (h), se uporabljajo za namene iz navedene točke, samo da se potrdi identiteta točno določenega posameznika, pri čemer se upoštevajo naslednji elementi:
2. Systemy zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw w odniesieniu do któregokolwiek z celów, o których mowa w ust. 1 akapit pierwszy lit. h), mogą być wykorzystywane do celów określonych w tej literze, jedynie w celu potwierdzenia tożsamości konkretnej poszukiwanej osoby, z uwzględnieniem przy tym następujących elementów:
(a)
narava razmer, ki povzročajo morebitno uporabo, zlasti resnost, verjetnost in obseg škode, ki bi bila povzročena, če se sistem ne bi uporabljal;
a)
charakter sytuacji powodującej konieczność ewentualnego wykorzystania takiego systemu, w szczególności powagę, prawdopodobieństwo i skalę szkody, która zostałaby wyrządzona w przypadku niewykorzystania tego systemu;
(b)
posledice uporabe sistema za pravice in svoboščine vseh zadevnih oseb, zlasti resnost, verjetnost in obseg teh posledic.
b)
konsekwencje wykorzystania takiego systemu dla praw i wolności wszystkich zainteresowanych osób, w szczególności powagę, prawdopodobieństwo i skalę tych konsekwencji.
Poleg tega mora biti uporaba sistemov za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj za katerega koli od ciljev iz odstavka 1, prvi pododstavek, točka (h), tega člena skladna s potrebnimi in sorazmernimi zaščitnimi ukrepi in pogoji v zvezi z uporabo po nacionalnem pravu, ki dovoljuje njihovo uporabo, zlasti kar zadeva časovne, geografske in osebne omejitve. Uporaba sistema za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih se dovoli le, če je organ za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj opravil oceno učinka na temeljne pravice iz člena 27 in sistem registriral v podatkovni zbirki EU v skladu s členom 49. Vendar se lahko v ustrezno utemeljenih nujnih primerih uporaba takšnih sistemov začne brez registracije v podatkovni zbirki EU, če se takšna registracija zaključi brez nepotrebnega odlašanja.
Ponadto wykorzystywanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw w odniesieniu do któregokolwiek z celów, o których mowa w ust. 1 akapit pierwszy lit. h) niniejszego artykułu, musi przebiegać z zachowaniem niezbędnych i proporcjonalnych zabezpieczeń i warunków w odniesieniu do takiego wykorzystywania zgodnie z zezwalającym na takie wykorzystanie prawem krajowym, w szczególności w odniesieniu do ograniczeń czasowych, geograficznych i osobowych. Wykorzystanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej jest dozwolone tylko wtedy, gdy organ ścigania przeprowadził ocenę skutków dla praw podstawowych zgodnie z art. 27 oraz zarejestrował system w bazie danych UE zgodnie z przepisami art. 49. W należycie uzasadnionych nadzwyczajnych przypadkach można jednak rozpocząć korzystanie z takich systemów bez rejestracji w bazie danych UE, pod warunkiem że taka rejestracja zostanie dokonana bez zbędnej zwłoki.
3. Za namene odstavka 1, prvi pododstavek, točka (h), in odstavka 2 je za vsako uporabo sistema za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj treba pridobiti predhodno dovoljenje sodnega organa ali neodvisnega upravnega organa, katerega odločitev je zavezujoča za državo članico, v kateri bo potekala uporaba, izdano na podlagi obrazložene zahteve in v skladu s podrobnimi pravili nacionalnega prava iz odstavka 5. Vendar se lahko v ustrezno utemeljenih nujnih primerih uporaba takšnega sistema začne brez dovoljenja, pod pogojem, da se takšno dovoljenje zahteva brez nepotrebnega odlašanja in najpozneje v 24 urah. Če se takšno dovoljenje zavrne, se njegova uporaba takoj ustavi, vsi podatki ter izhodni podatki in izsledki, ki izhajajo iz te uporabe, pa se takoj zavržejo in izbrišejo.
3. Na potrzeby ust. 1 akapit pierwszy lit. h) i ust. 2, każde wykorzystanie systemu zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw wymaga uzyskania uprzedniego zezwolenia udzielonego przez organ wymiaru sprawiedliwości lub wydający wiążące decyzje niezależny organ administracyjny państwa członkowskiego, w którym ma nastąpić wykorzystanie; zezwolenie to wydawane jest na uzasadniony wniosek i zgodnie ze szczegółowymi przepisami prawa krajowego, o których mowa w ust. 5. W należycie uzasadnionych pilnych przypadkach korzystanie z takiego systemu można jednak rozpocząć bez zezwolenia, pod warunkiem że wniosek o takie zezwolenie zostanie złożony bez zbędnej zwłoki, najpóźniej w ciągu 24 godzin. W przypadku odmowy udzielenia takiego zezwolenia wykorzystywanie systemu wstrzymuje się ze skutkiem natychmiastowym, a wszystkie dane, a także rezultaty i wyniki uzyskane podczas tego wykorzystania musza zostać natychmiast odrzucone i usunięte.
Pristojni sodni organ ali neodvisni upravni organ, katerega odločitev je zavezujoča, izda dovoljenje samo v primeru, kadar se na podlagi objektivnih dokazov ali jasnih navedb, ki so mu bili predloženi, prepriča, da je uporaba zadevnega sistema za biometrično identifikacijo na daljavo v realnem času potrebna in sorazmerna za doseganje enega od ciljev iz odstavka 1, prvi pododstavek, točka (h), kot je opredeljeno v zahtevi, in zlasti ostaja omejena na to, kar je nujno potrebno v zvezi z obdobjem ter geografskim in osebnim področjem uporabe. Pri odločanju o zahtevi ta organ upošteva elemente iz odstavka 2. Nobena odločitev, ki ima škodljiv pravni učinek na osebo, se ne sme sprejeti samo na podlagi izhodnih podatkov sistema za biometrično identifikacijo na daljavo v realnem času.
Właściwy organ wymiaru sprawiedliwości lub wydający wiążące decyzje niezależny organ administracyjny udziela zezwolenia tylko wtedy, gdy jest przekonany, na podstawie obiektywnych dowodów lub jasnych przesłanek, które mu przedstawiono, że wykorzystanie danego systemu zdalnej identyfikacji biometrycznej w czasie rzeczywistym jest konieczne i proporcjonalne do osiągnięcia jednego z celów określonych w ust. 1 akapit pierwszy lit. h), wskazanego we wniosku, a w szczególności ogranicza się do tego, co jest bezwzględnie konieczne w odniesieniu do przedziału czasowego, a także zakresu geograficznego i podmiotowego. Podejmując decyzję w sprawie wniosku organ ten bierze pod uwagę elementy, o których mowa w ust. 2. Nie można wydać decyzji wywołującej niepożądane skutki prawne dla danej osoby wyłącznie na podstawie wyników uzyskanych z systemu zdalnej identyfikacji biometrycznej w czasie rzeczywistym.
4. Brez poseganja v odstavek 3 je treba o vsaki uporabi sistema za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj uradno obvestiti ustrezni organ za nadzor trga in nacionalni organ za varstvo podatkov v skladu z nacionalnimi pravili iz odstavka 5. Obvestilo vsebuje vsaj informacije iz odstavka 6 in ne vključuje občutljivih operativnih podatkov.
4. Bez uszczerbku dla ust. 3, o każdym wykorzystaniu systemu zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw powiadamia się właściwy organ nadzoru rynku i krajowy organ ochrony danych zgodnie z przepisami prawa krajowego, o których mowa w ust. 5. Powiadomienie zawiera co najmniej informacje określone w ust. 6 i nie może zawierać wrażliwych danych operacyjnych.
5. Država članica se lahko odloči, da v okviru omejitev in pod pogoji iz odstavka 1, prvi pododstavek, točka (h), ter odstavkov 2 in 3 v celoti ali delno dovoli uporabo sistemov za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj. Zadevne države članice v svojem nacionalnem pravu določijo potrebna podrobna pravila v zvezi z vložitvijo zahteve za dovoljenja iz odstavka 3, izdajo, izvrševanjem in spremljanjem teh dovoljenj ter poročanjem v zvezi z njimi. V teh pravilih je tudi določeno, za katere od ciljev iz odstavka 1, prvi pododstavek, točka (h), med drugim tudi, za katera kazniva dejanja iz točke (h)(iii) navedenega odstavka, se lahko pristojnim organom dovoli uporaba teh sistemov za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj. Države članice obvestijo Komisijo o teh pravilih najpozneje 30 dni po njihovem sprejetju. Države članice lahko v skladu s pravom Unije uvedejo strožje zakone o uporabi sistemov za biometrično identifikacijo na daljavo.
5. Państwo członkowskie może podjąć decyzję o wprowadzeniu możliwości pełnego lub częściowego zezwolenia na wykorzystywanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw w granicach i na warunkach wymienionych w ust. 1 akapit pierwszy lit. h) i w ust. 2 i 3. Zainteresowane państwa członkowskie ustanawiają w swoim prawie krajowym niezbędne szczegółowe przepisy dotyczące wniosku o udzielenie zezwoleń, o których mowa w ust. 3, wydawanie i wykonywanie tych zezwoleń oraz ich nadzorowanie składanie sprawozdań w ich sprawie. W przepisach tych określa się również, w odniesieniu do których celów wymienionych w ust. 1 akapit pierwszy lit. h) – w tym w odniesieniu do których przestępstw wymienionych w ust. 1 akapit pierwszy lit. h) ppkt (iii) – właściwe organy mogą uzyskać zezwolenie na wykorzystanie tych systemów do celów celu ścigania przestępstw. Państwa członkowskie powiadamiają Komisję o tych przepisach najpóźniej 30 dni po ich przyjęciu. Państwa członkowskie mogą wprowadzić, zgodnie z prawem Unii, bardziej restrykcyjne przepisy dotyczące wykorzystania systemów zdalnej identyfikacji biometrycznej.
6. Nacionalni organi za nadzor trga in nacionalni organi za varstvo podatkov držav članic, ki so bili na podlagi odstavka 4 obveščeni o uporabi sistemov za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, Komisiji predložijo letna poročila o taki uporabi. V ta namen Komisija državam članicam ter nacionalnim organom za nadzor trga in varstvo podatkov zagotovi predlogo, ki vključuje informacije o številu odločitev, ki jih glede zahtevkov za dovoljenja v skladu z odstavkom 3 sprejmejo pristojni sodni organi ali neodvisni upravni organ, katerega odločitev je zavezujoča, in o njihovih rezultatih.
6. Krajowe organy nadzoru rynku i krajowe organy ochrony danych państw członkowskich, które zostały powiadomione o wykorzystaniu systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw zgodnie z ust. 4, przedkładają Komisji roczne sprawozdania z takiego wykorzystania. W tym celu Komisja przekazuje państwom członkowskim i krajowym organom nadzoru rynku i organom ochrony danych wzór formularza zawierającego informacje na temat liczby decyzji podjętych przez właściwe organy wymiaru sprawiedliwości lub wydający wiążące decyzje niezależny organ administracyjny w odniesieniu do wniosków o udzielenie zezwolenia zgodnie z ust. 3 oraz wyników ich rozpatrzenia.
7. Komisija objavi letna poročila o uporabi sistemov za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj na podlagi zbirnih podatkov v državah članicah, ki temeljijo na letnih poročilih iz odstavka 6. Ta letna poročila ne vključujejo občutljivih operativnih podatkov o povezanih dejavnostih preprečevanja, odkrivanja in preiskovanja kaznivih dejanj.
7. Komisja publikuje roczne sprawozdania na temat wykorzystania systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw, oparte na zagregowanych danych w państwach członkowskich przekazanych w sprawozdaniach rocznych, o których mowa w ust. 6. Te sprawozdania roczne nie mogą zawierać wrażliwych danych operacyjnych dotyczących powiązanych działań w zakresie ścigania przestępstw.
8. Ta člen ne vpliva na prepovedi, ki se uporabljajo, kadar praksa UI krši drugo pravo Unije.
8. Niniejszy artykuł nie ma wpływu na zakazy mające zastosowanie w przypadku, gdy praktyka w zakresie AI narusza inne przepisy prawa Unii.
Pravila razvrstitve za visokotvegane sisteme UI
Zasady klasyfikacji systemów AI wysokiego ryzyka
1. Ne glede na to, ali je sistem UI dan na trg ali v uporabo neodvisno od proizvodov iz točk (a) in (b), se ta sistem UI šteje za visokotvegani, kadar sta izpolnjena oba naslednja pogoja:
1. Bez względu na to, czy system AI wprowadza się do obrotu lub oddaje do użytku niezależnie od produktów, o których mowa w lit. a) i b), taki system AI uznaje się za system wysokiego ryzyka, jeżeli spełnione są oba poniższe warunki:
(a)
sistem UI je namenjen uporabi kot varnostna komponenta proizvoda ali pa je sam sistem UI proizvod, ki ga zajema harmonizacijska zakonodaja Unije iz Priloge I;
a)
system AI jest przeznaczony do wykorzystania jako związany z bezpieczeństwem element produktu objętego unijnym prawodawstwem harmonizacyjnym wymienionym w załączniku I lub sam system AI jest takim produktem;
(b)
za proizvod, katerega varnostna komponenta na podlagi točke (a) je sistem UI, ali za sistem UI, ki je sam proizvod, je treba opraviti ugotavljanje skladnosti s strani tretje osebe zaradi dajanja tega proizvoda na trg ali v uporabo na podlagi harmonizacijske zakonodaje Unije iz Priloge I.
b)
produkt, którego związanym z bezpieczeństwem elementem jest zgodnie z lit. a) system AI, lub sam system AI jako produkt podlegają – na podstawie unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I – ocenie zgodności przez stronę trzecią w związku z wprowadzeniem tego produktu do obrotu lub oddaniem go do użytku.
2. Poleg visokotveganih sistemov UI iz odstavka 1 za visokotvegane sisteme UI štejejo tudi sistemi UI iz Priloge III.
2. Oprócz systemów AI wysokiego ryzyka, o których mowa w ust. 1, za systemy wysokiego ryzyka uznaje się systemy AI, o których mowa w załączniku III.
3. Z odstopanjem od odstavka 2 sistem UI iz Priloge III ne šteje za visokotvegan, kadar ne predstavlja znatnega tveganja škode za zdravje, varnost ali temeljne pravice fizičnih oseb, tudi s tem, da ne vpliva bistveno na izid odločanja.
3. Na zasadzie odstępstwa od ust. 2 systemu AI, o którym mowa w załączniku III, nie uznaje się za system wysokiego ryzyka, w przypadku gdy nie stwarza on znaczącego ryzyka szkody dla zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych, w tym poprzez brak znaczącego wpływu na wynik procesu decyzyjnego.
Prvi pododstavek se uporablja, kadar je izpolnjen kateri koli od naslednjih pogojev:
Akapit pierwszy stosuje się w przypadku, gdy spełniony jest którykolwiek z następujących warunków:
(a)
sistem UI naj bi opravljal omejeno postopkovno nalogo;
a)
system AI jest przeznaczony do wykonywania wąsko określonego zadania proceduralnego;
(b)
namen sistema UI je izboljšati rezultat predhodno zaključene človeške dejavnosti;
b)
system AI jest przeznaczony do poprawienia wyniku zakończonej uprzednio czynności wykonywanej przez człowieka;
(c)
sistem UI je namenjen odkrivanju vzorcev odločanja ali odstopanj od predhodnih vzorcev odločanja in ni namenjen nadomeščanju ali vplivanju na predhodno dokončano človeško oceno brez ustreznega človeškega pregleda ali
c)
system AI jest przeznaczony do wykrywania wzorców podejmowania decyzji lub odstępstw od wzorców podjętych uprzednio decyzji i nie ma na celu zastąpienia ani wywarcia wpływu na zakończoną uprzednio ocenę dokonaną przez człowieka – bez odpowiedniej weryfikacji przez człowieka; lub
(d)
sistem UI je namenjen izvedbi pripravljalne naloge za oceno, ki je pomembna za namene primerov uporabe iz Priloge III.
d)
system AI jest przeznaczony do wykonywania zadań przygotowawczych w kontekście oceny istotnej z punktu widzenia przypadków wykorzystania wymienionych w załączniku III.
Ne glede na prvi pododstavek sistem UI iz Priloge III vedno šteje za visokotvegan, kadar izvaja oblikovanje profila fizičnih oseb.
Niezależnie od akapitu pierwszego system AI, o którym mowa w załączniku III, zawsze uznaje się za system wysokiego ryzyka, w przypadku gdy system ten dokonuje profilowania osób fizycznych.
4. Ponudnik, ki meni, da sistem UI iz Priloge III ne pomeni visokega tveganja, dokumentira svojo oceno, preden se ta sistem da na trg ali v uporabo. Za takega ponudnika velja obveznost registracije iz člena 49(2). Ponudnik na zahtevo pristojnih nacionalnih organov predloži dokumentacijo o oceni.
4. Dostawca, który uważa, że system AI, o którym mowa w załączniku III, nie jest system wysokiego ryzyka, przed wprowadzeniem tego systemu do obrotu lub oddaniem go do użytku dokumentuje swoją ocenę. Taki dostawca podlega obowiązkowi rejestracji określonemu w art. 49 ust. 2. Na wniosek właściwych organów krajowych dostawca przedstawia dokumentację tej oceny.
5. Komisija po posvetovanju z Evropskim odborom za umetno inteligenco (v nadaljnjem besedilu: Odbor) in najpozneje do 2. februarja 2026 zagotovi smernice, v katerih določi praktično izvajanje tega člena v skladu s členom 96, skupaj s celovitim seznamom praktičnih primerov uporabe visokotveganih sistemov UI in sistemov UI brez visokega tveganja.
5. Po konsultacji z Europejską Radą ds. Sztucznej Inteligencji (zwaną dalej „Radą ds. AI”), Komisja przedstawi nie później niż w dniu 2 lutego 2026 r. wytyczne określające praktyczne wdrożenie niniejszego artykułu zgodnie z art. 96 wraz z kompleksowym wykazem praktycznych przykładów przypadków wykorzystania systemów AI, które stanowią przypadki wykorzystania wysokiego ryzyka oraz które nie stanowią przypadków takiego wykorzystania.
6. Na Komisijo se prenese pooblastilo za sprejemanje delegiranih aktov v skladu s členom 97, da bi spremenila odstavek 3, drugi pododstavek, tega člena, s tem da bi k tam določenim pogojem dodala nove pogoje ali jih spremenila, kadar obstajajo konkretni in zanesljivi dokazi o obstoju sistemov UI, ki spadajo na področje uporabe Priloge III, vendar ne predstavljajo znatnega tveganja škode za zdravje, varnost ali temeljne pravice fizičnih oseb.
6. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 97 w celu zmiany akapitu drugiego ust. 3 niniejszego artykułu poprzez dodanie nowych warunków do warunków ustanowionych w tym przepisie lub ich zmianę, w przypadku gdy istnieją konkretne i wiarygodne dowody na istnienie systemów AI, które wchodzą w zakres stosowania załącznika III, ale nie stwarzają znaczącego ryzyka szkody dla zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych.
7. Komisija sprejme delegirane akte v skladu s členom 97, da bi spremenila kateri koli pogoj iz odstavka 3, drugi pododstavek, tega člena, s črtanjem katerih koli tam določenih pogojev, kadar obstajajo konkretni in zanesljivi dokazi, da je to potrebno za ohranjanje ravni varovanja zdravja, varnosti in temeljnih pravic iz te uredbe.
7. Komisja przyjmuje zgodnie z art 97 akty delegowane w celu zmiany akapitu drugiego ust. 3 niniejszego artykułu poprzez usunięcie któregokolwiek z warunków ustanowionych w tym przepisie, w przypadku gdy istnieją konkretne i wiarygodne dowody na to, że jest to konieczne w celu utrzymania poziomu ochrony zdrowia, bezpieczeństwa i praw podstawowych przewidzianego w niniejszym rozporządzeniu.
8. Nobena sprememba pogojev iz odstavka 3, drugi pododstavek, sprejeta v skladu z odstavkoma 6 in 7 tega člena, ne zmanjša splošne ravni varovanja zdravja, varnosti in temeljnih pravic iz te uredbe ter zagotovi skladnost z delegiranimi akti, sprejetimi na podlagi člena 7(1), ter upošteva tržni in tehnološki razvoj.
8. Zmiana warunków ustanowionych w ust. 3 akapit drugi, przyjęta zgodnie z ust. 6 i 7 niniejszego artykułu, nie może prowadzić do obniżenia ogólnego poziomu ochrony zdrowia, bezpieczeństwa i praw podstawowych przewidzianego w niniejszym rozporządzeniu i musi zapewniać spójność z aktami delegowanymi przyjętymi zgodnie z art. 7 ust. 1 oraz uwzględniać rozwój rynku i technologii.
Sistem za obvladovanje tveganja
System zarządzania ryzykiem
1. V zvezi z visokotveganimi sistemi UI se vzpostavi, izvaja, dokumentira in vzdržuje sistem za obvladovanje tveganja.
1. Ustanawia się, wdraża, dokumentuje i obsługuje system zarządzania ryzykiem w odniesieniu do systemów AI wysokiego ryzyka.
2. Sistem za obvladovanje tveganja pomeni neprekinjen in ponavljajoč se proces, ki se načrtuje in izvaja v celotnem življenjskem ciklu visokotveganega sistema UI in ga je treba redno sistematično pregledovati in posodabljati. Vključuje naslednje korake:
2. Przez system zarządzania ryzykiem rozumie się ciągły, iteracyjny proces, planowany i realizowany przez cały cykl życia systemu AI wysokiego ryzyka, wymagający regularnego systematycznego przeglądu i aktualizacji. Obejmuje on następujące etapy:
(a)
opredelitev in analizo znanih in razumno predvidljivih tveganj, ki jih lahko visokotvegani sistem UI pomeni za zdravje, varnost ali temeljne pravice, kadar se uporablja v skladu s predvidenim namenom;
a)
identyfikację i analizę znanego i dającego się racjonalnie przewidzieć ryzyka, jakie dany system AI wysokiego ryzyka może stwarzać dla zdrowia, bezpieczeństwa lub praw podstawowych podczas jego stosowania zgodnie z przeznaczeniem;
(b)
oceno in ovrednotenje tveganj, ki se lahko pojavijo pri uporabi visokotveganega sistema UI v skladu s predvidenim namenom in v razmerah razumno predvidljive napačne uporabe;
b)
oszacowanie i ocenę ryzyka, jakie może wystąpić podczas wykorzystywania systemu AI wysokiego ryzyka zgodnie z przeznaczeniem i w warunkach dającego się racjonalnie przewidzieć niewłaściwego wykorzystania;
(c)
ovrednotenje drugih morebitnih tveganj na podlagi analize podatkov, zbranih iz sistema spremljanja po dajanju na trg iz člena 72;
c)
ocenę innego mogącego wystąpić ryzyka na podstawie analizy danych zebranych z systemu monitorowania po wprowadzeniu do obrotu, o którym mowa w art. 72;
(d)
sprejetje ustreznih in ciljno usmerjenih ukrepov za obvladovanje tveganja, namenjenih obravnavanju tveganj, opredeljenih na podlagi točke (a).
d)
przyjęcie odpowiednich i ukierunkowanych środków zarządzania ryzykiem zaprojektowanych w celu przeciwdziałania ryzyku zidentyfikowanemu zgodnie z lit. a).
3. Tveganja iz tega člena se nanašajo samo na tista, ki jih je mogoče razumno zmanjšati ali odpraviti z razvojem ali zasnovo visokotveganega sistema UI ali z zagotovitvijo ustreznih tehničnih informacij.
3. Ryzyko, o którym mowa w niniejszym artykule, oznacza tylko takie rodzaje ryzyka, które można stosownie ograniczyć lub wyeliminować poprzez rozwój lub zaprojektowanie systemu AI wysokiego ryzyka lub poprzez zapewnienie odpowiednich informacji technicznych.
4. Pri ukrepih za obvladovanje tveganja iz odstavka 2, točka (d), se ustrezno upoštevajo učinki in morebitna interakcija, ki izhajajo iz skupne uporabe zahtev iz tega oddelka 2, da bi učinkoviteje in čim bolj zmanjšali tveganja in hkrati dosegli ustrezno ravnovesje pri izvajanju ukrepov za izpolnjevanje teh zahtev.
4. W ramach środków zarządzania ryzykiem, o których mowa w ust. 2 lit. d), należycie uwzględnia się skutki i możliwe interakcje wynikające z łącznego stosowania wymogów ustanowionych w niniejszej sekcji, w celu skuteczniejszego minimalizowania ryzyka przy jednoczesnym osiągnięciu odpowiedniej równowagi we wdrażaniu środków służących spełnieniu tych wymogów.
5. Ukrepi za obvladovanje tveganja iz odstavka 2, točka (d), so taki, da zadevno preostalo tveganje, povezano z vsako posamezno nevarnostjo, in celotno preostalo tveganje visokotveganih sistemov UI štejeta za sprejemljiva.
5. Środki zarządzania ryzykiem, o których mowa w ust. 2 lit. d), muszą być takie, aby odpowiednie ryzyko szczątkowe związane z każdym zagrożeniem, jak również ogólne ryzyko szczątkowe systemów AI wysokiego ryzyka, oceniano jako dopuszczalne.
Pri določanju najustreznejših ukrepov za obvladovanje tveganja se zagotovi naslednje:
Przy określaniu najodpowiedniejszych środków zarządzania ryzykiem zapewnia się, co następuje:
(a)
odpravljanje ali zmanjševanje tveganj ugotovljenih in ocenjenih na podlagi odstavka 2, kolikor je to tehnično izvedljivo z ustrezno zasnovo in razvojem visokotveganega sistema UI;
a)
eliminację lub ograniczenie – w zakresie, w jakim jest to technicznie wykonalne – ryzyka zidentyfikowanego i ocenionego zgodnie z ust. 2 poprzez odpowiedni projekt i rozwój systemu AI wysokiego ryzyka;
(b)
po potrebi izvajanje ustreznih ukrepov za zmanjšanje in nadzor tveganj, ki jih ni mogoče odpraviti;
b)
w stosownych przypadkach – wdrożenie odpowiednich środków służących ograniczeniu i kontroli ryzyka, którego nie można wyeliminować;
(c)
zagotavljanje zahtevanih informacij na podlagi člena 13 in po potrebi usposabljanje uvajalcev.
c)
dostarczenie informacji wymaganych zgodnie z art. 13 oraz, w stosownych przypadkach, przeszkolenie podmiotów stosujących.
Da bi odpravili ali zmanjšali tveganja, povezana z uporabo visokotveganega sistema UI, se ustrezno upoštevajo tehnično znanje, izkušnje, izobraževanje, usposabljanje, ki ga lahko pričakuje uvajalec, in predvideni okvir, v katerem naj bi se sistem uporabljal.
W celu eliminowania lub ograniczania ryzyka związanego z wykorzystaniem systemu AI wysokiego ryzyka należytą uwagę zwraca się na wiedzę techniczną, doświadczenie, wykształcenie i szkolenia, jakich oczekuje się od podmiotu stosującego, oraz zakładany kontekst, w którym ma być stosowany system.
6. Visokotvegani sistemi UI se testirajo, da se določijo najustreznejši in ciljno usmerjeni ukrepi za obvladovanje tveganja. S testiranjem se zagotovi, da visokotvegani sistemi UI dosledno delujejo za predvideni namen in so skladni z zahtevami iz tega oddelka.
6. Systemy AI wysokiego ryzyka testuje się w celu określenia najodpowiedniejszych i ukierunkowanych środków zarządzania ryzykiem. Testy zapewniają, by systemy AI wysokiego ryzyka działały zgodnie z ich przeznaczeniem oraz były zgodne z wymogami ustanowionymi w niniejszej sekcji.
7. Postopki testiranja lahko vključujejo testiranje v realnih razmerah v skladu s členom 60.
7. Procedury testowe mogą obejmować testy w warunkach rzeczywistych zgodnie z art. 60.
8. Testiranje visokotveganih sistemov UI se po potrebi izvaja kadar koli med celotnim postopkom razvoja in v vsakem primeru pred njihovim dajanjem na trg ali v uporabo. Testiranje se opravi na podlagi predhodno opredeljenih metrik in verjetnostnih pragov, ki ustrezajo predvidenemu namenu visokotveganega sistema UI.
8. Testy systemów AI wysokiego ryzyka przeprowadza się, w stosownych przypadkach, w dowolnym momencie procesu rozwoju systemu, a w każdym przypadku przed wprowadzeniem go do obrotu lub oddaniem do użytku. Testy przeprowadza się w odniesieniu do uprzednio określonych wskaźników i progów probabilistycznych, stosownych ze względu na przeznaczenie systemu AI wysokiego ryzyka.
9. Ponudniki pri izvajanju sistema za obvladovanje tveganja iz odstavkov 1 do 7 preučijo, ali je verjetno, da bo visokotvegani sistem UI glede na predvideni namen negativno vplival na osebe, mlajše od 18 let, in po potrebi na druge ranljive skupine.
9. Przy wdrażaniu systemu zarządzania ryzykiem przewidzianego w ust. 1–7 dostawcy zwracają uwagę na to, czy dany system AI wysokiego ryzyka w świetle swojego przeznaczenia może mieć niekorzystny wpływ na osoby poniżej 18 roku życia oraz, w stosownych przypadkach, na inne grupy szczególnie wrażliwe.
10. Pri ponudnikih visokotveganih sistemov UI, za katere veljajo zahteve v zvezi z notranjimi procesi za obvladovanje tveganj v skladu z drugimi ustreznimi določbami prava Unije, so lahko vidiki, opisani v odstavkih 1 do 9, del postopkov za obvladovanje tveganj, vzpostavljenih na podlagi navedenega prava, ali so v kombinaciji s temi postopki.
10. W odniesieniu do dostawców systemów AI wysokiego ryzyka, którzy podlegają wymogom dotyczącym wewnętrznych procesów zarządzania ryzykiem na podstawie innych odpowiednich przepisów prawa Unii, aspekty przewidziane w ust. 1–9 mogą być częścią procedur zarządzania ryzykiem ustanowionych zgodnie z tym prawem lub łączyć się z tymi procedurami.
Podatki in upravljanje podatkov
Dane i zarządzanie danymi
1. Visokotvegani sistemi UI, ki uporabljajo tehnike, ki vključujejo učenje modelov UI s podatki, se razvijejo na podlagi naborov učnih, validacijskih in testnih podatkov, ki izpolnjujejo merila kakovosti iz odstavkov 2 do 5, kadar se uporabljajo ti nabori podatkov.
1. Systemy AI wysokiego ryzyka, które wykorzystują techniki obejmujące trenowanie modeli AI z wykorzystaniem danych, rozwija się na podstawie zbiorów danych treningowych, walidacyjnych i testowych spełniających kryteria jakości, o których mowa w ust. 2–5, w każdym przypadku gdy takie zbiory danych są wykorzystywane.
2. Za nabore učnih, validacijskih in testnih podatkov veljajo prakse ravnanja s podatki in upravljanja podatkov, ki so primerne za predvideni namen visokotveganega sistema UI. Te prakse se nanašajo zlasti na:
2. Zbiory danych treningowych, walidacyjnych i testowych podlegają praktykom w zakresie zarządzania danymi stosownym do przeznaczenia danego systemu AI wysokiego ryzyka. Praktyki te dotyczą w szczególności:
(a)
ustrezne izbire zasnove;
a)
odpowiednich decyzji projektowych;
(b)
postopke zbiranja podatkov in njihov izvor ter v primeru osebnih podatkov prvotni namen zbiranja podatkov;
b)
procesów zbierania danych i pochodzenia danych oraz, w przypadku danych osobowych, pierwotnego celu zbierania danych;
(c)
ustrezne postopke obdelave za pripravo podatkov, kot so dodajanje opomb, označevanje, čiščenje, posodabljanje, obogatitev in združevanje;
c)
odpowiednich operacji przetwarzania na potrzeby przygotowania danych, takich jak dodawanie komentarzy, etykietowanie, czyszczenie, aktualizacja, wzbogacanie i agregacja;
(d)
oblikovanje predpostavk, zlasti v zvezi z informacijami, ki naj bi jih podatki merili in predstavljali;
d)
sformułowania założeń, w szczególności w odniesieniu do informacji, do których pomiaru i reprezentowania mają służyć dane;
(e)
oceno razpoložljivosti, količine in primernosti potrebnih naborov podatkov;
e)
oceny dostępności, ilości i przydatności zbiorów danych, które są potrzebne;
(f)
preučitev morebitnih pristranskosti, ki bi lahko vplivale na zdravje in varnost oseb, negativno vplivale na temeljne pravice ali privedle do diskriminacije, ki je na podlagi prava Unije prepovedana, zlasti kadar izhodni podatki vplivajo na vhodne podatke za prihodnje operacije;
f)
badania pod kątem ewentualnej stronniczości, która może mieć wpływ na zdrowie i bezpieczeństwo osób, negatywnie wpływać na prawa podstawowe lub prowadzić do dyskryminacji zakazanej na mocy prawa Unii, zwłaszcza w przypadku gdy dane wyjściowe wpływają na dane wejściowe wykorzystywane na potrzeby przyszłych operacji;
(g)
ustrezne ukrepe za odkrivanje, preprečevanje in zmanjševanje morebitnih pristranskosti, opredeljenih v skladu s točko (f);
g)
odpowiednich środków służących wykrywaniu ewentualnej stronniczości określonej zgodnie z lit. f) oraz zapobieganiu jej i jej ograniczaniu;
(h)
prepoznavanje ustreznih vrzeli ali pomanjkljivosti v podatkih, ki preprečujejo skladnost s to uredbo, ter način za odpravljanje teh vrzeli in pomanjkljivosti.
h)
określenia istotnych luk w danych lub braków w danych, które uniemożliwiają zgodność z niniejszym rozporządzeniem, oraz tego, w jaki sposób można zaradzić tym lukom i brakom.
3. Nabori učnih, validacijskih in testnih podatkov so ustrezni, dovolj reprezentativni in v največji možni meri brez napak in popolni glede na predvideni namen. Imeti morajo tudi ustrezne statistične lastnosti, po potrebi tudi v zvezi z osebami ali skupinami oseb, v zvezi s katerimi naj bi se uporabljal visokotvegani sistem UI. Te značilnosti naborov podatkov se lahko izpolnijo na ravni posameznih naborov podatkov ali na ravni njihovih kombinacij.
3. Zbiory danych treningowych, walidacyjnych i testowych muszą być adekwatne, wystarczająco reprezentatywne oraz w jak największym stopniu wolne od błędów i kompletne z punktu widzenia przeznaczenia. Muszą się one charakteryzować odpowiednimi właściwościami statystycznymi, w tym, w stosownych przypadkach, w odniesieniu do osób lub grup osób, wobec których ma być stosowany system AI wysokiego ryzyka. Te kryteria zbiorów danych mogą zostać spełnione na poziomie pojedynczych zbiorów danych lub na poziomie ich kombinacji.
4. Nabori podatkov v obsegu, ki se zahteva glede na njihov predvideni namen, upoštevajo značilnosti ali elemente, ki so značilni za posebno geografsko, kontekstualno, vedenjsko ali funkcionalno okolje, v katerem naj bi se visokotvegani sistem UI uporabljal.
4. Zbiory danych muszą uwzględniać, w zakresie wymaganym z uwagi na ich przeznaczenie, cechy lub elementy, które są specyficzne dla określonego otoczenia geograficznego, kontekstualnego, behawioralnego lub funkcjonalnego, w którym ma być wykorzystywany system AI wysokiego ryzyka.
5. Če je nujno potrebno za namene zagotavljanja odkrivanja in popravljanja pristranskosti v zvezi z visokotveganimi sistemi UI v skladu z odstavkom 2, točki (f) in (g), tega člena, lahko ponudniki takih sistemov izjemoma obdelujejo posebne vrste osebnih podatkov, ob upoštevanju ustreznih zaščitnih ukrepov za temeljne pravice in svoboščine fizičnih oseb. Poleg določb iz uredb (EU) 2016/679 in (EU) 2018/1725 ter Direktive (EU) 2016/680 morajo biti za tako obdelavo izpolnjeni vsi naslednji pogoji:
5. W zakresie, w jakim jest to bezwzględnie konieczne do celów zapewnienia zgodnie z ust. 2 lit. f) i g) niniejszego artykułu wykrywania i korygowania stronniczości systemów AI wysokiego ryzyka, dostawcy takich systemów mogą wyjątkowo przetwarzać szczególne kategorie danych osobowych, pod warunkiem stosowania odpowiednich zabezpieczeń w zakresie podstawowych praw i wolności osób fizycznych. Oprócz przepisów określonych w rozporządzeniach (UE) 2016/679 i (UE) 2018/1725 oraz dyrektywie (UE) 2016/680, aby takie przetwarzanie mogło się odbyć, przetwarzanie takie musi spełniać wszystkie następujące warunki:
(a)
odkrivanja in popravljanja pristranskosti ni mogoče učinkovito doseči z obdelavo drugih podatkov, vključno s sintetičnimi ali anonimiziranimi podatki;
a)
nie jest możliwe skuteczne wykrywanie i korygowanie stronniczości poprzez przetwarzanie innych danych, w tym danych syntetycznych lub zanonimizowanych;
(b)
za posebne vrste osebnih podatkov veljajo tehnične omejitve glede ponovne uporabe osebnih podatkov ter najsodobnejši ukrepi za varnost in ohranjanje zasebnosti, vključno s psevdonimizacijo;
b)
szczególne kategorie danych osobowych podlegają ograniczeniom technicznym dotyczącym ponownego wykorzystywania danych osobowych oraz najnowocześniejszym środkom bezpieczeństwa i ochrony prywatności, w tym pseudonimizacji;
(c)
za posebne kategorije osebnih podatkov veljajo ukrepi, s katerimi se zagotavlja, da so osebni podatki, ki se obdelujejo, zaščiteni, ob upoštevanju ustreznih zaščitnih ukrepov, vključno s strogim nadzorom in dokumentiranjem dostopa, da se prepreči napačna uporaba in zagotovi, da imajo dostop do teh osebnih podatkov samo pooblaščene osebe z ustreznimi obveznostmi glede zaupnosti;
c)
szczególne kategorie danych osobowych podlegają środkom zapewniającym, by przetwarzane dane osobowe były zabezpieczone, chronione, podlegały odpowiednim środkom ochronnym, w tym ścisłym kontrolom i dokumentowaniu dostępu, aby uniknąć nadużyć i zapewnić, by dostęp do tych danych miały wyłącznie osoby upoważnione, zobowiązane do spełnienia odpowiednich obowiązków dotyczących poufności;
(d)
posebne kategorije osebnih podatkov ne smejo biti posredovani, preneseni ali drugače dostopni drugim strankam;
d)
szczególne kategorie danych osobowych nie są przesyłane, przekazywane ani w inny sposób udostępniane innym podmiotom;
(e)
posebne kategorije osebnih podatkov se izbrišejo, ko je pristranskost odpravljena ali ko se izteče obdobje njihove hrambe, odvisno od tega, kaj nastopi prej;
e)
szczególne kategorie danych osobowych usuwa się po skorygowaniu stronniczości lub po upływie okresu przechowywania danych osobowych, w zależności od tego, co nastąpi wcześniej;
(f)
evidence dejavnosti obdelave na podlagi uredb (EU) 2016/679 in (EU) 2018/1725 ter Direktivo (EU) 2016/680 vključujejo razloge, zakaj je bila obdelava posebnih kategorij osebnih podatkov nujno potrebna za odkrivanje in odpravo pristranskosti ter zakaj tega cilja ni bilo mogoče doseči z obdelavo drugih podatkov.
f)
rejestry czynności przetwarzania na podstawie rozporządzeń (UE) 2016/679 i (UE) 2018/1725 oraz dyrektywy (UE) 2016/680 zawierają uzasadnienie, dlaczego przetwarzanie szczególnych kategorii danych osobowych było bezwzględnie konieczne do wykrycia i skorygowania stronniczości oraz dlaczego cel ten nie mógł zostać osiągnięty w wyniku przetwarzania innych danych.
6. Za razvoj visokotveganih sistemov UI, ki ne uporabljajo tehnik, ki vključujejo učenje modelov s podatki, se odstavki 2 do 5 uporabljajo le za nabore testnih podatkov.
6. W przypadkach rozwoju systemów AI wysokiego ryzyka niewykorzystujących technik obejmujących trenowanie modeli AI ust. 2–5 stosuje się jedynie do zbiorów danych testowych.
1. Tehnična dokumentacija visokotveganega sistema UI se pripravi pred dajanjem sistema na trg ali v uporabo in se posodablja.
1. Dokumentację techniczną dla systemu AI wysokiego ryzyka sporządza się przed wprowadzeniem danego systemu do obrotu lub oddaniem go do użytku oraz dokonuje się jej aktualizacji.
Tehnična dokumentacija se pripravi tako, da izkazuje, da je visokotvegani sistem UI skladen z zahtevami iz tega oddelka, ter pristojnim nacionalnim organom in priglašenim organom jasno in celovito zagotavlja potrebne informacije za ugotavljanje skladnosti sistema UI z navedenimi zahtevami. Vsebovati mora vsaj elemente iz Priloge IV. MSP, vključno z zagonskimi podjetji, lahko elemente tehnične dokumentacije iz Priloge IV predložijo na poenostavljen način. V ta namen Komisija pripravi poenostavljen obrazec tehnične dokumentacije, namenjen potrebam malih in mikro podjetij. Kadar se MSP, vključno z zagonskim podjetjem, odloči, da bo informacije, zahtevane v Prilogi IV, zagotovilo na poenostavljen način, uporabi obrazec iz tega odstavka. Priglašeni organi sprejmejo obrazec za namene ugotavljanja skladnosti.
Dokumentację techniczną sporządza się w taki sposób, aby wykazać, że system AI wysokiego ryzyka jest zgodny z wymogami ustanowionymi w niniejszej sekcji, oraz aby dostarczyć właściwym organom krajowym i jednostkom notyfikowanym informacji – w jasnej i kompleksowej formie – niezbędnych do oceny zgodności systemu AI z tymi wymogami. Zawiera ona co najmniej elementy określone w załączniku IV. MŚP, w tym przedsiębiorstwa typu start-up, mogą podawać elementy dokumentacji technicznej określone w załączniku IV w formie uproszczonej. W tym celu Komisja ustanawia wzór uproszczonej dokumentacji technicznej ukierunkowany na potrzeby małych przedsiębiorstw i mikroprzedsiębiorstw. W przypadku gdy MŚP, w tym przedsiębiorstwa typu start-up, zdecydują się na podawanie informacji wymaganych w załączniku IV w sposób uproszczony, korzystają z wzoru, o którym mowa w niniejszym ustępie. Jednostki notyfikowane akceptują ten wzór do celów oceny zgodności.
2. Kadar je visokotvegani sistem UI, povezan s proizvodom, za katerega se uporablja harmonizacijska zakonodaja Unije iz Priloge I, oddelek A, dan na trg ali v uporabo, se pripravi enoten sklop tehnične dokumentacije, ki vsebuje vse informacije iz odstavka 1 in informacije, zahtevane v navedenih pravnih aktih.
2. W przypadku wprowadzania do obrotu lub oddawania do użytku systemu AI wysokiego ryzyka związanego z produktem, który jest objęty zakresem stosowania unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I sekcja A, sporządza się jeden zestaw dokumentacji technicznych zawierający wszystkie informacje określone w ust. 1, jak również informacje wymagane na podstawie tych aktów prawnych.
3. Na Komisijo se prenese pooblastilo za sprejemanje delegiranih aktov v skladu s členom 97 za spremembo Priloge IV, kadar je to potrebno za zagotovitev, da tehnična dokumentacija glede na tehnični napredek zagotavlja vse potrebne informacije za ugotavljanje skladnosti sistema z zahtevami iz tega oddelka.
3. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 97 w celu zmiany, w razie potrzeby, załącznika IV, aby zagwarantować, by w świetle postępu technicznego dokumentacja techniczna zawierała wszystkie informacje niezbędne do oceny zgodności systemu z wymogami ustanowionymi w niniejszej sekcji.
Nadzór ze strony człowieka
1. Visokotvegani sistemi UI morajo biti zasnovani in razviti tako, da jih lahko fizične osebe v obdobju njihove uporabe učinkovito nadzorujejo, tudi z ustreznimi vmesniškimi orodji človek-stroj.
1. Systemy AI wysokiego ryzyka projektuje się i rozwija w taki sposób, w tym poprzez uwzględnienie odpowiednich narzędzi interfejsu człowiek-maszyna, aby w okresie ich wykorzystywania systemu AI mogły być skutecznie nadzorowane przez osoby fizyczne.
2. Namen človeškega nadzora je preprečiti ali čim bolj zmanjšati tveganja za zdravje, varnost ali temeljne pravice, ki se lahko pojavijo pri uporabi visokotveganega sistema UI v skladu s predvidenim namenom ali v razmerah razumno predvidljive napačne uporabe, zlasti kadar taka tveganja niso odpravljena kljub uporabi drugih zahtev iz tega oddelka.
2. Nadzór ze strony człowieka ma na celu zapobieganie ryzyku dla zdrowia, bezpieczeństwa lub praw podstawowych lub minimalizowanie takiego ryzyka, które może się pojawić, gdy system AI wysokiego ryzyka jest wykorzystywany zgodnie z jego przeznaczeniem lub w warunkach dającego się racjonalnie przewidzieć niewłaściwego wykorzystania, w szczególności gdy takie ryzyko utrzymuje się pomimo stosowania innych wymogów ustanowionych w niniejszej sekcji.
3. Nadzorni ukrepi morajo biti sorazmerni s tveganji, stopnjo samostojnosti in kontekstom uporabe visokotveganega sistema UI in se zagotavljajo z eno ali obema naslednjima vrstama ukrepov:
3. Środki nadzoru muszą być współmierne do ryzyka, poziomu autonomii i kontekstu wykorzystywania danego systemu AI wysokiego ryzyka, a nadzór zapewnia się za pomocą co najmniej jednego z następujących rodzajów środków:
(a)
ukrepi, določeni in vgrajeni, če je to tehnično izvedljivo, v visokotvegani sistem UI s strani ponudnika, preden je sistem dan na trg ali v uporabo;
a)
środków określonych i wbudowanych, jeżeli jest to technicznie wykonalne, w system AI wysokiego ryzyka przez dostawcę przed wprowadzeniem systemu do obrotu lub oddaniem do użytku;
(b)
ukrepi, ki jih ponudnik določi pred dajanjem visokotveganega sistema UI na trg ali v uporabo in so primerni za izvedbo s strani uvajalca.
b)
środków określonych przez dostawcę przed wprowadzeniem systemu AI wysokiego ryzyka do obrotu lub oddaniem go do użytku i które to środki nadają się do wdrożenia przez podmiot stosujący.
4. Za namene izvajanja odstavkov 1, 2 in 3 se visokotvegani sistem UI uvajalcu zagotovi tako, da fizične osebe, ki jim je dodeljen človeški nadzor, če je to primerno in sorazmerno:
4. Do celów wykonania ust. 1, 2 i 3 system AI wysokiego ryzyka udostępnia się podmiotowi stosującemu w taki sposób, aby umożliwić osobom fizycznym, którym powierzono sprawowanie nadzoru ze strony człowieka, odpowiednio i proporcjonalnie:
(a)
pravilno razumejo ustrezne zmogljivosti in omejitve visokotveganega sistema UI ter ustrezno spremljajo njegovo delovanje, tudi za odkrivanje in obravnavanje nepravilnosti, motenj in nepričakovane zmogljivosti;
a)
należyte zrozumienie odpowiednich możliwości i ograniczeń systemu AI wysokiego ryzyka oraz należyte monitorowanie jego działania, w tym w celu wykrywania anomalii, nieprawidłowego funkcjonowania i nieoczekiwanych wyników działania oraz zaradzeniu im w przypadku ich wystąpienia;
(b)
se zavedajo morebitne težnje po samodejnem zanašanju ali prevelikem zanašanju na izhodne podatke visokotveganega sistema UI (pristranskost zaradi avtomatizacije), zlasti pri visokotveganih sistemih UI, ki se uporabljajo za zagotavljanje informacij ali priporočil za odločitve, ki jih sprejemajo fizične osebe;
b)
pozostawanie świadomym potencjalnej tendencji do automatycznego polegania lub nadmiernego polegania na wyniku wytworzonym przez system AI wysokiego ryzyka (tzw. „błąd automatyzacji”), w szczególności w przypadku systemów AI wysokiego ryzyka wykorzystywanych do udzielania informacji lub zaleceń na potrzeby decyzji podejmowanych przez osoby fizyczne;
(c)
pravilno razlagajo izhodne podatke visokotveganega sistema UI, zlasti na primer ob upoštevanju razpoložljivih orodij in metod za razlago;
c)
prawidłową interpretację wyniku systemu AI wysokiego ryzyka, biorąc pod uwagę na przykład dostępne narzędzia i metody interpretacji;
(d)
se v specifičnih situacijah odločijo, da visokotveganega sistema UI ne bodo uporabile ali bodo kako drugače zanemarile, ovrgle ali izničile izhodne podatke visokotveganega sistema UI;
d)
podjęcie decyzji, w każdej konkretnej sytuacji, o niekorzystaniu z systemu AI wysokiego ryzyka lub w inny sposób zignorowanie, unieważnienie lub odwrócenie wyniku systemu AI wysokiego ryzyka;
(e)
posegajo v delovanje visokotveganega sistema UI ali ga prekinejo s tipko „stop“ ali podobnim postopkom, ki omogoča varno zaustavitev sistema.
e)
ingerowanie w działanie systemu AI wysokiego ryzyka lub przerwanie działania systemu za pomocą przycisku „stop” lub podobnej procedury, która pozwala na zatrzymanie systemu w stanie bezpiecznym.
5. Za visokotvegane sisteme UI iz Priloge III, točka 1(a), morajo biti ukrepi iz odstavka 3 takšni, da zagotavljajo, da uvajalec poleg tega ne izvede nobenega dejanja ali ne sprejme nobenega ukrepa ali odločitve na podlagi identifikacije, ki izhaja iz sistema, razen če to ločeno preverita in potrdita vsaj dve fizični osebi z ustreznimi kompetencami, usposobljenostjo in pooblastili.
5. W przypadku systemów AI wysokiego ryzyka, o których mowa w załączniku III pkt 1 lit. a), środki, o których mowa w ust. 3 niniejszego artykułu, muszą ponadto zapewniać, aby podmiot stosujący nie podejmował żadnego działania ani decyzji na podstawie identyfikacji będącej wynikiem działania systemu, jeżeli identyfikacji tej nie zweryfikowały ani nie potwierdziły odrębnie co najmniej dwie osoby fizyczne mające wymagane kompetencje, przeszkolenie i uprawnienia.
Zahteva o ločeni preverbi s strani vsaj dveh fizičnih oseb se ne uporablja za visokotvegane sisteme UI, ki se uporabljajo za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, migracij, nadzora meje ali azila, v primerih, ko je v skladu s pravom Unije in nacionalnim pravom uporaba te zahteve nesorazmerna.
Wymóg odrębnej weryfikacji przez co najmniej dwie osoby fizyczne nie ma zastosowania do systemów AI wysokiego ryzyka wykorzystywanych do celów ścigania przestępstw, migracji, kontroli granicznej lub azylu, w przypadkach gdy prawo Unii lub prawo krajowe uznaje stosowanie tego wymogu za nieproporcjonalne.
Točnost, robustnost in kibernetska varnost
Dokładność, solidność i cyberbezpieczeństwo
1. Visokotvegani sistemi UI morajo biti zasnovani in razviti tako, da dosegajo ustrezno raven točnosti, robustnosti in kibernetske varnosti ter v teh vidikih v vsem svojem življenjskem ciklu delujejo dosledno.
1. Systemy AI wysokiego ryzyka projektuje się i rozwija w taki sposób, aby osiągały odpowiedni poziom dokładności, solidności i cyberbezpieczeństwa oraz by działały konsekwentnie pod tymi względami w całym cyklu życia.
2. Za obravnavo tehničnih vidikov merjenja ustreznih ravni točnosti in robustnosti iz odstavka 1 ter vseh drugih ustreznih metrike učinkovitosti Komisija v sodelovanju z ustreznimi deležniki in organizacijami, kot so meroslovni organi in organi za primerjalno analizo, po potrebi spodbuja razvoj referenčnih vrednosti in metodologij merjenja.
2. Aby odnieść się do technicznych aspektów pomiaru odpowiednich poziomów dokładności i solidności określonych w ust. 1 oraz wszelkich innych istotnych wskaźników skuteczności działania, Komisja we współpracy z odpowiednimi zainteresowanymi stronami i organizacjami, takimi jak organy metrologiczne i organy ds. analizy porównawczej, zachęca w stosownych przypadkach do opracowywania poziomów odniesienia i metod pomiarowych.
3. Ravni točnosti in ustrezne metrike točnosti visokotveganih sistemov UI se navedejo v priloženih navodilih za uporabo.
3. Poziomy dokładności i odpowiednie wskaźniki dokładności systemów AI wysokiego ryzyka deklaruje się w dołączonych do nich instrukcjach obsługi.
4. Visokotvegani sistemi UI morajo biti čim bolj odporni na napake, okvare ali neskladnosti, ki se lahko pojavijo v sistemu ali okolju, v katerem sistem deluje, zlasti zaradi njihove interakcije s fizičnimi osebami ali drugimi sistemi. V zvezi s tem se sprejmejo tehnični in organizacijski ukrepi.
4. Systemy AI wysokiego ryzyka muszą być możliwie jak najodporniejsze na błędy, usterki lub niespójności, które mogą wystąpić w systemie lub w środowisku, w którym działa system, w szczególności w wyniku interakcji z osobami fizycznymi lub innymi systemami. W tym zakresie podejmuje się środki techniczne i organizacyjne.
Robustnost visokotveganih sistemov UI se lahko doseže s tehničnimi redundantnimi rešitvami, ki lahko vključujejo rezervne načrte ali načrte varne odpovedi.
Solidność systemów AI wysokiego ryzyka można osiągnąć dzięki rozwiązaniom technicznym gwarantującym redundancję, które mogą obejmować plany zakładające dostępność systemu zapasowego lub plany zapewniające przejście systemu w stan bezpieczny (tzw. „fail-safe”).
Visokotvegane sisteme UI, ki se po dajanju na trg ali v uporabo še naprej učijo, je treba razviti tako, da se odpravi ali v največji možni meri zmanjša tveganje morebitnih pristranskih izhodnih podatkov, ki bi vplivali na vhodne podatke za prihodnje operacije (povratne zanke), in zagotovi, da se vse take povratne zanke ustrezno obravnavajo z ustreznimi ukrepi za zmanjšanje tveganj.
Systemy AI wysokiego ryzyka, które po wprowadzeniu na rynek lub oddaniu do użytku nadal się uczą, rozwija się w taki sposób, aby w możliwie największym stopniu wyeliminować lub ograniczyć ryzyko potencjalnie stronniczych wyników wpływających na dane wejściowe wykorzystywane na potrzeby przyszłych operacji (sprzężenie zwrotne) oraz aby zapewnić, by wszelkie tego typu sprzężenie zwrotne zostało odpowiednio uwzględnione przy pomocy odpowiednich środków ograniczających ryzyko.
5. Visokotvegani sistemi UI morajo biti odporni na poskuse nepooblaščenih tretjih oseb, da z izkoriščanjem šibkih točk sistema spremenijo njihovo uporabo, izhodne podatke ali zmogljivost.
5. Systemy AI wysokiego ryzyka muszą być odporne na próby nieupoważnionych osób trzecich mające na celu zmianę ich wykorzystania, wyników lub skuteczności działania poprzez wykorzystanie słabych punktów systemu.
Tehnične rešitve, namenjene zagotavljanju kibernetske varnosti visokotveganih sistemov UI, morajo ustrezati zadevnim okoliščinam in tveganjem.
Rozwiązania techniczne mające na celu zapewnienie cyberbezpieczeństwa systemów AI wysokiego ryzyka muszą być dostosowane do odpowiednich okoliczności i ryzyka.
Tehnične rešitve za odpravljanje šibkih točk, značilnih za UI, po potrebi vključujejo ukrepe za preprečevanje, odkrivanje, odzivanje, reševanje in nadzor v zvezi z napadi, ki poskušajo manipulirati z naborom učnih podatkov (zastrupitev podatkov) ali prednaučenimi komponentami, uporabljenimi pri učenju (zastrupitev modelov), v zvezi z vhodnimi podatki, katerih namen je povzročiti napako modela UI (nasprotovalni primer ali izogibanje modelov), napadi na zaupnost ali pomanjkljivostmi modela.
Rozwiązania techniczne mające na celu eliminowanie słabych punktów charakterystycznych dla AI obejmują, w stosownych przypadkach, środki służące zapobieganiu atakom mającym na celu manipulowanie zbiorem danych treningowych (zatruwanie danych) lub elementami stosowanymi przy trenowaniu, które zostały poddane pretrenowaniu (zatruwanie modelu), wprowadzaniu danych wejściowych, które mają na celu spowodowanie błędu w modelu AI (przykłady kontradyktoryjne lub omijanie modelu), atakom na poufność lub wadom modelu, a także środki w zakresie wykrywania tych zagrożeń, reagowania na nie, ich rozwiązywania i ich kontrolowania.
Sistem upravljanja kakovosti
System zarządzania jakością
1. Ponudniki visokotveganih sistemov UI vzpostavijo sistem upravljanja kakovosti, ki zagotavlja skladnost s to uredbo. Ta sistem se sistematično in urejeno dokumentira v obliki pisnih politik, postopkov in navodil ter vključuje vsaj naslednje vidike:
1. Dostawcy systemów AI wysokiego ryzyka wprowadzają system zarządzania jakością, który zapewnia zgodność z niniejszym rozporządzeniem. System ten dokumentuje się w systematyczny i uporządkowany sposób w formie pisemnych polityk, procedur i instrukcji oraz obejmuje on co najmniej następujące aspekty:
(a)
strategijo za skladnost z zakonodajo, tudi skladnost s postopki za ugotavljanje skladnosti in postopki za upravljanje sprememb visokotveganega sistema UI;
a)
strategię na rzecz zgodności regulacyjnej, w tym zgodności z procedurami oceny zgodności i procedurami zarządzania zmianami w systemie AI wysokiego ryzyka;
(b)
tehnike, postopke in sistematične ukrepe, ki se uporabljajo za razvoj, nadzor kakovosti in zagotavljanje kakovosti visokotveganega sistema UI;
b)
techniki, procedury i systematyczne działania, które należy stosować na potrzeby projektowania oraz kontroli i weryfikacji projektu systemu AI wysokiego ryzyka;
(c)
tehnike, postopke in sistematične ukrepe, ki se uporabljajo za razvoj, nadzor kakovosti in zagotavljanje kakovosti visokotveganega sistema UI;
c)
techniki, procedury i systematyczne działania, które należy stosować na potrzeby rozwoju, kontroli jakości i zapewniania jakości systemu AI wysokiego ryzyka;
(d)
postopke pregledovanja, testiranja in validacije, ki se izvedejo pred razvojem visokotveganega sistema UI, med njim in po njem, ter pogostost njihovega izvajanja;
d)
procedury badania, testowania i walidacji, które należy przeprowadzić przed przystąpieniem do rozwoju systemu AI wysokiego ryzyka, w trakcie tego rozwoju i po jego zakończeniu, oraz częstotliwość, z jaką mają być przeprowadzane;
(e)
tehnične specifikacije, vključno s standardi, ki jih je treba uporabiti, in, kadar se ustrezni harmonizirani standardi ne uporabljajo v celoti ali ne zajemajo vseh ustreznih zahtev iz oddelka 2, sredstva, ki se uporabijo za zagotovitev, da visokotvegani sistem UI izpolnjuje navedene zahteve;
e)
specyfikacje techniczne, w tym normy, które należy zastosować, oraz w przypadkach gdy normy zharmonizowane nie są stosowane w pełni lub nie obejmują wszystkich odpowiednich wymogów ustanowionych w sekcji 2, środki, które należy zastosować do zapewnienia, by system AI wysokiego ryzyka był zgodny z tymi wymogami;
(f)
sisteme in postopke za ravnanje s podatki, vključno s pridobivanjem podatkov, zbiranjem podatkov, analizo podatkov, označevanjem podatkov, shranjevanjem podatkov, filtriranjem podatkov, podatkovnim rudarjenjem, združevanjem podatkov, hrambo podatkov ter vsemi drugimi postopki v zvezi s podatki, ki se izvajajo pred dajanjem visokotveganih sistemov UI na trg ali v uporabo in za namen dajanja na trg ali v uporabo;
f)
systemy i procedury zarządzania danymi, w tym dotyczące nabywania danych, zbierania danych, analizy danych, etykietowania danych, przechowywania danych, filtrowania danych, eksploracji danych, agregacji danych, zatrzymywania danych i wszelkich innych operacji dotyczących danych, które przeprowadza się przed wprowadzeniem do obrotu lub oddaniem do użytku systemów AI wysokiego ryzyka i do celu wprowadzenia ich do obrotu lub oddania ich do użytku;
(g)
sistem za obvladovanje tveganj iz člena 9;
g)
system zarządzania ryzykiem, o którym mowa w art. 9;
(h)
vzpostavitev, izvajanje in vzdrževanje sistema spremljanja po dajanju na trg v skladu s členom 72;
h)
ustanowienie, wdrożenie i obsługa systemu monitorowania po wprowadzeniu do obrotu, zgodnie z art. 72;
(i)
postopke v zvezi s poročanjem o resnih incidentih v skladu s členom 73;
i)
procedury związane ze zgłaszaniem poważnego incydentu zgodnie z art. 73;
(j)
vodenje komunikacije s pristojnimi nacionalnimi organi, drugimi ustreznimi organi, tudi s tistimi, ki zagotavljajo ali podpirajo dostop do podatkov, priglašenimi organi, drugimi operaterji, strankami ali drugimi zainteresiranimi stranmi;
j)
porozumiewanie się z właściwymi organami krajowymi, innymi właściwymi organami, w tym organami zapewniającymi lub wspierającymi dostęp do danych, jednostkami notyfikowanymi, innymi operatorami, klientami lub innymi zainteresowanymi stronami;
(k)
sisteme in postopke za vodenje evidenc vse ustrezne dokumentacije in informacij;
k)
systemy i procedury rejestrowania wszelkiej istotnej dokumentacji i wszelkich istotnych informacji;
(l)
upravljanje virov, vključno z ukrepi, povezanimi z zanesljivostjo oskrbe;
l)
zarządzanie zasobami, w tym środki związane z bezpieczeństwem dostaw;
(m)
okvir odgovornosti, ki določa odgovornosti vodstva in drugega osebja v zvezi z vsemi vidiki iz tega odstavka.
m)
ramy odpowiedzialności służące określeniu odpowiedzialności kierownictwa i pozostałego personelu w odniesieniu do wszystkich aspektów wymienionych w niniejszym ustępie.
2. Izvajanje vidikov iz odstavka 1 je sorazmerno z velikostjo organizacije ponudnika. V vsakem primeru pa ponudniki spoštujejo stopnjo strogosti in raven zaščite, ki se zahtevata za skladnost njihovih visokotveganih sistemov UI s to uredbo.
2. Wdrożenie aspektów, o których mowa w ust. 1, musi być proporcjonalne do wielkości organizacji dostawcy. W każdym przypadku dostawcy przestrzegają stopnia rygoryzmu i poziomu ochrony wymaganych do zapewnienia zgodności ich systemów AI wysokiego ryzyka z niniejszym rozporządzeniem.
3. Ponudniki visokotveganih sistemov UI, za katere veljajo obveznosti v zvezi s sistemi upravljanja kakovosti ali enakovredno funkcijo na podlagi ustreznega sektorskega prava Unije, lahko vključijo vidike, navedene v odstavku 1, kot del sistemov upravljanja kakovosti, vzpostavljenih na podlagi navedenega prava.
3. Dostawcy systemów AI wysokiego ryzyka, którzy podlegają obowiązkom dotyczącym systemów zarządzania jakością lub równoważnym obowiązkom na podstawie odpowiednich sektorowych przepisów prawa Unii, mogą uwzględnić aspekty wymienione w ust. 1 jako część systemów zarządzania jakością zgodnie z tymi przepisami.
4. Za ponudnike, ki so finančne institucije in za katere veljajo zahteve v zvezi z njihovim notranjim upravljanjem, ureditvami ali postopki na podlagi prava Unije o finančnih storitvah, se šteje, da je obveznost vzpostavitve sistema vodenja kakovosti z izjemo odstavka 1, točke (g), (h) in (i) tega člena, izpolnjena z upoštevanjem pravil o ureditvah ali postopkih notranjega upravljanja na podlagi ustreznega prava Unije o finančnih storitvah. V ta namen se upoštevajo vsi harmonizirani standardi iz člena 40.
4. W odniesieniu do dostawców będących instytucjami finansowymi, które podlegają wymogom dotyczącym ich systemu zarządzania wewnętrznego, uzgodnień lub procedur na podstawie przepisów prawa Unii dotyczących usług finansowych, obowiązek wprowadzenia systemu zarządzania jakością, z wyjątkiem ust. 1 lit. g), h) oraz i) niniejszego artykułu, uznaje się za spełniony w przypadku zapewnienia zgodności z przepisami dotyczącymi zarządzania wewnętrznego, uzgodnień lub procedur zgodnie z odpowiednimi przepisami prawa Unii dotyczącymi usług finansowych. W tym celu uwzględnia się wszelkie normy zharmonizowane, o których mowa w art. 40.
Korektivni ukrepi in dolžnost obveščanja
Działania naprawcze i obowiązek informacyjny
1. Ponudniki visokotveganih sistemov UI, ki menijo ali utemeljeno domnevajo, da visokotvegani sistem UI, ki so ga dali na trg ali v uporabo, ni v skladu s to uredbo, nemudoma sprejmejo potrebne popravne ukrepe, da zagotovijo skladnost sistema ali pa ga po potrebi umaknejo, onemogočijo ali prekličejo. O tem obvestijo distributerje zadevnega visokotveganega sistema UI ter, kadar je primerno, uvajalce, pooblaščenega zastopnika in uvoznike.
1. Dostawcy systemów AI wysokiego ryzyka, którzy uważają lub mają powody, by uważać, że system AI wysokiego ryzyka, który wprowadzili do obrotu lub oddali do użytku, nie jest zgodny z niniejszym rozporządzeniem, natychmiast podejmują niezbędne działania naprawcze w celu, stosownie do przypadku, zapewnienia zgodności tego systemu, wycofania go z rynku, wyłączenia go lub wycofania go z użytku. Informują oni o tym dystrybutorów danego systemu AI wysokiego ryzyka oraz, w stosownych przypadkach, odpowiednio podmioty stosujące, upoważnionego przedstawiciela i importerów.
2. Kadar visokotvegani sistem UI predstavlja tveganje v smislu člena 79(1) in se ponudnik seznani s tem tveganjem, nemudoma razišče vzroke, po potrebi v sodelovanju z uvajalcem, ki poroča, ter obvesti organe za nadzor trga, pristojne za zadevni visokotvegani sistem UI, in po potrebi priglašeni organ, ki je izdal certifikat za visokotvegani sistem UI v skladu s členom 44, zlasti o naravi neskladnosti in vseh ustreznih sprejetih korektivnih ukrepih.
2. W przypadku gdy system AI wysokiego ryzyka stwarza ryzyko w rozumieniu art. 79 ust. 1 i dostawca danego systemu dowie się o tym ryzyku, dostawca ten natychmiast wyjaśnia przyczyny tego ryzyka, w stosownych przypadkach we współpracy ze zgłaszającym podmiotem stosującym, oraz informuje organy nadzoru rynku właściwe w zakresie przedmiotowych systemów AI wysokiego ryzyka, oraz, w stosownych przypadkach, jednostkę notyfikowaną, która zgodnie z art. 44 wydała certyfikat dla danego systemu AI wysokiego ryzyka, w szczególności o charakterze danej niezgodności oraz o wszelkich podjętych działaniach naprawczych.
Pooblaščeni zastopniki ponudnikov visokotveganih sistemov UI
Upoważnieni przedstawiciele dostawców systemów AI wysokiego ryzyka
1. Ponudniki s sedežem v tretjih državah pred omogočanjem dostopnosti visokotveganih sistemov UI na trgu Unije s pisnim pooblastilom imenujejo pooblaščenega zastopnika s sedežem v Uniji.
1. Przed udostępnieniem swoich systemów AI wysokiego ryzyka na rynku Unii dostawcy mający miejsce zamieszkania lub siedzibę w państwach trzecich ustanawiają – na podstawie pisemnego pełnomocnictwa – upoważnionego przedstawiciela mającego miejsce zamieszkania lub siedzibę w Unii.
2. Ponudnik svojemu pooblaščenemu zastopniku omogoči, da opravlja naloge, določene v pooblastilu, ki ga prejme od ponudnika.
2. Dostawca umożliwia swojemu upoważnionemu przedstawicielowi wykonywanie zadań powierzonych mu na mocy pełnomocnictwa udzielonego przez dostawcę.
3. Pooblaščeni zastopnik opravlja naloge, določene v pooblastilu, ki ga prejme od ponudnika. Če organi za nadzor trga to zahtevajo, jim predloži izvod pooblastila, in sicer v enem od uradnih jezikov institucij Unije, ki ga navede pristojni organ. Za namene te uredbe pooblastilo pooblaščenemu zastopniku omogoča, da opravlja naslednje naloge:
3. Upoważniony przedstawiciel wykonuje zadania powierzone mu na mocy pełnomocnictwa udzielonego przez dostawcę. Upoważniony przedstawiciel przekazuje organom nadzoru rynku, na wniosek, kopię pełnomocnictwa w jednym z oficjalnych języków instytucji Unii wskazanym przez właściwy organ. Do celów niniejszego rozporządzenia pełnomocnictwo uprawnia upoważnionego przedstawiciela do wykonywania następujących zadań:
(a)
preveri, da je bila pripravljena EU izjava o skladnosti iz člena 47 in tehnična dokumentacija iz člena 11 ter da je ponudnik izvedel ustrezen postopek ugotavljanja skladnosti;
a)
sprawdzenie, czy zostały sporządzone deklaracja zgodności UE, o której mowa w art. 47, i dokumentacja techniczna, o której mowa w art. 11, oraz czy została przeprowadzona przez dostawcę odpowiednia procedura oceny zgodności;
(b)
daje kontaktne podatke ponudnika, ki je določil pooblaščenega zastopnika, izvod EU izjave o skladnosti iz člena 47, tehnično dokumentacijo in, če je ustrezno, certifikat, ki ga je izdal priglašeni organ, na voljo pristojnim organom in nacionalnim organom ali telesom iz člena 74(10) še deset let po tem, ko je bil visokotvegani sistem UI dan na trg ali v uporabo;
b)
przechowywanie do dyspozycji właściwych organów i krajowych organów lub jednostek, o których mowa w art. 74 ust. 10, przez okres 10 lat od wprowadzenia systemu AI wysokiego ryzyka do obrotu lub oddania go do użytku, danych kontaktowych dostawcy, który ustanowił upoważnionego przedstawiciela, kopii deklaracji zgodności UE, o której mowa w art. 47, dokumentacji technicznej oraz, w stosownych przypadkach, certyfikatu wydanego przez jednostkę notyfikowaną;
(c)
pristojnemu organu na podlagi obrazložene zahteve zagotovi vse informacije in dokumentacijo, vključno s tisto, ki se hrani v skladu s točko (b) tega pododstavka, potrebne za dokazovanje skladnosti visokotveganega sistema UI z zahtevami iz oddelka 2, vključno z dostopom do dnevnikov, kakor je navedeno v členu 12(1), ki jih samodejno ustvari visokotvegani sistem UI, če so ti dnevniki pod nadzorom ponudnika;
c)
przekazywanie właściwemu organowi, na uzasadniony wniosek, wszelkich informacji i dokumentów, w tym tych, o których mowa w lit. b) niniejszego ustępu, niezbędnych do wykazania zgodności systemu AI wysokiego ryzyka z wymogami ustanowionymi w sekcji 2, w tym zapewnienie temu organowi dostępu do generowanych automatycznie przez system AI wysokiego ryzyka rejestrów zdarzeń, o których mowa w art. 12 ust. 1, w zakresie, w jakim tego rodzaju rejestry zdarzeń znajdują się pod kontrolą dostawcy;
(d)
na podlagi obrazložene zahteve sodeluje s pristojnimi organi pri vseh ukrepih, ki jih ti sprejmejo v zvezi z visokotveganim sistemom UI, zlasti za zmanjšanje in omejitev tveganj, ki jih predstavlja visokotvegani sistem UI;
d)
współpraca z właściwymi organami, na uzasadniony wniosek, w zakresie wszelkich działań, które organy te podejmują w odniesieniu do danego systemu AI wysokiego ryzyka, w szczególności, aby zmniejszyć i ograniczyć ryzyko, jakie stwarza ten system AI wysokiego ryzyka;
(e)
po potrebi izpolnjuje obveznosti registracije iz člena 49(1) ali, če registracijo izvede ponudnik sam, zagotovi, da so informacije iz Priloge VIII, oddelek A, točka 3, pravilne.
e)
w stosownych przypadkach spełnianie obowiązków rejestracyjnych, o których mowa w art. 49 ust. 1, lub, jeżeli rejestracji dokonuje sam dostawca, zapewnienie, by informacje, o których mowa w załączniku VIII sekcja A pkt 3, były prawidłowe.
Na podlagi pooblastila je pooblaščeni zastopnik pooblaščen, da lahko pristojni organi nanj, poleg ponudnika ali namesto njega, naslovijo vsa vprašanja, povezana z zagotavljanjem skladnosti s to uredbo.
Pełnomocnictwo daje upoważnionemu przedstawicielowi prawo do tego, aby właściwe organy mogły się zwracać do niego, obok albo zamiast do dostawcy, we wszystkich kwestiach dotyczących zapewnienia zgodności z niniejszym rozporządzeniem.
4. Pooblaščeni zastopnik odpove pooblastilo, če meni ali utemeljeno domneva, da ponudnik ravna v nasprotju s svojimi obveznostmi iz te uredbe. V takem primeru o odpovedi pooblastila in razlogih zanjo nemudoma obvesti ustrezni organ za nadzor trga in, kadar je primerno, ustrezni priglašeni organ.
4. Upoważniony przedstawiciel wypowiada pełnomocnictwo, jeśli uważa lub ma powody uważać, że dostawca działa w sposób sprzeczny ze swoimi obowiązkami wynikającymi z niniejszego rozporządzenia. W takim przypadku upoważniony przedstawiciel natychmiast informuje o wypowiedzeniu pełnomocnictwa i jego przyczynach odpowiedni organ nadzoru rynku, a także, w stosownych przypadkach, odpowiednią jednostkę notyfikowaną.
1. Pred dajanjem visokotveganega sistema UI na trg uvozniki zagotovijo njegovo skladnost s to uredbo tako, da preverijo, da:
1. Przed wprowadzeniem do obrotu systemu AI wysokiego ryzyka importerzy zapewniają jego zgodność z niniejszym rozporządzeniem, sprawdzając, czy:
(a)
je ponudnik za ta visokotvegani sistem UI izvedel ustrezen postopek ugotavljanja skladnosti iz člena 43;
a)
dostawca systemu AI wysokiego ryzyka przeprowadził odpowiednią procedurę oceny zgodności, o której mowa w art. 43;
(b)
je ponudnik pripravil tehnično dokumentacijo v skladu s členom 11 in Prilogo IV;
b)
dostawca sporządził dokumentację techniczną zgodnie z art. 11 i załącznikiem IV;
(c)
je sistem opremljen z zahtevano oznako CE ter so mu priloženi EU izjava o skladnosti iz člena 47 in navodila za uporabo;
c)
system opatrzono wymaganym oznakowaniem CE oraz dołączono do niego deklarację zgodności UE, o której mowa w art. 47, oraz instrukcję obsługi;
(d)
je ponudnik imenoval pooblaščenega zastopnika v skladu s členom 22(1).
d)
dostawca ustanowił upoważnionego przedstawiciela zgodnie z art. 22 ust. 1.
2. Kadar ima uvoznik zadosten razlog za domnevo, da visokotvegani sistem UI ni skladen s to uredbo ali je ponarejen ali mu je priložena ponarejena dokumentacija, tega sistema ne da na trg, dokler ni zagotovljena njegova skladnost. Kadar visokotvegani sistem UI predstavlja tveganje v smislu člena 79(1), uvoznik o tem obvesti ponudnika sistema, pooblaščenega zastopnika in organe za nadzor trga.
2. W przypadku gdy importer ma wystarczające powody, aby uważać, że system AI wysokiego ryzyka jest niezgodny z niniejszym rozporządzeniem lub został sfałszowany lub sfałszowana została dołączona do niego dokumentacja, nie wprowadza tego systemu do obrotu, dopóki nie zostanie zapewniona jego zgodność z niniejszym rozporządzeniem. W przypadku gdy system AI wysokiego ryzyka stwarza ryzyko w rozumieniu art. 79 ust. 1, importer informuje o tym dostawcę systemu, upoważnionych przedstawicieli oraz organy nadzoru rynku.
3. Uvozniki na visokotveganem sistemu UI in na embalaži ali v spremni dokumentaciji, kadar je ustrezno, navedejo svoje ime, registrirano trgovsko ime ali registrirano znamko in naslov, na katerem so dosegljivi.
3. Importerzy podają w systemie AI wysokiego ryzyka, na opakowaniu tego systemu lub, w stosownych przypadkach, w dołączonej do niego dokumentacji swoją nazwę, zarejestrowaną nazwę handlową lub zarejestrowany znak towarowy i adres, pod którym można się z nimi skontaktować.
4. Uvozniki zagotovijo, da v času, ko so odgovorni za visokotvegani sistem UI, pogoji skladiščenja ali prevoza, kadar je ustrezno, ne ogrožajo skladnosti sistema z zahtevami iz oddelka 2.
4. Importerzy zapewniają, aby w okresie, w którym ponoszą odpowiedzialność za system AI wysokiego ryzyka, warunki jego – stosownie do przypadku – przechowywania lub transportu nie zagrażały jego zgodności z wymogami ustanowionymi w sekcji 2.
5. Uvozniki še deset let po tem, ko je bil visokotvegani sistem UI dan na trg ali v uporabo, hranijo izvod certifikata, ki ga je izdal priglašeni organ, navodil za uporabo, kadar je to primerno, in EU izjave o skladnosti iz člena 47.
5. Przez okres 10 lat od wprowadzenia systemu AI wysokiego ryzyka do obrotu lub oddania go do użytku, importerzy przechowują kopię certyfikatu wydanego przez jednostkę notyfikowaną, w stosownych przypadkach, kopię instrukcji obsługi oraz deklaracji zgodności UE, o której mowa w art. 47.
6. Uvozniki ustreznim pristojnim organom na podlagi obrazložene zahteve predložijo vse potrebne informacije in dokumentacijo, vključno s tistimi iz odstavka 5, da dokažejo skladnost visokotveganega sistema UI z zahtevami iz oddelka 2, v jeziku, ki ga organi zlahka razumejo. V ta namen zagotovijo tudi, da se tem organom lahko da na voljo tehnična dokumentacija.
6. Na uzasadniony wniosek odpowiednich właściwych organów importerzy przekazują im wszelkie niezbędne informacje i dokumentację, w tym te, o których mowa w ust. 5, w celu wykazania zgodności systemu AI wysokiego ryzyka z wymogami ustanowionymi w sekcji 2, w języku łatwo zrozumiałym dla tych organów. W tym celu importerzy zapewniają również możliwość udostępnienia tym organom dokumentacji technicznej.
7. Uvozniki sodelujejo z ustreznimi pristojnimi organi pri vseh ukrepih, ki jih ti organi sprejmejo v zvezi z visokotveganim sistemom UI, ki so ga uvozniki dali na trg, zlasti za zmanjšanje ali omejitev tveganj, ki jih predstavlja ta sistem.
7. Importerzy współpracują z odpowiednimi właściwymi organami w zakresie wszelkich działań, które organy te podejmują w odniesieniu do systemu AI wysokiego ryzyka wprowadzonego do obrotu przez importerów, w szczególności aby zmniejszyć i ograniczyć stwarzane przez ten system ryzyko.
Obveznosti distributerjev
1. Preden omogočijo dostopnost visokotveganega sistema UI na trgu, distributerji preverijo, ali ima zahtevano oznako CE, ali so mu priloženi izvod EU izjave o skladnosti iz člena 47 in navodila za uporabo ter ali sta ponudnik in uvoznik tega sistema, kot je ustrezno, izpolnila vsak svoje obveznosti iz člena 16, točki (b) in (c), oziroma člena 23(3).
1. Przed udostępnieniem na rynku systemu AI wysokiego ryzyka dystrybutorzy sprawdzają, czy został on opatrzony wymaganym oznakowaniem zgodności CE, czy dołączono do niego kopię deklaracji zgodności UE, o której mowa w art. 47, i instrukcję obsługi oraz czy dostawca oraz – w stosownych przypadkach – importer tego systemu spełnili swoje obowiązki ustanowione w art. 16 lit. b) i c) oraz w art. 23 ust. 3.
2. Kadar distributer meni ali na podlagi informacij, ki jih ima, utemeljeno domneva, da visokotvegani sistem UI ni skladen z zahtevami iz oddelka 2, za visokotvegani sistem UI ne omogoči dostopnosti na trgu, dokler ni zagotovljena skladnost tega sistema z navedenimi zahtevami. Kadar visokotvegani sistem UI predstavlja tveganje v smislu člena 79(1), distributer o tem obvesti ponudnika oziroma uvoznika sistema, kot je ustrezno.
2. W przypadku gdy dystrybutor – na podstawie dostępnych mu informacji – uważa lub ma powód, aby uważać, że system AI wysokiego ryzyka nie jest zgodny z wymogami ustanowionymi w sekcji 2 niniejszego tytułu, nie udostępnia na rynku tego systemu AI wysokiego ryzyka, dopóki nie zostanie zapewniona zgodność systemu z tymi wymogami. Ponadto, jeżeli system AI wysokiego ryzyka stwarza ryzyko w rozumieniu art. 79 ust. 1, dystrybutor informuje o tym stosownie do przypadku dostawcę lub importera systemu.
3. Distributerji zagotovijo, da v času, ko so odgovorni za visokotvegani sistem UI, pogoji skladiščenja ali prevoza, kadar je ustrezno, ne ogrožajo njegove skladnosti z zahtevami iz oddelka 2.
3. Dystrybutorzy zapewniają, aby w okresie, w którym ponoszą odpowiedzialność za system AI wysokiego ryzyka, warunki jego przechowywania lub transportu – stosownie do przypadku – nie zagrażały zgodności systemu z wymogami ustanowionymi w sekcji 2.
4. Distributer, ki na podlagi informacij, ki jih ima, meni ali utemeljeno domneva, da visokotvegani sistem UI, za katerega je omogočil dostopnost na trgu, ni skladen z zahtevami iz oddelka 2, sprejme popravne ukrepe, potrebne za uskladitev tega sistema z navedenimi zahtevami, ga umakne ali prekliče ali zagotovi, da te popravne ukrepe sprejme ponudnik, uvoznik ali kateri koli zadevni operater, kot je ustrezno. Kadar visokotvegani sistem UI predstavlja tveganje v smislu člena 79(1), distributer o tem nemudoma obvesti ponudnika ali uvoznika sistema in organe, pristojne za zadevni visokotvegani sistem UI, ter navede podrobnosti, zlasti o neskladnosti in vseh sprejetih popravnih ukrepih.
4. Dystrybutor, który uważa lub ma powód, aby – na podstawie dostępnych mu informacji – uważać, że system AI wysokiego ryzyka udostępniony przez niego na rynku jest niezgodny z wymogami ustanowionymi w sekcji 2, podejmuje działania naprawcze konieczne do zapewnienia zgodności tego systemu z tymi wymogami, do wycofania go z rynku lub wycofania go z użytku lub zapewnia podjęcie takich działań naprawczych przez, stosownie do przypadku, dostawcę, importera lub odpowiedniego operatora. W przypadku gdy system AI wysokiego ryzyka stwarza ryzyko w rozumieniu art. 79 ust. 1, dystrybutor natychmiast informuje o tym dostawcę lub importera systemu oraz organy właściwe w zakresie przedmiotowego system AI wysokiego ryzyka, przekazując szczegółowe informacje w szczególności na temat niezgodności systemu z wymogami i wszelkich podjętych działań naprawczych.
5. Distributerji visokotveganega sistema UI ustreznemu pristojnemu organu na podlagi obrazložene zahteve zagotovijo vse informacije in dokumentacijo o svojih ukrepih na podlagi odstavkov 1 do 4, ki so potrebne za dokazovanje skladnosti visokotveganega sistema UI z zahtevami iz oddelka 2.
5. Na uzasadniony wniosek odpowiedniego organu dystrybutorzy systemów AI wysokiego ryzyka przekazują temu organowi wszelkie informacje i dokumentację dotyczące ich działań zgodnie z ust. 1–4, niezbędne do wykazania zgodności tego systemu z wymogami określonymi w sekcji 2.
6. Distributerji sodelujejo z ustreznimi pristojnimi organi pri vseh ukrepih, ki jih ti organi sprejmejo v zvezi z visokotveganim sistemom UI, katerega so distributerji dali na trg, zlasti za zmanjšanje ali omejitev tveganja, ki ga predstavlja visokotvegani sistem UI.
6. Dystrybutorzy współpracują z odpowiednimi organami krajowymi w zakresie wszelkich działań, które organy te podejmują w odniesieniu do systemu AI wysokiego ryzyka udostępnionego na rynku przez dystrybutorów, w szczególności aby zmniejszyć lub ograniczyć stwarzane przez ten system ryzyko.
Odgovornosti vzdolž verige vrednosti UI
Odpowiedzialność w całym łańcuchu wartości AI
1. Vsak distributer, uvoznik, uvajalec ali druga tretja oseba za namene te uredbe šteje za ponudnika visokotveganega sistema UI in zanj veljajo obveznosti ponudnika iz člena 16 v kateri koli od naslednjih okoliščin:
1. Do celów niniejszego rozporządzenia za dostawcę systemu AI wysokiego ryzyka uznaje się i obejmuje obowiązkami dostawcy ustanowionymi w art. 16 każdego dystrybutora, importera, podmiot stosujący lub inną stronę trzecią, jeżeli zachodzi którakolwiek z następujących okoliczności:
(a)
visokotvegani sistem UI, ki je že bil dan na trg ali v uporabo, označijo s svojim imenom ali znamko, brez poseganja v pogodbene dogovore, ki določajo, da so obveznosti drugače dodeljene;
a)
umieszczają oni swoją nazwę lub znak towarowy w systemie AI wysokiego ryzyka, który został już wprowadzony do obrotu lub oddany do użytku, bez uszczerbku dla ustaleń umownych przewidujących, że podział obowiązków następuje w inny sposób;
(b)
bistveno spremenijo visokotvegani sistem UI, ki je že bil dan na trg ali v uporabo, na način, da ostane visokotvegani sistem UI na podlagi člena 6;
b)
we wprowadzonym już do obrotu lub oddanym do użytku systemie AI wysokiego ryzyka dokonują oni istotnej zmiany w taki sposób, że pozostaje on systemem AI wysokiego ryzyka zgodnie z art. 6;
(c)
spremenijo predvideni namen sistema UI, vključno s sistemom UI za splošne namene, ki ni bil razvrščen kot sistem visokega tveganja in je že bil dan na trg ali v uporabo na način, da postane visokotvegani sistem UI v skladu s členom 6.
c)
zmieniają oni przeznaczenie systemu AI, w tym systemu AI ogólnego przeznaczenia, który nie został zaklasyfikowany jako system AI wysokiego ryzyka i który został już wprowadzony do obrotu lub oddany do użytku, w taki sposób, że dany system AI staje się systemem AI wysokiego ryzyka zgodnie z art. 6.
2. Kadar nastopijo okoliščine iz odstavka 1, ponudnik, ki je prvotno dal sistem UI na trg ali v uporabo, za namene te uredbe ne šteje več za ponudnika tega posameznega sistema UI. Ta prvotni ponudnik tesno sodeluje z novimi ponudniki in daje na voljo potrebne informacije ter zagotavlja razumno pričakovani tehnični dostop in drugo pomoč, ki je potrebna za izpolnjevanje obveznosti iz te uredbe, zlasti v zvezi z ugotavljanjem skladnosti visokotveganih sistemov UI. Ta odstavek se ne uporablja v primerih, ko je prvotni ponudnik jasno navedel, da se njegov sistem UI ne sme spremeniti v visokotvegani sistem UI, in zato zanj ne velja obveznost predaje dokumentacije.
2. W przypadku zaistnienia okoliczności, o których mowa w ust. 1, dostawcy, który pierwotnie wprowadził do obrotu lub oddał do użytku ten system AI, nie uznaje się już do celów niniejszego rozporządzenia za dostawcę tego konkretnego systemu AI. Ten pierwotny dostawca ściśle współpracuje z nowymi dostawcami i udostępnia niezbędne informacje oraz udziela racjonalnie oczekiwanego dostępu technicznego i innego wsparcia niezbędnych do spełnienia obowiązków określonych w niniejszym rozporządzeniu, w szczególności w odniesieniu do zgodności z kryteriami oceny zgodności systemów AI wysokiego ryzyka. Niniejszego ustępu nie stosuje się w przypadkach, gdy pierwotny dostawca wyraźnie określił, że jego system AI nie może zostać zmieniony w system AI wysokiego ryzyka, a zatem nie dotyczy go obowiązek przekazania dokumentacji.
3. Za visokotvegane sisteme UI, ki so varnostne komponente proizvodov, za katere se uporablja harmonizacijska zakonodaja Unije iz Priloge I, oddelek A, proizvajalec teh proizvodov šteje za ponudnika visokotveganega sistema UI in zanj veljajo obveznosti iz člena 16 na podlagi enega od naslednjih scenarijev:
3. W przypadku systemów AI wysokiego ryzyka, które stanowią związane z bezpieczeństwem elementy produktów objętych zakresem unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I sekcja A, producenta produktów uznaje się za dostawcę systemu AI wysokiego ryzyka i podlega on obowiązkom ustanowionym w art. 16, jeżeli zachodzi którakolwiek z następujących okoliczności:
(a)
visokotvegani sistem UI se da na trg skupaj s proizvodom pod imenom ali znamko proizvajalca proizvoda;
a)
system AI wysokiego ryzyka jest wprowadzany do obrotu wraz z produktem pod nazwą lub znakiem towarowym producenta produktu;
(b)
visokotvegani sistem UI se da v uporabo pod imenom ali znamko proizvajalca proizvoda, potem ko je bil ta dan na trg.
b)
system AI wysokiego ryzyka jest oddawany do użytku pod nazwą lub znakiem towarowym producenta produktu po wprowadzeniu produktu do obrotu.
4. Ponudnik visokotveganega sistema UI in tretja oseba, ki dobavlja sistem UI, orodja, storitve, komponente ali procese, ki se uporabljajo ali integrirajo v visokotvegani sistem UI, s pisnim dogovorom določita potrebne informacije, zmogljivosti, tehnični dostop in drugo pomoč na podlagi splošno priznanih najsodobnejših tehnoloških dosežkov, da lahko ponudnik visokotveganega sistema UI v celoti izpolnjuje obveznosti iz te uredbe. Ta odstavek se ne uporablja za tretje osebe, ki javnosti omogočajo dostop do orodij, storitev, postopkov ali komponent, ki niso modeli UI za splošne namene, na podlagi proste in odprtokodne licence.
4. Dostawca systemu AI wysokiego ryzyka i osoba trzecia dostarczająca system AI, narzędzia, usługi, komponenty lub procesy, które są wykorzystywane w systemie AI wysokiego ryzyka lub z nim zintegrowane, wskazują, w drodze pisemnej umowy, informacje, zdolności, dostęp techniczny i innego rodzaju pomoc opartą na powszechnie uznanym stanie wiedzy technicznej wymagane, aby umożliwić dostawcy systemu AI wysokiego ryzyka pełne spełnienie obowiązków ustanowionych w niniejszym rozporządzeniu. Niniejszego ustępu nie stosuje się do osób trzecich udostępniających publicznie na podstawie bezpłatnej licencji otwartego oprogramowania narzędzia, usługi, procesy lub komponenty inne niż modele AI ogólnego przeznaczenia.
Urad za UI lahko pripravi in priporoči prostovoljne vzorčne pogoje za pogodbe med ponudniki visokotveganih sistemov UI in tretjimi osebami, ki zagotavljajo orodja, storitve, komponente ali postopke, ki se uporabljajo za visokotvegane sisteme UI ali so vanje vključeni. Urad za UI pri oblikovanju teh vzorčnih pogojev upošteva morebitne pogodbene zahteve, ki se uporabljajo v posameznih sektorjih ali poslovnih primerih. Prostovoljni vzorčni pogoji se objavijo in so brezplačno na voljo v lahko uporabni elektronski obliki.
Urząd ds. AI może opracować i zalecić dobrowolne wzorcowe postanowienia umowne dla umów zawieranych między dostawcami systemów AI wysokiego ryzyka a osobami trzecimi dostarczającymi narzędzia, usługi, komponenty lub procesy, które są wykorzystywane na potrzeby systemów AI wysokiego ryzyka lub zintegrowane z tymi systemami. Przy opracowywaniu dobrowolnych wzorcowych postanowień umownych, Urząd ds. AI bierze również pod uwagę ewentualne wymogi umowne mające zastosowanie w określonych sektorach lub przypadkach biznesowych. Dobrowolne wzorcowe postanowienia umowne są publikowane i udostępniane bezpłatnie w łatwym w użyciu formacie elektronicznym.
5. Odstavka 2 in 3 ne posegata v potrebo po spoštovanju in varstvu pravic intelektualne lastnine, zaupnih poslovnih informacij in poslovnih skrivnosti v skladu s pravom Unije in nacionalnim pravom.
5. Ust. 2 i 3 pozostają bez uszczerbku dla konieczności przestrzegania i ochrony praw własności intelektualnej, poufnych informacji handlowych i tajemnic przedsiębiorstwa zgodnie z prawem Unii i prawem krajowym.
Obveznosti uvajalcev visokotveganih sistemov UI
Obowiązki podmiotów stosujących systemy AI wysokiego ryzyka
1. Uvajalci visokotveganih sistemov UI sprejmejo ustrezne tehnične in organizacijske ukrepe, s katerimi zagotovijo, da uporabljajo take sisteme v skladu s priloženimi navodili za uporabo, na podlagi odstavkov 3 in 6.
1. Podmioty stosujące systemy AI wysokiego ryzyka podejmują – na podstawie ust. 3 i 6 – odpowiednie środki techniczne i organizacyjne w celu zapewnienia, aby systemy takie były wykorzystywane zgodnie z dołączoną do nich instrukcją obsługi.
2. Uvajalci dodelijo človeški nadzor fizičnim osebam, ki imajo potrebne kompetence, usposobljenost in pooblastila ter potrebno podporo.
2. Podmioty stosujące powierzają sprawowanie nadzoru ze strony człowieka osobom fizycznym, które mają niezbędne kompetencje, przeszkolenie i uprawnienia, a także niezbędne wsparcie.
3. Obveznosti iz odstavkov 1 in 2 ne posegajo v druge obveznosti uvajalca v skladu s pravom Unije ali nacionalnim pravom ter v pravico uvajalca, da organizira lastna sredstva in dejavnosti za izvajanje ukrepov za človeški nadzor, ki jih navede ponudnik.
3. Obowiązki ustanowione w ust. 1 i 2 pozostają bez uszczerbku dla innych obowiązków podmiotu stosującego wynikających z prawa Unii lub prawa krajowego oraz dla przysługującej podmiotowi stosującemu swobody organizowania swoich zasobów własnych i działań w celu wdrożenia wskazanych przez dostawcę środków nadzoru ze strony człowieka.
4. Brez poseganja v odstavka 1 in 2, če uvajalec izvaja nadzor nad vhodnimi podatki, ta uvajalec zagotovi, da so vhodni podatki ustrezni in dovolj reprezentativni glede na predvideni namen visokotveganega sistema UI.
4. Bez uszczerbku dla ust. 1 i 2 podmiot stosujący zapewnia, w zakresie, w jakim sprawuje on kontrolę nad danymi wejściowymi, adekwatność i wystarczającą reprezentatywność danych wejściowych w odniesieniu do przeznaczenia systemu AI wysokiego ryzyka.
5. Uvajalci spremljajo delovanje visoko tveganega sistem UI na podlagi navodil za uporabo in po potrebi obvestijo ponudnike v skladu s členom 72. Kadar imajo uvajalci razlog za domnevo, da bi uporaba visoko tveganega sistema UI v skladu z navodili lahko povzročila, da bi visokotvegani sistem UI predstavljal tveganje v smislu člena 79(1), o tem brez nepotrebnega odlašanja obvestijo ponudnika ali distributerja in ustrezni organ za nadzor trga ter začasno prekinejo uporabo tega sistema. Kadar uvajalci odkrijejo resen incident, o tem incidentu takoj obvestijo najprej ponudnika in nato uvoznika ali distributerja in ustrezne organe za nadzor trga. Če uvajalec ne more priti v stik s ponudnikom, se smiselno uporablja člen 73. Ta obveznost ne zajema občutljivih operativnih podatkov uvajalcev sistemov UI, ki so organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj.
5. Podmioty stosujące monitorują działanie systemu AI wysokiego ryzyka w oparciu o instrukcję obsługi i w stosownych przypadkach informują dostawców zgodnie z art. 72. W przypadku gdy podmioty stosujące mają powody uważać, że wykorzystanie systemu AI wysokiego ryzyka zgodnie z instrukcją obsługi może powodować, że ten system AI będzie stwarzał ryzyko w rozumieniu art. 79 ust. 1, bez zbędnej zwłoki informują o tym dostawcę lub dystrybutora oraz odpowiedni organ nadzoru rynku i zawieszają wykorzystywanie systemu. W przypadku gdy podmioty stosujące stwierdziły wystąpienie poważnego incydentu, natychmiast informują o tym incydencie najpierw dostawcę, a następnie importera lub dystrybutora oraz odpowiednie organy nadzoru rynku. Jeżeli podmiot stosujący nie jest w stanie skontaktować się z dostawcą, art. 73 stosuje się odpowiednio. Obowiązek ten nie obejmuje wrażliwych danych operacyjnych podmiotów stosujących systemy AI będących organami ścigania.
Za uvajalce, ki so finančne institucije in za katere veljajo zahteve v zvezi z njihovim notranjim upravljanjem, ureditvami ali postopki na podlagi prava Unije o finančnih storitvah, se šteje, da je obveznost spremljanja iz prvega pododstavka izpolnjena z upoštevanjem pravil o ureditvah, procesih in mehanizmih notranjega upravljanja na podlagi ustreznega prava o finančnih storitvah.
W odniesieniu do podmiotów stosujących będących instytucjami finansowymi, które podlegają wymogom dotyczącym ich systemu zarządzania wewnętrznego, uzgodnień lub procedur na podstawie przepisów prawa Unii dotyczących usług finansowych, obowiązek w zakresie monitorowania, o którym mowa w akapicie pierwszym, uznaje się za spełniony w przypadku zapewnienia zgodności z przepisami dotyczącymi uzgodnień, procedur i mechanizmów zarządzania wewnętrznego na podstawie odpowiednich przepisów dotyczących usług finansowych.
6. Uvajalci visokotveganih sistemov UI vodijo dnevnike, ki jih samodejno ustvari ta visokotvegani sistem UI, če so ti dnevniki pod njihovim nadzorom, v obdobju, ki ustreza predvidenemu namenu visokotveganega sistema UI, in sicer vsaj šest mesecev, razen če je v veljavnem pravu Unije ali nacionalnem pravu, zlasti v pravu Unije o varstvu osebnih podatkov, določeno drugače.
6. Podmioty stosujące systemy AI wysokiego ryzyka przechowują generowane automatycznie przez system AI wysokiego ryzyka rejestry zdarzeń – w zakresie, w jakim rejestry te znajdują się pod ich kontrolą – przez stosowny ze względu na przeznaczenie danego systemu AI wysokiego ryzyka okres, wynoszący co najmniej sześć miesięcy, o ile mające zastosowanie prawo Unii lub prawo krajowe, w szczególności prawo Unii dotyczące ochrony danych osobowych, nie stanowi inaczej.
Uvajalci, ki so finančne institucije in za katere veljajo zahteve v zvezi z njihovim notranjim upravljanjem, ureditvami ali postopki na podlagi prava Unije o finančnih storitvah, vodijo dnevnike kot del dokumentacije, ki se hrani na podlagi ustreznega prava Unije o finančnih storitvah.
Podmioty stosujące będące instytucjami finansowymi, które podlegają wymogom dotyczącym ich systemu zarządzania wewnętrznego, uzgodnień lub procedur na podstawie przepisów prawa Unii dotyczących usług finansowych, prowadzą rejestry zdarzeń jako część dokumentacji prowadzonej na podstawie odpowiednich unijnych przepisów dotyczących usług finansowych.
7. Uvajalci, ki so delodajalci, pred dajanjem v uporabo ali pred uporabo visokotveganega sistema UI na delovnem mestu obvestijo predstavnike delavcev in delavce, na katere se to nanaša, da se bo zanje uporabljal visokotvegani sistem UI. Te informacije se po potrebi zagotovijo v skladu s pravili in postopki, določenimi v pravu Unije in nacionalnem pravu ter praksi v zvezi z obveščanjem delavcev in njihovih predstavnikov.
7. Przed oddaniem do użytku lub wykorzystaniem systemu AI wysokiego ryzyka w miejscu pracy podmioty stosujące będące pracodawcami informują przedstawicieli pracowników i pracowników, których to dotyczy, że będzie w stosunku do nich wykorzystywany system AI wysokiego ryzyka. Informacje te przekazuje się, w stosownych przypadkach, zgodnie z zasadami i procedurami ustanowionymi w prawie Unii i prawie krajowym oraz praktyką w zakresie informowania pracowników i ich przedstawicieli.
8. Uvajalci visokotveganih sistemov UI, ki so javni organi ali institucije, organi, uradi in agencije Unije, izpolnjujejo obveznosti registracije iz člena 49. Če ti uvajalci ugotovijo, da visokotvegani sistem UI, ki ga nameravajo uporabljati, ni bil registriran v podatkovni zbirki EU iz člena 71, tega sistema ne uporabljajo in o tem obvestijo ponudnika ali distributerja.
8. Podmioty stosujące systemy AI wysokiego ryzyka, będące publicznymi organami lub instytucjami, organami i jednostkami organizacyjnymi Unii, spełniają obowiązki rejestracji, o których mowa w art. 49. Jeżeli takie podmioty stosujące ustalą, że system AI wysokiego ryzyka, który zamierzają wykorzystywać, nie został zarejestrowany w bazie danych UE, o której mowa w art. 71, nie stosują tego systemu i informują o tym dostawcę lub dystrybutora.
9. Uvajalci visokotveganih sistemov UI po potrebi uporabijo informacije iz člena 13 te uredbe, da izpolnijo svojo obveznost izvedbe ocene učinka v zvezi z varstvom podatkov na podlagi člena 35 Uredbe (EU) 2016/679 ali člena 27 Direktive (EU) 2016/680.
9. W stosownych przypadkach, podmioty stosujące systemy AI wysokiego ryzyka korzystają z informacji przekazanych na podstawie art. 13 niniejszego rozporządzenia, aby spełnić spoczywając na nich obowiązki przeprowadzenia oceny skutków dla ochrony danych zgodnie z art. 35 rozporządzenia (UE) 2016/679 lub art. 27 dyrektywy (UE) 2016/680.
10. Brez poseganja v Direktivo (EU) 2016/680 v okviru preiskave za ciljno iskanje osebe, ki je osumljena ali obsojena storitve kaznivega dejanja, uvajalec visokotveganega sistema UI za naknadno biometrično identifikacijo na daljavo predhodno ali brez nepotrebnega odlašanja in najpozneje v 48 urah zaprosi sodni organ ali upravni organ, katerega odločitev je zavezujoča in je predmet sodnega nadzora, za uporabo tega sistema, razen če se ta uporablja za prvotno identifikacijo morebitnega osumljenca na podlagi objektivnih in preverljivih dejstev, neposredno povezanih s kaznivim dejanjem. Vsaka uporaba mora biti omejena na tisto, kar je nujno potrebno za preiskavo določenega kaznivega dejanja.
10. Bez uszczerbku dla dyrektywy (UE) 2016/680, w ramach postępowania przygotowawczego dotyczącego ukierunkowanego poszukiwania osoby podejrzanej o popełnienie przestępstwa lub skazanej za popełnienie przestępstwa podmiot stosujący system AI wysokiego ryzyka do celów zdalnej identyfikacji biometrycznej post factum zwraca się – ex ante lub bez zbędnej zwłoki, nie później jednak niż w ciągu 48 godzin – do organu wymiaru sprawiedliwości lub organu administracyjnego, którego decyzja jest wiążąca i podlega kontroli sądowej, z wnioskiem o zezwolenie na wykorzystanie tego systemu, z wyjątkiem sytuacji, gdy jest on wykorzystywany do wstępnej identyfikacji potencjalnego podejrzanego w oparciu o obiektywne i możliwe do zweryfikowania fakty bezpośrednio związane z przestępstwem. Każde wykorzystanie takiego systemu musi być ograniczone do tego, co jest bezwzględnie konieczne do prowadzenia postępowań przygotowawczych w sprawie konkretnego przestępstwa.
Če se dovoljenje, zahtevano na podlagi prvega pododstavka, zavrne, je treba takoj prenehati uporabljati sistem za naknadno biometrično identifikacijo na daljavo, povezan z zahtevanim dovoljenjem, osebni podatki, povezani z uporabo visokotveganega sistema UI, za katerega je bilo zaprošeno dovoljenje, pa se izbrišejo.
W przypadku gdy wniosek o zezwolenie, o którym mowa w akapicie pierwszym, zostanie odrzucony, korzystanie z systemu zdalnej identyfikacji biometrycznej post factum, będące przedmiotem wniosku o zezwolenie, zostaje wstrzymane ze skutkiem natychmiastowym, a dane osobowe związane z wykorzystaniem systemu AI wysokiego ryzyka, w odniesieniu do którego złożono wniosek o zezwolenie, zostają usunięte.
V nobenem primeru se tak visokotvegani sistem UI za naknadno biometrično identifikacijo na daljavo ne sme uporabljati za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj na neciljen način, brez kakršne koli povezave s kaznivim dejanjem, kazenskim postopkom, resnično in sedanjo ali resnično in predvidljivo grožnjo kaznivega dejanja ali iskanjem določene pogrešane osebe. Zagotovi se, da organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj izključno na podlagi izhodnih podatkov sistema za naknadno biometrično identifikacijo na daljavo ne smejo sprejeti nobene odločitve, ki bi imela negativen pravni učinek na osebo.
W żadnym przypadku taki system AI wysokiego ryzyka służący do zdalnej identyfikacji biometrycznej post factum nie może być wykorzystywany do celów ścigania przestępstw w sposób nieukierunkowany, bez związku z przestępstwem, postępowaniem karnym, rzeczywistym i obecnym lub rzeczywistym i dającym się przewidzieć zagrożeniem popełnieniem przestępstwa lub poszukiwaniem konkretnej osoby zaginionej. Zapewnia się, aby organy ścigania mogły wydać żadnej decyzji wywołującej niepożądane skutki prawne dla danej osoby wyłącznie na podstawie wyników uzyskanych z systemu zdalnej identyfikacji biometrycznej post factum.
Ta odstavek ne posega v člen 9 Uredbe (EU) 2016/679 in člen 10 Direktive (EU) 2016/680 za obdelavo biometričnih podatkov.
Niniejszy ustęp pozostaje bez uszczerbku dla art. 9 rozporządzenia (UE) 2016/679 i art. 10 dyrektywy (UE) 2016/680 w odniesieniu do przetwarzania danych biometrycznych.
Ne glede na namen ali uvajalca se vsaka uporaba takih visokotveganih sistemov UI dokumentira v ustrezni policijski datoteki ter se na zahtevo da na voljo ustreznemu organu za nadzor trga in nacionalnemu organu za varstvo podatkov, razen razkritja občutljivih operativnih podatkov, povezanih s preprečevanjem, odkrivanjem in preiskovanjem kaznivih dejanj. Ta pododstavek ne posega v pooblastila, ki so z Direktivo (EU) 2016/680 dodeljena nadzornim organom.
Niezależnie od celu lub podmiotu stosującego każde wykorzystanie takich systemów AI wysokiego ryzyka musi zostać udokumentowane w odpowiednich aktach policyjnych i udostępnione na wniosek właściwego organu nadzoru rynku i krajowemu organowi ochrony danych, z wyłączeniem ujawniania wrażliwych danych operacyjnych związanych ze ściganiem przestępstw. Niniejszy akapit pozostaje bez uszczerbku dla uprawnień powierzonych organom nadzorczym dyrektywą (UE) 2016/680.
Uvajalci ustreznim organom za nadzor trga in nacionalnim organom za varstvo podatkov predložijo letna poročila o uporabi sistemov za naknadno biometrično identifikacijo na daljavo, razen razkritja občutljivih operativnih podatkov v zvezi z organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj. Poročila se lahko združijo tako, da zajemajo več kot eno uvedbo.
Podmioty stosujące przedkładają właściwym organom nadzoru rynku i krajowym organom ochrony danych roczne sprawozdania dotyczące wykorzystania przez nie systemów zdalnej identyfikacji biometrycznej post factum, z wyłączeniem ujawniania wrażliwych danych operacyjnych związanych ze ściganiem przestępstw. Sprawozdania te mogą zostać zagregowane w celu uwzględnienia stosowania więcej niż jednego systemu.
Države članice lahko v skladu s pravom Unije uvedejo strožje zakone o uporabi sistemov za naknadno biometrično identifikacijo na daljavo.
Państwa członkowskie mogą wprowadzić, zgodnie z prawem Unii, bardziej restrykcyjne przepisy dotyczące korzystania z systemów zdalnej identyfikacji biometrycznej post factum.
11. Brez poseganja v člen 50 te uredbe uvajalci visokotveganih sistemov UI iz Priloge III, ki sprejemajo odločitve ali pomagajo pri njihovem odločanju v zvezi s fizičnimi osebami, slednje obvestijo, da se zanje uporablja visokotvegani sistem UI. Za visokotvegane sisteme UI, ki se uporabljajo za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, se uporablja člen 13 Direktive (EU) 2016/680.
11. Bez uszczerbku dla art. 50 niniejszego rozporządzenia podmioty stosujące systemy wysokiego ryzyka, o których mowa w załączniku III, które to podmioty podejmują decyzje lub uczestniczą w podejmowaniu decyzji dotyczących osób fizycznych, informują osoby fizyczne o tym, że jest w stosunku do nich wykorzystywany system AI wysokiego ryzyka. W przypadku systemów AI wysokiego ryzyka wykorzystywanych do celów ścigania przestępstw stosuje się art. 13 dyrektywy (UE) 2016/680.
12. Uvajalci sodelujejo z ustreznimi pristojnimi organi pri vseh ukrepih, ki jih ti organi sprejmejo v zvezi z visokotveganim sistemom UI, da bi uresničili to uredbo.
12. Podmioty stosujące współpracują z odpowiednimi właściwymi organami przy wszelkich działaniach, które organy te podejmują w odniesieniu do systemu AI wysokiego ryzyka, w celu wykonywania niniejszego rozporządzenia.
Ocena učinka na temeljne pravice za visokotvegane sisteme UI
Ocena skutków systemów AI wysokiego ryzyka dla praw podstawowych
1. Pred uvedbo visoko tveganega sistema UI iz člena 6(2), razen visokotveganih sistemov UI, namenjenih uporabi na področju iz Priloge III, točka 2, uvajalci, ki so osebe javnega prava ali zasebni subjekti in zagotavljajo javne storitve, ter uvajalci visokotveganih sistemov UI iz Priloge III, točki 5(b) in (c), izvedejo oceno učinka, ki ga lahko povzroči uporaba takega sistema na temeljne pravice. V ta namen uvajalci izvedejo oceno, ki jo sestavljajo:
1. Przed wdrożeniem systemu AI wysokiego ryzyka, o którym mowa w art. 6 ust. 2, z wyjątkiem systemów AI wysokiego ryzyka przeznaczonych do stosowania w obszarze wymienionym w załączniku III pkt 2, podmioty stosujące będące podmiotami prawa publicznego lub podmiotami prywatnymi świadczącymi usługi publiczne, oraz podmioty stosujące systemy AI wysokiego ryzyka, o których mowa w załączniku III pkt 5 lit. b) i c), przeprowadzają ocenę skutków w zakresie praw podstawowych, jakie może wywołać wykorzystanie takiego systemu. W tym celu podmioty stosujące przeprowadzają ocenę obejmującą:
(a)
opis postopkov uvajalca, v katerih se bo visokotvegani sistem UI uporabljal v skladu s predvidenim namenom;
a)
opis procesów podmiotu stosującego, w których system AI wysokiego ryzyka będzie wykorzystywany zgodnie z jego przeznaczeniem;
(b)
opis obdobja in pogostosti uporabe vsakega visokotveganega sistema UI;
b)
opis okresu, w którym każdy system AI wysokiego ryzyka ma być wykorzystywany i opis częstotliwości tego wykorzystywania;
(c)
kategorije fizičnih oseb in skupin, na katere bo verjetno vplivala njegova uporaba v specifičnem kontekstu;
c)
kategorie osób fizycznych i grup, na które może mieć wpływ wykorzystywanie systemu;
(d)
posebna tveganja škode, ki bi lahko vplivala na kategorije fizičnih oseb ali skupine oseb, opredeljene na podlagi tega odstavka, točka (c), ob upoštevanju informacij, ki jih je ponudnik predložil na podlagi člena 13;
d)
szczególne ryzyko szkody, które może mieć wpływ na kategorie osób fizycznych lub grupy osób zidentyfikowane zgodnie z lit. c) niniejszego ustępu, z uwzględnieniem informacji przekazanych przez dostawcę zgodnie z art. 13;
(e)
opis izvajanja ukrepov za človeški nadzor v skladu z navodili za uporabo;
e)
opis wdrożenia środków nadzoru ze strony człowieka, zgodnie z instrukcją obsługi;
(f)
ukrepi, ki jih je treba sprejeti, v primeru uresničitve teh tveganj, vključno z ureditvami za notranje upravljanje in pritožbene mehanizme.
f)
środki, jakie należy podjąć w przypadku urzeczywistnienia się tego ryzyka, w tym ustalenia dotyczące zarządzania wewnętrznego i mechanizmów rozpatrywania skarg.
2. Obveznost iz odstavka 1 se uporablja za prvo uporabo visokotveganega sistema UI. Uvajalec lahko v podobnih primerih uporabi predhodno izvedeno oceno učinka na temeljne pravice ali obstoječo oceno, ki jo je izvedel ponudnik. Če uvajalec med uporabo visokotveganega sistema UI meni, da se je kateri koli element iz odstavka 1 spremenil ali ni več posodobljen, sprejme potrebne ukrepe za posodobitev informacij.
2. Obowiązek ustanowiony w ust. 1 ma zastosowanie do wykorzystania systemu AI wysokiego ryzyka po raz pierwszy. W podobnych przypadkach podmiot stosujący może polegać na wcześniej przeprowadzonych ocenach skutków dla praw podstawowych lub na istniejących ocenach skutków przeprowadzonych przez dostawcę. Jeżeli w trakcie wykorzystania systemu AI wysokiego ryzyka podmiot stosujący uzna, że którykolwiek z elementów wymienionych w ust. 1 uległ zmianie lub nie jest już aktualny, podmiot ten podejmuje niezbędne kroki w celu aktualizacji informacji.
3. Po izvedbi ocene iz odstavka 1 tega člena uvajalec obvesti organ za nadzor trga o svojih rezultatih, s predložitvijo izpolnjene predloge iz odstavka 5 tega člena. V primeru iz člena 46(1) so lahko uvajalci izvzeti iz obveznosti obveščanja.
3. Po przeprowadzeniu oceny, o której mowa w ust. 1 niniejszego artykułu, podmiot stosujący powiadamia organ nadzoru rynku o jej wynikach, przedkładając jako element tego powiadomienia wypełniony wzór, o którym mowa w ust. 5 niniejszego artykułu. W przypadku, o którym mowa w art. 46 ust. 1, podmioty stosujące mogą zostać zwolnione z obowiązku dokonania powiadomienia.
4. Če je katera od obveznosti iz tega člena že izpolnjena na podlagi ocene učinka v zvezi z varstvom podatkov, izvedene na podlagi člena 35 Uredbe (EU) 2016/679 ali člena 27 Direktive (EU) 2016/680, ocena učinka na temeljne pravice iz odstavka 1 tega člena dopolnjuje to oceno učinka v zvezi z varstvom podatkov.
4. Jeżeli którykolwiek z obowiązków ustanowionych w niniejszym artykule został już spełniony w wyniku oceny skutków dla ochrony danych przeprowadzonej zgodnie z art. 35 rozporządzenia (UE) 2016/679 lub art. 27 dyrektywy (UE) 2016/680, ocena skutków w zakresie praw podstawowych, o której mowa w ust. 1 niniejszego artykułu, stanowi uzupełnieniem tej oceny skutków dla ochrony danych.
5. Urad za UI pripravi predlogo vprašalnika, tudi z avtomatiziranim orodjem, da bi se uvajalcem omogočilo, da na poenostavljen način izpolnijo svoje obveznosti iz tega člena.
5. Urząd ds. AI opracowuje wzór kwestionariusza, w tym za pomocą zautomatyzowanego narzędzia, aby ułatwić podmiotom stosującym spełnianie ich obowiązków wynikających z niniejszego artykułu w sposób uproszczony.
1. Vsaka država članica imenuje ali vzpostavi vsaj en priglasitveni organ, odgovoren za vzpostavitev in izvajanje potrebnih postopkov za ocenjevanje, imenovanje in priglasitev organov za ugotavljanje skladnosti ter za njihovo spremljanje. Takšni postopki se oblikujejo v sodelovanju med priglasitvenimi organi vseh držav članic.
1. Każde państwo członkowskie wyznacza lub ustanawia przynajmniej jeden organ notyfikujący odpowiedzialny za opracowanie i stosowanie procedur koniecznych do oceny, wyznaczania i notyfikowania jednostek oceniających zgodność oraz za ich monitorowanie. Procedury te są przygotowywane wspólnie przez organy notyfikujące wszystkich państw członkowskich.
2. Države članice lahko odločijo, da mora ocenjevanje in spremljanje iz odstavka 1 izvajati nacionalni akreditacijski organ v smislu Uredbe (ES) št. 765/2008 in v skladu z njo.
2. Państwa członkowskie mogą zdecydować, że ocena oraz monitorowanie, o których mowa w ust. 1, są prowadzone przez krajową jednostkę akredytującą w rozumieniu rozporządzenia (WE) nr 765/2008 oraz zgodnie z tym rozporządzeniem.
3. Priglasitveni organi se ustanovijo, organizirajo in delujejo tako, da ne pride do navzkrižja interesov z organi za ugotavljanje skladnosti ter da se zaščitita objektivnost in nepristranskost njihovih dejavnosti.
3. Organy notyfikujące ustanawia się, organizuje się i zarządza się nimi w taki sposób, aby nie dopuścić do wystąpienia konfliktu interesów z jednostkami oceniającymi zgodność i aby zapewnić obiektywny i bezstronny charakter ich działalności.
4. Priglasitveni organi so organizirani tako, da odločitve v zvezi s priglasitvijo organov za ugotavljanje skladnosti sprejemajo pristojne osebe, ki niso tiste, ki so izvedle ocenjevanje teh organov.
4. Działalność organów notyfikujących organizuje się w taki sposób, aby decyzje dotyczące notyfikacji jednostek oceniających zgodność podejmowały kompetentne osoby, które nie przeprowadzały oceny tych jednostek.
5. Priglasitveni organi ne ponujajo ali izvajajo nobenih dejavnosti, ki jih izvajajo organi za ugotavljanje skladnosti, in tudi nobenih storitev svetovanja na komercialni ali konkurenčni podlagi.
5. Organy notyfikujące nie mogą oferować ani podejmować żadnych działań realizowanych przez jednostki oceniające zgodność ani świadczyć żadnych usług doradztwa na zasadzie komercyjnej lub konkurencyjnej.
6. Priglasitveni organi zagotavljajo zaupnost pridobljenih informacij v skladu s členom 78.
6. Organy notyfikujące zapewniają poufność otrzymywanych informacji zgodnie z art. 78.
7. Priglasitveni organi morajo imeti na voljo zadostno število strokovnega osebja za pravilno izvajanje svojih nalog. Pristojno osebje mora imeti potrebno strokovno znanje, kadar je ustrezno, za svojo funkcijo na področjih, kot so informacijske tehnologije, UI in pravo, vključno z nadzorom temeljnih pravic.
7. Organy notyfikujące muszą dysponować odpowiednią liczbą kompetentnych pracowników, aby należycie wykonywać powierzone im zadania. Kompetentni pracownicy muszą posiadać, w odpowiednich przypadkach, wiedzę fachową niezbędną do pełnienia ich funkcji w dziedzinach, takich jak technologie informacyjne, AI i prawo, w tym nadzór nad prawami podstawowymi.
Vloga organa za ugotavljanje skladnosti za priglasitev
Wniosek jednostki oceniającej zgodność o notyfikację
1. Organi za ugotavljanje skladnosti predložijo vlogo za priglasitev priglasitvenemu organu države članice, v kateri imajo sedež.
1. Jednostki oceniające zgodność przekazują wniosek o notyfikację organowi notyfikującemu państwa członkowskiego, w którym znajduje się ich siedziba.
2. Vlogi za priglasitev se priložijo opis dejavnosti ugotavljanja skladnosti, opis modula ali modulov za ugotavljanje skladnosti in opis vrst sistemov UI, za katere organ za ugotavljanje skladnosti trdi, da je zanje pristojen, ter morebitni certifikat o akreditaciji, ki ga izda nacionalni akreditacijski organ, ki potrjuje, da organ za ugotavljanje skladnosti izpolnjuje zahteve iz člena 31.
2. Do wniosku o notyfikację załącza się opis czynności z zakresu oceny zgodności, modułu lub modułów oceny zgodności i rodzajów systemów AI, w odniesieniu do których jednostka oceniająca zgodność uważa się za kompetentną, a także wydany przez krajową jednostkę akredytującą certyfikat akredytacji (o ile takowy istnieje) poświadczający, że jednostka oceniająca zgodność spełnia wymogi ustanowione w art. 31.
Dodajo se vsi veljavni dokumenti v zvezi z obstoječimi imenovanji priglašenega organa vlagatelja na podlagi katere koli druge harmonizacijske zakonodaje Unije.
Do wniosku załącza się również wszelkie ważne dokumenty dotyczące obowiązującego wyznaczenia – na podstawie innego unijnego prawodawstwa harmonizacyjnego – występującej z wnioskiem jednostki notyfikowanej.
3. Kadar zadevni organ za ugotavljanje skladnosti ne more zagotoviti certifikata o akreditaciji, priglasitvenemu organu predloži vsa dokumentarna dokazila, potrebna za preverjanje, priznavanje in redno spremljanje njegove skladnosti z zahtevami iz člena 31.
3. Jeżeli dana jednostka oceniająca zgodność nie jest w stanie przedstawić certyfikatu akredytacji, przekazuje organowi notyfikującemu wszystkie dowody w postaci dokumentów niezbędne do zweryfikowania, potwierdzenia i regularnego monitorowania spełnienia przez tę jednostkę wymogów ustanowionych w art. 31.
4. Za priglašene organe, imenovane na podlagi katere koli druge harmonizacijske zakonodaje Unije, se lahko vsi dokumenti in certifikati v zvezi s temi imenovanji uporabijo za podporo njihovemu postopku imenovanja na podlagi te uredbe, če je to primerno. Priglašeni organ posodobi dokumentacijo iz odstavkov 2 in 3 tega člena, kadar pride do pomembnih sprememb, da bi organu, pristojnemu za priglašene organe, omogočil spremljanje in preverjanje stalne skladnosti z vsemi zahtevami, določenimi v členu 31.
4. W odniesieniu do jednostek notyfikowanych wyznaczonych na podstawie innego unijnego prawodawstwa harmonizacyjnego w stosownych przypadkach dopuszcza się możliwość wykorzystania wszelkich dokumentów i certyfikatów dotyczących takiego wyznaczenia w charakterze dowodów w toku procedury wyznaczania przeprowadzanej zgodnie z niniejszym rozporządzeniem. Jednostka notyfikowana aktualizuje dokumentację, o której mowa w ust. 2 i 3 niniejszego artykułu, w każdym przypadku gdy wystąpią istotne zmiany, aby umożliwić organowi odpowiedzialnemu za jednostki notyfikowane monitorowanie i weryfikowanie, czy zapewniona jest ciągła zgodność ze wszystkimi wymogami ustanowionymi w art. 31.
1. Priglasitveni organi lahko priglasijo samo tiste organe za ugotavljanje skladnosti, ki izpolnjujejo zahteve iz člena 31.
1. Organy notyfikujące mogą dokonywać notyfikacji wyłącznie w odniesieniu do tych jednostek oceniających zgodność, które spełniają wymogi ustanowione w art. 31.
2. Priglasitveni organi Komisiji in ostalim državam članicam priglasijo vsak organ za ugotavljanje skladnosti iz odstavka 1 z uporabo elektronskega orodja za priglasitev, ki ga je razvila in ga upravlja Komisija.
2. Organy notyfikujące dokonują notyfikacji Komisji i pozostałym państwom członkowskim za pomocą narzędzia do notyfikacji elektronicznej opracowanego i obsługiwanego przez Komisję, o każdej jednostce oceniającej zgodność, o której mowa w ust. 1.
3. Priglasitev iz odstavka 2 tega člena vključuje vse podrobnosti o dejavnostih ugotavljanja skladnosti, modulu ali modulih za ugotavljanje skladnosti in zadevnih vrstah sistemov UI ter ustrezno potrdilo o usposobljenosti. Kadar priglasitev ne temelji na potrdilu o akreditaciji iz člena 29(2), priglasitveni organ Komisiji in drugim državam članicam predloži dokumentarna dokazila, ki potrjujejo usposobljenost organa za ugotavljanje skladnosti in vzpostavljene ureditve, s čimer se zagotovi, da bo organ redno spremljan in bo še naprej izpolnjeval zahteve iz člena 31.
3. Notyfikacja, o której mowa w ust. 2 niniejszego artykułu, zawiera wyczerpujące informacje na temat czynności z zakresu oceny zgodności, modułu lub modułów oceny zgodności i przedmiotowych rodzajów systemów AI oraz odpowiednie poświadczenie kompetencji. W przypadku gdy podstawą notyfikacji nie jest certyfikat akredytacji, o którym mowa w art. 29 ust. 2, organ notyfikujący przedkłada Komisji i pozostałym państwom członkowskim dowody w postaci dokumentów potwierdzające kompetencje jednostki oceniającej zgodność oraz wdrożone rozwiązania zapewniające regularne monitorowanie tej jednostki i nieustanne spełnianie przez nią wymagań ustanowionych w art. 31.
4. Zadevni organ za ugotavljanje skladnosti lahko izvaja dejavnosti priglašenega organa le, kadar Komisija ali druge države članice ne vložijo ugovora bodisi v dveh tednih od priglasitve s strani priglasitvenega organa, kadar ta vključuje potrdilo o akreditaciji iz člena 29(2), ali v dveh mesecih od priglasitve s strani priglasitvenega organa, kadar ta vključuje dokumentarna dokazila iz člena 29(3).
4. Dana jednostka oceniająca zgodność może wykonywać czynności jednostki notyfikowanej tylko wówczas, gdy Komisja lub pozostałe państwa członkowskie nie zgłosiły sprzeciwu w terminie dwóch tygodni od notyfikacji przez organ notyfikujący, w przypadku gdy notyfikacja ta obejmuje certyfikat akredytacji, o którym mowa w art. 29 ust. 2, lub w terminie dwóch miesięcy od notyfikacji przez organ notyfikujący, w przypadku gdy notyfikacja ta obejmuje dowody w postaci dokumentów, o których mowa w art. 29 ust. 3.
5. Kadar so vloženi ugovori, se Komisija nemudoma posvetuje z zadevnimi državami članicami in organom za ugotavljanje skladnosti. Glede na to, Komisija odloči, ali je dovoljenje upravičeno ali ne. Svojo odločitev naslovi na zadevno državo članico in ustrezni organ za ugotavljanje skladnosti.
5. W przypadku zgłoszenia sprzeciwu Komisja niezwłocznie przystępuje do konsultacji z odpowiednimi państwami członkowskimi i jednostką oceniającą zgodność. Na podstawie tych konsultacji Komisja podejmuje decyzję, czy dane zezwolenie jest uzasadnione. Komisja kieruje swoją decyzję do zainteresowanego państwa członkowskiego i odpowiedniej jednostki oceniającej zgodność.
Zahteve v zvezi s priglašenimi organi
Wymogi dotyczące jednostek notyfikowanych
1. Priglašeni organ mora biti ustanovljen na podlagi nacionalnega prava države članice in imeti pravno osebnost.
1. Jednostkę notyfikowaną ustanawia się zgodnie z prawem krajowym danego państwa członkowskiego i ma ona osobowość prawną.
2. Priglašeni organi morajo izpolnjevati organizacijske zahteve, zahteve glede upravljanja kakovosti, virov in procesov, potrebnih za izpolnjevanje njihovih nalog, ter ustrezne zahteve glede kibernetske varnosti.
2. Jednostki notyfikowane muszą spełniać wymogi organizacyjne, wymogi w zakresie zarządzania jakością oraz wymogi dotyczące zasobów i procesów niezbędne do tego, aby mogły wykonywać powierzone im zadania, jak również odpowiednie wymogi w zakresie cyberbezpieczeństwa.
3. Organizacijska struktura, dodelitev pristojnosti, poročanje in delovanje priglašenih organov morajo zagotavljati zaupanje v učinkovitost priglašenih organov in v rezultate dejavnosti ugotavljanja skladnosti, ki jih izvajajo.
3. Struktura organizacyjna jednostek notyfikowanych, podział obowiązków w tych jednostkach, obowiązująca w nich hierarchia służbowa oraz ich funkcjonowanie zapewniają, by działalność jednostek notyfikowanych oraz wyniki czynności z zakresu oceny zgodności prowadzonych przez te jednostki nie budziły żadnych wątpliwości.
4. Priglašeni organi morajo biti neodvisni od ponudnika visokotveganega sistema UI, v zvezi s katerim izvajajo dejavnosti ugotavljanja skladnosti. Neodvisni morajo biti tudi od vseh drugih operaterjev, ki imajo gospodarski interes pri ocenjevanem visoko tveganem sistemu UI, in od vseh konkurentov ponudnika. To ne izključuje uporabe ocenjenih visokotveganih sistemov UI, nujnih za delovanje organa za ugotavljanje skladnosti, ali uporabe teh sistemov v zasebne namene.
4. Jednostki notyfikowane muszą być niezależne od dostawcy systemu AI wysokiego ryzyka, wobec którego podejmują czynności z zakresu oceny zgodności. Jednostki notyfikowane muszą być również niezależne od wszelkich innych operatorów, których interes gospodarczy wiąże się z systemami AI wysokiego ryzyka będącymi przedmiotem oceny, a także od wszelkich innych konkurentów dostawcy. Nie wyklucza to wykorzystania będących przedmiotem oceny systemów AI wysokiego ryzyka, które są niezbędne do prowadzenia działalności jednostki oceniającej zgodność, ani wykorzystania takich systemów AI wysokiego ryzyka do celów prywatnych.
5. Niti organ za ugotavljanje skladnosti in njegovo najvišje vodstvo niti osebje, pristojno za opravljanje nalog ugotavljanja skladnosti, ne smejo neposredno sodelovati pri zasnovi, razvoju, trženju ali uporabi visokotveganih sistemov UI in tudi ne zastopati strani, ki sodelujejo pri teh dejavnostih. Ne smejo sodelovati pri nobeni dejavnosti, ki bi lahko vplivala na njihovo neodvisno presojo ali integriteto v zvezi z dejavnostmi ugotavljanja skladnosti, za katere so priglašeni. To zlasti velja za svetovalne storitve.
5. Jednostka oceniająca zgodność, jej kierownictwo najwyższego szczebla ani pracownicy odpowiedzialni za realizację zadań związanych z oceną zgodności nie mogą być bezpośrednio zaangażowani w projektowanie, rozwój, sprzedaż ani wykorzystywanie systemów AI wysokiego ryzyka, nie mogą też reprezentować stron zaangażowanych w taką działalność. Nie angażują się oni w żadną działalność, która może zagrozić niezależności ich osądów i wiarygodności w związku z czynnościami z zakresu oceny zgodności, do której zostali notyfikowani. Dotyczy to w szczególności usług konsultingowych.
6. Priglašeni organi s svojo organizacijo in delovanjem zagotavljajo neodvisnost, objektivnost in nepristranskost pri izvajanju svojih dejavnosti. Dokumentirajo in izvajajo strukturo in postopke za zagotovitev nepristranskosti ter za spodbujanje in uporabo načel nepristranskosti v svoji organizaciji, med osebjem in v dejavnostih ocenjevanja.
6. Jednostki notyfikowane organizuje się i zarządza się nimi w sposób gwarantujący niezależność, obiektywizm i bezstronność podejmowanych przez nie czynności. Jednostki notyfikowane dokumentują i wdrażają strukturę i procedury służące zagwarantowaniu ich bezstronności oraz propagowaniu i stosowaniu zasad bezstronności we wszystkich podejmowanych przez nie czynnościach organizacyjnych i kadrowych oraz we wszystkich ich czynnościach związanych z oceną.
7. Priglašeni organi morajo imeti vzpostavljene dokumentirane postopke za zagotovitev, da njihovo osebje, odbori, odvisne družbe, podizvajalci, kateri koli povezan organ ali osebje zunanjih organov v skladu s členom 78 ohranjajo zaupnost informacij, pridobljenih med opravljanjem dejavnosti ugotavljanja skladnosti, razen kadar njihovo razkritje zahteva zakon. Njihovo osebje je zavezano varovanju poklicnih skrivnosti v zvezi z vsemi informacijami, pridobljenimi med izvajanjem nalog na podlagi te uredbe, razen v zvezi s priglasitvenimi organi države članice, v kateri izvajajo svoje dejavnosti.
7. Jednostki notyfikowane dysponują udokumentowanymi procedurami, które zapewniają zachowanie poufności informacji – zgodnie z art. 78 – przez ich personel, komitety, jednostki zależne, podwykonawców oraz wszelkie stowarzyszone z nimi jednostki lub pracowników podmiotów zewnętrznych, które to informacje znalazły się w ich posiadaniu w toku czynności z zakresu oceny zgodności, chyba że ujawnienie takich informacji jest wymagane na mocy obowiązującego prawa. Personel jednostek notyfikowanych pozostaje związany tajemnicą zawodową w kwestii wszystkich informacji pozyskiwanych w toku wykonywania zadań powierzonych mu zgodnie z niniejszym rozporządzeniem, jednak nie w stosunku do organów notyfikujących państwa członkowskiego, w którym jednostki notyfikowane podejmują czynności.
8. Priglašeni organi morajo imeti vzpostavljene postopke za izvajanje dejavnosti, pri katerih se ustrezno upoštevajo velikost ponudnika, sektor, v katerem deluje, njegova struktura in stopnja zahtevnosti zadevnega sistema UI.
8. Jednostki notyfikowane dysponują procedurami prowadzenia czynności z uwzględnieniem rozmiaru dostawcy, sektora, w którym prowadzi on działalność, jego struktury oraz stopnia złożoności danego systemu AI.
9. Priglašeni organi sklenejo ustrezno zavarovanje odgovornosti za svoje dejavnosti ugotavljanja skladnosti, razen če odgovornost prevzame država članica, v kateri imajo sedež, v skladu z nacionalnim pravom ali če je ta država članica sama neposredno pristojna za ugotavljanje skladnosti.
9. Jednostki notyfikowane zawierają odpowiednie umowy ubezpieczenia od odpowiedzialności cywilnej w odniesieniu do podejmowanych przez siebie czynności z zakresu oceny zgodności, chyba że państwo członkowskie, w którym mają siedzibę, bierze na siebie odpowiedzialność z tego tytułu zgodnie z prawem krajowym lub bezpośrednia odpowiedzialność za ocenę zgodności spoczywa na danym państwie członkowskim.
10. Priglašeni organi morajo biti sposobni izvajati vse naloge na podlagi te uredbe z najvišjo stopnjo profesionalne integritete in potrebno usposobljenostjo na določenem področju, ne glede na to, ali navedene naloge izvajajo priglašeni organi sami ali se izvajajo v njihovem imenu in pod njihovo odgovornostjo.
10. Jednostki notyfikowane posiadają zdolność wykonywania wszystkich zadań wynikających z niniejszego rozporządzenia z zachowaniem najwyższego poziomu uczciwości zawodowej i wymaganych kompetencji w danej dziedzinie, niezależnie od tego, czy zadania te są wykonywane przez nie samodzielnie, czy też w ich imieniu i na ich odpowiedzialność.
11. Priglašeni organi morajo imeti zadostne notranje kompetence, da lahko učinkovito ocenijo naloge, ki jih opravljajo zunanje stranke v njihovem imenu. Stalno morajo imeti na voljo dovolj upravnega, tehničnega, pravnega in znanstvenega osebja, ki ima izkušnje in znanje v zvezi z ustreznimi vrstami sistemov UI, podatki in računalniško obdelavo podatkov ter v zvezi z zahtevami iz oddelka 2.
11. Jednostki notyfikowane dysponują wystarczającymi kompetencjami wewnętrznymi pozwalającymi im skutecznie oceniać zadania wykonywane w ich imieniu przez podmioty zewnętrzne. Jednostka notyfikowana dysponuje stałą dostępnością wystarczającej liczby pracowników odpowiedzialnych za aspekty administracyjne, techniczne, prawne i naukowe dysponujących doświadczeniem i wiedzą w zakresie odnośnych rodzajów systemów AI, danych i metod przetwarzania danych oraz w zakresie wymogów ustanowionych w sekcji 2.
12. Priglašeni organi sodelujejo v usklajevalnih dejavnostih iz člena 38. Sodelujejo tudi neposredno v evropskih organizacijah za standardizacijo ali so v njih zastopani oziroma zagotavljajo, da so seznanjeni z ustreznimi standardi in na tekočem z njimi.
12. Jednostki notyfikowane biorą udział w działaniach koordynacyjnych, o których mowa w art. 38. Angażują się także w działalność europejskich organizacji normalizacyjnych bezpośrednio lub za pośrednictwem swoich przedstawicieli lub zapewniają, by same posiadały znajomość odpowiednich norm i dysponowały zawsze aktualną wiedzą na ich temat.
1. Priglasitveni organ uradno obvesti Komisijo in druge države članice o vseh pomembnih spremembah priglasitve priglašenega organa z uporabo elektronskega orodja za priglasitev iz člena 30(2).
1. Organ notyfikujący powiadamia Komisję i pozostałe państwa członkowskie za pomocą systemu notyfikacji elektronicznej, o którym mowa w art. 30 ust. 2, o wszelkich istotnych zmianach w notyfikacji danej jednostki notyfikowanej.
2. Postopki iz členov 29 in 30 se uporabljajo za razširitev področja uporabe priglasitve.
2. Procedury ustanowione w art. 29 i 30 stosuje się do rozszerzenia zakresu notyfikacji.
Za druge spremembe priglasitve, razen za razširitev njenega področja uporabe, se uporabljajo postopki iz odstavkov 3 do 9.
W przypadku zmian w notyfikacji innych niż rozszerzenie jej zakresu stosuje się procedury ustanowione w ust. 3-9.
3. Kadar priglašeni organ sklene, da bo prenehal izvajati dejavnosti za ugotavljanje skladnosti, o tem obvesti priglasitveni organ in zadevne ponudnike čim prej, v primeru načrtovanega prenehanja pa vsaj eno leto pred prenehanjem izvajanja svojih dejavnosti. Certifikati priglašenega organa lahko ostanejo veljavni devet mesecev po prenehanju njegovih dejavnosti, pod pogojem da je drug priglašeni organ pisno potrdil, da bo prevzel odgovornost za visokotvegane sisteme UI, na katere se ti certifikati nanašajo. Slednji priglašeni organ opravi celovito oceno zadevnih visokotveganih sistemov UI do konca tega devetmesečnega obdobja, preden izda nove certifikate za te sisteme. Kadar priglašeni organ preneha opravljati svojo dejavnost, priglasitveni organ imenovanje umakne.
3. W przypadku gdy jednostka notyfikowana podejmie decyzję o zaprzestaniu prowadzenia czynności z zakresu oceny zgodności, jak najszybciej informuje o tym organ notyfikujący i zainteresowanych dostawców, a w przypadku planowanego zaprzestania działalności – na co najmniej rok przed zaprzestaniem działalności. Certyfikaty wydane przez jednostkę notyfikowaną mogą pozostać ważne przez okres dziewięciu miesięcy po zaprzestaniu działalności jednostki notyfikowanej, pod warunkiem że inna jednostka notyfikowana potwierdzi na piśmie, że przejmie odpowiedzialność za objęte tymi certyfikatami systemy AI wysokiego ryzyka. Przed upływem tego okresu dziewięciu miesięcy ta inna jednostka notyfikowana przeprowadza pełną ocenę odnośnych systemów AI wysokiego ryzyka, zanim wyda nowe certyfikaty dla tych systemów. W przypadku gdy jednostka notyfikowana zaprzestała działalności, organ notyfikujący cofa jej wyznaczenie.
4. Kadar ima priglasitveni organ zadosten razlog za domnevo, da priglašeni organ ne izpolnjuje več zahtev iz člena 31 ali da ne izpolnjuje svojih obveznosti, zadevo brez odlašanja razišče z največjo skrbnostjo. V tem okviru obvesti zadevni priglašeni organ o vloženih ugovorih in mu omogoči, da izrazi svoja stališča. Če priglasitveni organ ugotovi, da priglašeni organ ne izpolnjuje več zahtev iz člena 31 ali ne izpolnjuje svojih obveznosti, omeji, začasno prekliče ali umakne imenovanje, odvisno od resnosti neizpolnjevanja navedenih zahtev ali neizpolnjevanja navedenih obveznosti. O tem nemudoma obvesti Komisijo in druge države članice.
4. W przypadku gdy organ notyfikujący ma wystarczające powody, by uważać, że jednostka notyfikowana przestała spełniać wymogi określone w art. 31 lub nie spełnia swoich obowiązków, organ notyfikujący niezwłocznie wszczyna postępowanie wyjaśniające w tej sprawie z zachowaniem największej staranności. W takim przypadku organ notyfikujący informuje daną jednostkę notyfikowaną o zgłoszonym sprzeciwu i zapewnia jej możliwość ustosunkowania się do tego sprzeciwu. Jeżeli organ notyfikujący dojdzie do wniosku, że jednostka notyfikowana przestała spełniać wymogi ustanowione w art. 31 lub nie spełnia swoich obowiązków, organ ten, stosownie do przypadku, ogranicza, zawiesza lub cofa wyznaczenie, w zależności od powagi niespełnienia tych wymogów lub tych obowiązków. Informuje on o tym natychmiast Komisję i pozostałe państwa członkowskie.
5. Kadar se imenovanje priglašenega organa začasno prekliče, omeji oziroma v celoti ali delno umakne, priglašeni organ o tem obvesti zadevne ponudnike v desetih dneh.
5. W przypadku gdy wyznaczenie zostało zawieszone, ograniczone lub całkowicie lub częściowo cofnięte, jednostka notyfikowana informuje o tym zainteresowanych dostawców w terminie 10 dni.
6. V primeru omejitve, začasnega preklica ali umika imenovanja priglasitveni organ izvede ustrezne ukrepe za zagotovitev, da se dokumentacija zadevnega priglašenega organa ohrani in je na voljo priglasitvenim organom v drugih državah članicah ter organom, pristojnim za nadzor trga, če to zahtevajo.
6. W przypadku ograniczenia, zawieszenia lub cofnięcia wyznaczenia organ notyfikujący podejmuje odpowiednie kroki w celu zapewnienia, by zachowana została dokumentacja danej jednostki notyfikowanej i była ona udostępniana organom notyfikującym w pozostałych państwach członkowskich oraz organom nadzoru rynku na ich wniosek.
7. V primeru omejitve, začasnega preklica ali umika imenovanja priglasitveni organ:
7. W przypadku ograniczenia, zawieszenia lub cofnięcia wyznaczenia organ notyfikujący:
(a)
oceni vpliv na certifikate, ki jih je izdal priglašeni organ;
a)
ocenia skutki dla certyfikatów wydanych przez daną jednostkę notyfikowaną;
(b)
Komisiji in drugim državam članicam v treh mesecih od uradnega obvestila o spremembah imenovanja predloži poročilo o svojih ugotovitvah;
b)
przedkłada Komisji i pozostałym państwom członkowskim sprawozdanie ze swoich ustaleń w terminie trzech miesięcy od powiadomienia o zmianach w wyznaczeniu;
(c)
od priglašenega organa zahteva, da v razumnem časovnem roku, ki ga določi organ, začasno prekliče ali umakne vse neupravičeno izdane certifikate, da se zagotovi kontinuirana skladnost visokotveganih sistemov UI na trgu;
c)
zwraca się do jednostki notyfikowanej z żądaniem, by w celu zapewnienia ciągłości zgodności systemów AI wysokiego ryzyka na rynku zawiesiła lub cofnęła, w rozsądnym terminie ustalonym przez ten organ, wszelkie certyfikaty, które zostały nienależnie wydane;
(d)
Komisijo in države članice obvesti o certifikatih, katerih začasni preklic ali umik je zahteval;
d)
informuje Komisję i państwa członkowskie o certyfikatach, których zawieszenia lub cofnięcia zażądał;
(e)
pristojnim nacionalnim organom države članice, v kateri ima ponudnik registriran sedež poslovanja, zagotovi vse ustrezne informacije o certifikatih, katerih začasni preklic ali umik je zahteval; ta organ sprejme ustrezne ukrepe za preprečitev morebitnega tveganja za zdravje, varnost ali temeljne pravice, kadar je to potrebno.
e)
przekazuje właściwym organom krajowym państwa członkowskiego, w którym dostawca ma zarejestrowane miejsce prowadzenia działalności, wszelkie istotne informacje na temat certyfikatów, których zawieszenia lub cofnięcia zażądał; organy te podejmują w stosownych przypadkach odpowiednie środki w celu uniknięcia potencjalnego ryzyka dla zdrowia, bezpieczeństwa lub praw podstawowych.
8. Razen neupravičeno izdanih certifikatov ostanejo certifikati, kadar je bilo imenovanje začasno preklicano ali omejeno, veljavni v naslednjih okoliščinah:
8. Z wyjątkiem certyfikatów nienależnie wydanych, w przypadkach, w których wyznaczenie zostało zawieszone lub ograniczone, certyfikaty pozostają ważne, jeżeli zachodzi którakolwiek z następujących okoliczności:
(a)
priglasitveni organ je v enem mesecu od začasnega preklica ali omejitve potrdil, da v zvezi s certifikati, za katere velja začasni preklic ali omejitev, ni nobenega tveganja za zdravje, varnost ali temeljne pravice, ter določil časovni potek za ukrepe, potrebne za odpravo začasnega preklica ali omejitve, ali
a)
organ notyfikujący potwierdził, w terminie jednego miesiąca od zawieszenia lub ograniczenia, że w odniesieniu do certyfikatów, których dotyczy zawieszenie lub ograniczenie, nie występuje ryzyko dla zdrowia, bezpieczeństwa lub praw podstawowych i określił czas działań służących temu, by znieść zawieszenie lub ograniczenie; lub
(b)
priglasitveni organ je potrdil, da v obdobju začasnega preklica ali omejitve ne bo izdan, spremenjen ali ponovno izdan noben certifikat, povezan z začasnim preklicem, hkrati pa navedel, ali je priglašeni organ v obdobju začasnega preklica ali omejitve še vedno sposoben spremljati veljavne izdane certifikate in zanje odgovarjati; če priglasitveni organ ugotovi, da priglašeni organ ni sposoben zagotavljati podpore za veljavne izdane certifikate, ponudnik sistema, na katerega se nanaša certifikat, pristojnim nacionalnim organom države članice, v kateri ima registrirani sedež poslovanja, v treh mesecih od začasnega preklica ali omejitve pisno potrdi, da drug kvalificiran priglašeni organ začasno prevzema naloge priglašenega organa v smislu spremljanja certifikatov in odgovarjanja zanje v obdobju začasnega preklica ali omejitve.
b)
organ notyfikujący potwierdził, że w czasie trwania zawieszenia lub ograniczenia nie będą wydawane, zmieniane ani wydawane ponownie żadne certyfikaty powiązane z danym zawieszeniem, oraz stwierdza, czy dana jednostka notyfikowana jest zdolna do dalszego monitorowania i bycia odpowiedzialną za wydane już certyfikaty obowiązujące w okresie pokrywającym się z tym zawieszeniem lub ograniczeniem; w przypadku gdy organ notyfikujący ustali, że jednostka notyfikowana nie posiada zdolności do obsługi wydanych certyfikatów, dostawca systemu objętego danym certyfikatem – w terminie trzech miesięcy od zawieszenia lub ograniczenia – przekazuje właściwym organom krajowym w państwie członkowskim, w którym ma zarejestrowane miejsce prowadzenia działalności, potwierdzenie na piśmie, że inna wykwalifikowana jednostka notyfikowana tymczasowo przejmuje funkcje jednostki notyfikowanej w zakresie monitorowania certyfikatów i pozostanie ona odpowiedzialna za te certyfikaty w okresie zawieszenia lub ograniczenia wyznaczenia.
9. Razen v primeru neupravičeno izdanih certifikatov in kadar je bilo imenovanje umaknjeno, ostanejo certifikati v naslednjih okoliščinah veljavni še devet mesecev:
9. Z wyjątkiem certyfikatów nienależnie wydanych, w przypadkach, w których wyznaczenie zostało cofnięte, certyfikaty pozostają ważne przez okres dziewięciu miesięcy w następujących okolicznościach:
(a)
pristojni nacionalni organ države članice, v kateri ima ponudnik visoko tveganega sistema UI, na katerega se nanaša certifikat, registrirani sedež poslovanja, je potrdil, da v povezavi z zadevnimi visokotveganimi sistemi UI ni tveganja za zdravje, varnost ali temeljne pravice, ter
a)
właściwy organ krajowy w państwie członkowskim, w którym dostawca systemu AI wysokiego ryzyka objętego certyfikatem ma zarejestrowane miejsce prowadzenia działalności, potwierdził, że nie występuje ryzyko dla zdrowia, bezpieczeństwa lub praw podstawowych związane z danymi systemami AI wysokiego ryzyka; oraz
(b)
drug priglašeni organ je pisno potrdil, da bo takoj prevzel odgovornost za te sisteme UI in v 12 mesecih od umika imenovanja zaključi njihovo ocenjevanje.
b)
inna jednostka notyfikowana potwierdziła na piśmie, że przejmie bezpośrednią odpowiedzialność za te systemy AI i zakończy swoją ocenę w terminie dwunastu miesięcy od cofnięcia wyznaczenia.
V okoliščinah iz prvega pododstavka sme pristojni nacionalni organ države članice, v kateri ima ponudnik sistema, na katerega se nanaša certifikat, sedež poslovanja, podaljšati začasno veljavnost certifikatov za nadaljnja obdobja treh mesecev, ki pa skupaj ne smejo trajati dlje kot dvanajst mesecev.
W okolicznościach, o których mowa w akapicie pierwszym, właściwy organ krajowy w państwie członkowskim, w którym dostawca systemu objętego certyfikatem ma zarejestrowane miejsce prowadzenia działalności, może przedłużyć tymczasową ważność tych certyfikatów o dodatkowe trzymiesięczne okresy, które łącznie nie mogą przekraczać dwunastu miesięcy.
Pristojni nacionalni organ ali priglašeni organ, ki prevzame naloge priglašenega organa, na katerega se nanaša sprememba imenovanja, o tem takoj obvesti Komisijo, druge države članice in druge priglašene organe.
Właściwy organ krajowy lub jednostka notyfikowana przejmująca funkcje jednostki notyfikowanej, której dotyczy zmiana wyznaczenia, natychmiast powiadamiają o tym Komisję, pozostałe państwa członkowskie i pozostałe jednostki notyfikowane.
Harmonizirani standardi in standardizacijski dokumenti
Normy zharmonizowane i dokumenty normalizacyjne
1. Za visokotvegane sisteme UI ali modele UI za splošne namene, ki so skladni s harmoniziranimi standardi ali njihovimi deli, katerih sklici so bili objavljeni v Uradnem listu Evropske unije v skladu z Uredbo (EU) št. 1025/2012, se domneva, da so skladni z zahtevami iz oddelka 2 tega poglavja ali, kot je ustrezno, z obveznostmi iz poglavja V, oddelka 2 in 3, te uredbe, kolikor ti standardi zajemajo te zahteve ali obveznosti.
1. W przypadku systemów AI wysokiego ryzyka oraz systemów AI ogólnego przeznaczenia spełniających normy zharmonizowane lub części tych norm, do których odniesienia opublikowano w Dzienniku Urzędowym Unii Europejskiej zgodnie z rozporządzeniem (UE) nr 1025/2012, domniemuje się, że spełniają one wymogi ustanowione w sekcji 2 niniejszego rozdziału lub, w stosownych przypadkach, obowiązki ustanowione w rozdziale V sekcja 2 i 3 niniejszego rozporządzenia, w zakresie, w jakim normy te obejmują te wymogi lub obowiązki.
2. Komisija v skladu s členom 10 Uredbe (EU) št. 1025/2012 brez nepotrebnega odlašanja izda zahteve za standardizacijo, ki zajemajo vse zahteve iz oddelka 2 tega poglavja in, kot je ustrezno, zahteve za standardizacijo, ki zajemajo obveznosti iz poglavja V, oddelka 2 in 3, te uredbe. V zahtevi za standardizacijo se zahtevajo tudi dokumenti v zvezi s postopki poročanja in dokumentiranja za izboljšanje učinkovitosti virov sistemov UI, kot je zmanjšanje porabe energije in drugih virov visokotveganega sistema UI v njegovem življenjskem ciklu, ter dokumenti v zvezi z energijsko učinkovitim razvojem modelov UI za splošne namene. Komisija se pri pripravi zahteve za standardizacijo posvetuje z Odborom in ustreznimi deležniki, vključno s svetovalnim forumom.
2. Zgodnie z art. 10 rozporządzenia (UE) nr 1025/2012 Komisja wydaje bez zbędnej zwłoki wnioski o normalizację obejmujące wszystkie wymogi ustanowione w sekcji 2 niniejszego rozdziału oraz, w stosownych przypadkach, wnioski o normalizację obejmujące obowiązki ustanowione w rozdziale V sekcja 2 i 3 niniejszego rozporządzenia. We wniosku o normalizację zwraca się również o przedstawienie wyników sprawozdawczości i procesów dokumentowania w celu poprawy skuteczności działania zasobów systemów AI, takich jak zmniejszenie zużycia energii i innych zasobów przez system AI wysokiego ryzyka w jego cyklu życia, oraz wyników dotyczących efektywnego energetycznie rozwoju modeli AI ogólnego przeznaczenia. Przygotowując wniosek o normalizację, Komisja konsultuje się z Radą ds. AI i odpowiednimi zainteresowanymi stronami, w tym z forum doradczym.
Komisija pri izdaji zahteve za standardizacijo evropskim organizacijam za standardizacijo določi, da morajo biti standardi jasni, skladni, tudi s standardi, razvitimi v različnih sektorjih, za proizvode, za katere velja obstoječa harmonizacijska zakonodaja Unije iz Priloge I, in namenjeni temu, da se zagotovi, da visokotvegani sistemi UI ali modeli UI za splošne namene, ki so dani na trg ali v uporabo v Uniji, izpolnjujejo ustrezne zahteve ali obveznosti iz te uredbe.
Wydając wniosek o normalizację do europejskich organizacji normalizacyjnych, Komisja określa, że normy muszą być jasne, spójne, w tym z normami opracowanymi w poszczególnych sektorach dla produktów objętych zakresem stosowania obowiązującego unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I, i mieć na celu zapewnienie, by systemy AI wysokiego ryzyka lub modele AI ogólnego przeznaczenia wprowadzane do obrotu lub oddawane do użytku w Unii spełniały odpowiednie wymogi lub obowiązki ustanowione w niniejszym rozporządzeniu.
Komisija od evropskih organizacij za standardizacijo zahteva, da v skladu s členom 24 Uredbe (EU) št. 1025/2012 predložijo dokaze o svojih najboljših prizadevanjih za izpolnitev ciljev iz prvega in drugega pododstavka tega odstavka.
Komisja zwraca się do europejskich organizacji normalizacyjnych o przedstawienie dowodów, że dokładają wszelkich starań, aby osiągnąć cele, o których mowa w akapicie pierwszym i drugim niniejszego ustępu, zgodnie z art. 24 rozporządzenia (UE) nr 1025/2012.
3. Udeleženci v postopku standardizacije si prizadevajo spodbujati naložbe in inovacije na področju UI, tudi s krepitvijo pravne varnosti, ter konkurenčnost in rast trga Unije, prispevati k izboljšanju globalnega sodelovanja na področju standardizacije ob upoštevanju obstoječih mednarodnih standardov na področju UI, ki so skladni z vrednotami, temeljnimi pravicami in interesi Unije, ter krepiti večdeležniško upravljanje, pri čemer zagotavljajo uravnoteženo zastopanost interesov in učinkovito sodelovanje vseh ustreznih deležnikov v skladu s členi 5, 6 in 7 Uredbe (EU) št. 1025/2012.
3. Uczestnicy procesu normalizacji dążą do promowania inwestycji i innowacji w dziedzinie AI, w tym poprzez zwiększenie pewności prawa, a także konkurencyjności i wzrostu rynku Unii, do przyczynienia się do wzmocnienia globalnej współpracy w zakresie normalizacji, z uwzględnieniem istniejących w dziedzinie AI norm międzynarodowych zgodnych z wartościami Unii, prawami podstawowymi i interesem Unii, a także do poprawy zarządzania wielostronnego, zapewniając wyważoną reprezentację interesów i skuteczny udział wszystkich odpowiednich zainteresowanych stron zgodnie z art. 5, 6 i 7 rozporządzenia (UE) nr 1025/2012.
1. Komisija lahko sprejme izvedbene akte o določitvi skupnih specifikacij za zahteve iz oddelka 2 tega poglavja ali, kot je ustrezno, za obveznosti iz oddelkov 2 in 3 poglavja V, kadar so izpolnjeni naslednji pogoji:
1. Komisja może przyjmować akty wykonawcze ustanawiające wspólne specyfikacje w odniesieniu do wymogów ustanowionych w sekcji 2 niniejszego rozdziału lub, w stosownych przypadkach, obowiązków ustanowionych w rozdziale V sekcja 2 i 3, w przypadku gdy spełnione są następujące warunki:
(a)
Komisija je na podlagi člena 10(1) Uredbe (EU) št. 1025/2012 zahtevala, da ena ali več evropskih organizacij za standardizacijo pripravi osnutek harmoniziranega standarda za zahteve iz oddelka 2 tega poglavja ali, kot je ustrezno, za obveznosti iz oddelkov 2 in 3 poglavja V, in:
a)
Komisja wystąpiła zgodnie z art. 10 ust. 1 rozporządzenia (UE) nr 1025/2012 do jednej lub kilku europejskich organizacji normalizacyjnych z wnioskiem o opracowanie normy zharmonizowanej w odniesieniu do wymogów określonych w sekcji 2 niniejszego rozdziału, lub, w stosownych przypadkach, w odniesieniu do obowiązków ustanowionych w rozdziale V sekcja 2 i 3, oraz:
(i)
zahteve ni sprejela nobena evropska organizacija za standardizacijo ali
(i)
wniosek ten nie został przyjęty przez żadną z europejskich organizacji normalizacyjnych; lub
(ii)
harmonizirani standardi, ki se nanašajo na to zahtevo, niso bili predloženi v roku, določenem v skladu s členom 10(1) Uredbe (EU) št. 1025/2012, ali
(ii)
normy zharmonizowane stanowiące odpowiedź na ten wniosek nie zostały wydane w terminie określonym zgodnie z art. 10 ust. 1 rozporządzenia (UE) nr 1025/2012; lub
(iii)
v ustreznih harmoniziranih standardih so nezadostno obravnavani pomisleki glede temeljnih pravic ali
(iii)
odpowiednie normy zharmonizowane w niewystarczającym stopniu uwzględniają obawy dotyczące praw podstawowych; lub
(iv)
harmonizirani standardi niso skladni z zahtevo ter
(iv)
normy zharmonizowane nie są zgodne z wnioskiem; oraz
(b)
v Uradnem listu Evropske unije v skladu z Uredbo (EU) št. 1025/2012 ni objavljen sklic na harmonizirane standarde, ki zajemajo zahteve iz oddelka 2 tega poglavja ali, kot je ustrezno, obveznosti iz oddelkov 2 in 3 poglavja V, in objava takega sklica se v razumnem roku tudi ne pričakuje.
b)
w Dzienniku Urzędowym Unii Europejskiej nie opublikowano odniesienia do zharmonizowanych norm obejmujących wymogi, o których mowa w sekcji 2 niniejszego rozdziału, lub, w stosownych przypadkach, obowiązki, o których mowa w rozdziale V sekcja 2 i 3, zgodnie z przepisami rozporządzenia (UE) nr 1025/2012 i nie przewiduje się opublikowania takiego odniesienia w rozsądnym terminie.
Pri pripravi skupnih specifikacij se Komisija posvetuje s svetovalnim forumom iz člena 67.
Przygotowując projekt wspólnych specyfikacji, Komisja konsultuje się z forum doradczym, o którym mowa w art. 67.
Izvedbeni akti iz prvega pododstavka tega odstavka se sprejmejo v skladu s postopkom pregleda iz člena 98(2).
Akty wykonawcze, o których mowa w akapicie pierwszym niniejszego ustępu, przyjmuje się zgodnie z procedurą sprawdzającą, o której mowa w art. 98 ust. 2.
2. Komisija pred pripravo osnutka izvedbenega akta obvesti odbor iz člena 22 Uredbe (EU) št. 1025/2012, da meni, da so pogoji iz odstavka 1 tega člena izpolnjeni.
2. Przed przygotowaniem projektu aktu wykonawczego Komisja informuje komitet, o którym mowa w art. 22 rozporządzenia (UE) nr 1025/2012, że uważa za spełnione warunki ustanowione w ust. 1 niniejszego artykułu.
3. Za visokotvegane sisteme UI ali modele UI za splošne namene, ki so v skladu s skupnimi specifikacijami iz odstavka 1 ali deli navedenih specifikacij, se domneva, da so skladni z zahtevami iz oddelka 2 tega poglavja ali, kot je ustrezno, izpolnjujejo zahteve iz oddelkov 2 in 3 poglavja V, kolikor so te zajete v teh skupnih specifikacijah ali teh obveznostih.
3. W przypadku systemów AI wysokiego ryzyka lub modeli AI ogólnego przeznaczenia zgodnych ze wspólnymi specyfikacjami, o których mowa w ust. 1, lub z częściami tych specyfikacji domniemuje się, że są one zgodne z wymogami ustanowionymi w sekcji 2 niniejszego rozdziału lub, w stosownych przypadkach, spełniają obowiązki ustanowione w rozdziale V sekcja 2 i 3, w zakresie, w jakim te wspólne specyfikacje obejmują te wymogi i te obowiązki.
4. Kadar evropska organizacija za standardizacijo sprejme harmonizirani standard in ga predloži Komisiji, da se sklic nanj objavi v Uradnem listu Evropske unije, Komisija harmonizirani standard oceni v skladu z Uredbo (EU) št. 1025/2012. Ko se sklic na harmonizirani standard objavi v Uradnem listu Evropske unije, Komisija razveljavi izvedbene akte iz odstavka 1 ali njihove dele, ki zajemajo zahteve, enake zahtevam iz oddelka 2 tega poglavja ali, kot je ustrezno, iste obveznosti iz oddelkov 2 in 3 poglavja V.
4. W przypadku gdy europejska organizacja normalizacyjna przyjmuje normę zharmonizowaną i proponuje Komisji opublikowanie odniesienia do niej w Dzienniku Urzędowym Unii Europejskiej, Komisja ocenia normę zharmonizowaną zgodnie z rozporządzeniem (UE) nr 1025/2012. W przypadku opublikowania odniesienia do normy zharmonizowanej w Dzienniku Urzędowym Unii Europejskiej Komisja uchyla akty wykonawcze, o których mowa w ust. 1, lub ich części, które obejmują te same wymogi ustanowione w sekcji 2 niniejszego rozdziału lub, w stosownych przypadkach, te same obowiązki ustanowione w rozdziale V sekcja 2 i 3.
5. Kadar ponudniki visokotveganih sistemov UI ali modelov UI za splošne namene ne izpolnjujejo skupnih specifikacij iz odstavka 1, ustrezno utemeljijo, da so sprejeli tehnične rešitve, ki izpolnjujejo zahteve iz oddelka 2 tega poglavja ali, kot je ustrezno, izpolnjujejo obveznosti iz oddelkov 2 in 3 poglavja V v tolikšni meri, da so jim vsaj enakovredne.
5. W przypadku gdy dostawcy systemów AI wysokiego ryzyka lub modeli AI ogólnego przeznaczenia nie zapewnią zgodności ze wspólnymi specyfikacjami, o których mowa w ust. 1, należycie wykazują oni, że przyjęli rozwiązania techniczne, które są zgodne z wymogami, o których mowa w rozdziale I sekcja 2, lub, w stosownych przypadkach, spełniają obowiązki ustanowione w rozdziale V sekcja 2 i 3, na poziomie co najmniej równoważnym tym wspólnym specyfikacjom.
6. Kadar država članica meni, da skupna specifikacija ne izpolnjuje v celoti zahtev iz oddelka 2 ali, kot je ustrezno, ne izpolnjuje obveznosti iz oddelkov 2 in 3 poglavja V, o tem s podrobno obrazložitvijo obvesti Komisijo. Komisija te informacije oceni in po potrebi spremeni izvedbeni akt o določitvi zadevne skupne specifikacije.
6. W przypadku gdy państwo członkowskie uważa, że wspólna specyfikacja nie jest całkowicie zgodna z wymogami ustanowionymi w sekcji 2 lub, w stosownych przypadkach, nie spełnia całkowicie obowiązków ustanowionych w rozdziale V sekcja 2 i 3, informuje o tym Komisję, przedstawiając szczegółowe wyjaśnienie. Komisja ocenia te informacje i w stosownym przypadku zmienia akt wykonawczy ustanawiający daną wspólną specyfikację.
1. Za visokotvegane sisteme UI iz Priloge III, točka 1, pri katerih je ponudnik pri dokazovanju skladnosti visokotveganega sistema UI z zahtevami iz oddelka 2 uporabil harmonizirane standarde iz člena 40 ali, kadar je to primerno, skupne specifikacije iz člena 41, ponudnik izbere enega od naslednjih postopkov za ugotavljanje skladnosti na podlagi:
1. W odniesieniu do systemów AI wysokiego ryzyka wymienionych w załączniku III pkt 1, w przypadku gdy do wykazania zgodności systemu AI wysokiego ryzyka z wymogami ustanowionymi w sekcji 2 dostawca zastosował normy zharmonizowane, o których mowa w art. 40, lub, w stosownych przypadkach, wspólne specyfikacje, o których mowa w art. 41, dostawca wybiera jedną z następujących procedur oceny zgodności w oparciu o:
(a)
notranjega nadzora iz Priloge VI ali
a)
kontrolę wewnętrzną, o której mowa w załączniku VI; lub
(b)
ocenjevanja sistema upravljanja kakovosti in ocenjevanja tehnične dokumentacije s sodelovanjem priglašenega organa iz Priloge VII.
b)
ocenę systemu zarządzania jakością i ocenę dokumentacji technicznej przeprowadzaną z udziałem jednostki notyfikowanej, o której to procedurze mowa w załączniku VII.
Pri dokazovanju skladnosti visokotveganega sistema UI z zahtevami iz oddelka 2 ponudnik opravi postopek ugotavljanja skladnosti iz Priloge VII, kadar:
Przy wykazywaniu zgodności systemu AI wysokiego ryzyka z wymogami ustanowionymi w sekcji 2 dostawca postępuje zgodnie z procedurą oceny zgodności ustanowioną w załączniku VII, w przypadku gdy:
(a)
harmonizirani standardi iz člena 40 ne obstajajo in skupne specifikacije iz člena 41 niso na voljo;
a)
normy zharmonizowane, o których mowa w art. 40, nie istnieją, a wspólne specyfikacje, o których mowa w art. 41, nie są dostępne;
(b)
ponudnik ni uporabil harmoniziranega standarda ali ga je uporabil le delno;
b)
dostawca nie zastosował normy zharmonizowanej lub zastosował jedynie jej część;
(c)
skupne specifikacije iz točke (a) obstajajo, vendar jih ponudnik ni uporabil;
c)
wspólne specyfikacje, o których mowa w lit. a), istnieją, ale dostawca ich nie zastosował;
(d)
je bil eden ali več harmoniziranih standardov iz točke (a) objavljen z omejitvijo in samo za tisti del standarda, ki je bil omejen.
d)
co najmniej jedna z norm zharmonizowanych, o których mowa w lit. a), została opublikowana z ograniczeniem i jedynie w odniesieniu do tej części normy, której dotyczy ograniczenie.
Za namene postopka ugotavljanja skladnosti iz Priloge VII lahko ponudnik izbere katerega koli od priglašenih organov. Kadar pa naj bi visokotvegani sistem UI dali v uporabo organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, organi, pristojni za priseljevanje, ali azilni organi ali institucije, organi, uradi in agencije Unije, je priglašeni organ organ za nadzor trga iz člena 74(8) ali (9), kot je ustrezno.
Na potrzeby procedury oceny zgodności, o której mowa w załączniku VII, dostawca może wybrać dowolną jednostkę notyfikowaną. Jednak w przypadku gdy system ma zostać oddany do użytku przez organy ścigania, organy imigracyjne lub organy azylowe lub przez instytucje, organy i jednostki organizacyjne Unii, funkcję jednostki notyfikowanej pełni organ nadzoru rynku, o którym mowa odpowiednio w art. 74 ust. 8 lub ust. 9.
2. Za visokotvegane sisteme UI iz Priloge III, točke 2 do 8, ponudniki upoštevajo postopek ugotavljanja skladnosti na podlagi notranje kontrole iz Priloge VI, ki ne predvideva sodelovanja priglašenega organa.
2. W przypadku systemów AI wysokiego ryzyka, o których mowa w załączniku III pkt 2–8, dostawcy postępują zgodnie z procedurą oceny zgodności opierającą się na kontroli wewnętrznej, o której mowa w załączniku VI i która nie przewiduje udziału jednostki notyfikowanej.
3. Za visokotvegane sisteme UI, zajete v harmonizacijski zakonodaji Unije iz Priloge I, oddelek A, ponudnik upošteva ustrezni postopek ugotavljanja skladnosti, kot se zahteva v navedenih pravnih aktih. Za te visokotvegane sisteme UI se uporabljajo zahteve iz oddelka 2 tega poglavja, ki so del te ocene. Uporablja se tudi Priloga VII, točke 4.3, 4.4, 4.5 in peti odstavek točke 4.6.
3. W przypadku systemów AI wysokiego ryzyka objętych zakresem stosowania unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I sekcja A, dostawca postępuje zgodnie z odpowiednią procedurą oceny zgodności wymaganą na podstawie tych aktów prawnych. W odniesieniu do tego rodzaju systemów AI wysokiego ryzyka zastosowanie mają wymogi ustanowione w sekcji 2 niniejszego rozdziału i stanowią one jeden z elementów tej oceny. Zastosowanie mają również przepisy załącznika VII pkt 4.3, pkt 4.4, pkt 4.5 i pkt 4.6 akapit piąty.
Za namene te ocene so priglašeni organi, ki so priglašeni na podlagi teh pravnih aktov, upravičeni nadzorovati skladnost visokotveganih sistemov UI z zahtevami iz oddelka 2, če je bila skladnost teh priglašenih organov z zahtevami iz člena 31(4), (5), (10) in (11) ocenjena v okviru postopka priglasitve na podlagi teh pravnih aktov.
Na potrzeby tej oceny jednostki notyfikowane, które notyfikowano zgodnie z tymi aktami prawnymi, są uprawnione do przeprowadzania kontroli zgodności systemów AI wysokiego ryzyka z wymogami ustanowionymi w sekcji 2, o ile zgodność tych jednostek notyfikowanych z wymogami ustanowionymi w art. 31 ust. 4, 5, 10 i 11 została oceniona w kontekście procedury notyfikacyjnej przewidzianej w tych aktach prawnych.
Kadar pravni akt iz Priloge I, oddelek A, proizvajalcu proizvoda omogoča, da se odloči za izvzetje iz ugotavljanja skladnosti s strani tretjih oseb, pod pogojem, da je ta proizvajalec uporabil vse harmonizirane standarde, ki zajemajo vse ustrezne zahteve, lahko ta proizvajalec uporabi to možnost le, če je uporabil harmonizirane standarde ali, kadar je to primerno, skupne specifikacije iz člena 41, ki zajemajo vse zahteve iz oddelka 2 tega poglavja.
W przypadku gdy akt prawny wymieniony w załączniku I sekcja A zapewnia producentowi produktu możliwość zrezygnowania z oceny zgodności przeprowadzanej przez stronę trzecią, pod warunkiem że producent ten zapewnił zgodność ze wszystkimi normami zharmonizowanymi obejmującymi wszystkie stosowne wymogi, taki producent może skorzystać z tej możliwości wyłącznie w przypadku, gdy zapewnił również zgodność z normami zharmonizowanymi lub – w stosownych przypadkach – wspólnymi specyfikacjami, o których mowa w art. 41, obejmującymi wszystkie wymogi ustanowione w sekcji 2 niniejszego rozdziału.
4. Pri visokotveganih sistemih UI, pri katerih je bil že opravljen postopek ugotavljanja skladnosti, se v primeru bistvene spremembe opravi nov postopek ugotavljanja skladnosti, ne glede na to, ali je spremenjeni sistem namenjen nadaljnji distribuciji ali ga še naprej uporablja sedanji uvajalec.
4. Systemy AI wysokiego ryzyka, które poddano już procedurze oceny zgodności, poddaje się nowej procedurze oceny zgodności w przypadku gdy wprowadza się w nich istotne zmiany, niezależnie od tego, czy zmieniony system jest przeznaczony do dalszej dystrybucji lub czy ma być nadal wykorzystywany przez obecny podmiot stosujący.
Za visokotvegane sisteme UI, ki se po dajanju na trg ali v uporabo še naprej učijo, spremembe visokotveganega sistema UI in njegove zmogljivosti, ki jih je ponudnik vnaprej določil ob začetnem ugotavljanju skladnosti in so del informacij iz tehnične dokumentacije iz Priloge IV, točka 2(f), ne pomenijo bistvene spremembe.
W przypadku systemów AI wysokiego ryzyka, które nadal uczą się po wprowadzeniu ich do obrotu lub po oddaniu ich do użytku, istotnej zmiany nie stanowią zmiany w systemie AI wysokiego ryzyka i jego skuteczności działania, które dostawca z góry zaplanował w chwili przeprowadzania początkowej oceny zgodności i które są częścią informacji zawartych w dokumentacji technicznej, o której mowa w pkt 2 lit. f) załącznika IV.
5. Na Komisijo se prenese pooblastilo za sprejemanje delegiranih aktov v skladu s členom 97, da zaradi tehničnega napredka spremeni s posodobitvijo prilogi VI in VII.
5. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 97 w celu zmiany załączników VI i VII poprzez ich zmianę w świetle postępu technicznego.
6. Na Komisijo se prenese pooblastilo za sprejemanje delegiranih aktov v skladu s členom 97 za spremembo odstavkov 1 in 2 tega člena, da se za visokotvegane sisteme UI iz Priloge III, točke 2 do 8, v celoti ali deloma uvede postopek ugotavljanja skladnosti iz Priloge VII. Komisija take delegirane akte sprejme ob upoštevanju učinkovitosti postopka ugotavljanja skladnosti na podlagi notranje kontrole iz Priloge VI pri preprečevanju ali čim večjem zmanjševanju tveganj za zdravje in varnost ter varstvo temeljnih pravic, ki jih predstavljajo taki sistemi, ter razpoložljivosti ustreznih zmogljivosti in virov med priglašenimi organi.
6. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 97 w celu zmiany ust. 1 i 2 niniejszego artykułu, aby objąć systemy AI wysokiego ryzyka, o których mowa w załączniku III pkt 2–8, procedurą oceny zgodności, o której mowa w załączniku VII, lub elementami tej procedury. Komisja przyjmuje takie akty delegowane, biorąc pod uwagę skuteczność procedury oceny zgodności opierającej się na kontroli wewnętrznej, o której mowa w załączniku VI, w zapobieganiu ryzyku dla zdrowia i bezpieczeństwa oraz ryzyku związanemu z ochroną praw podstawowych stwarzanemu przez takie systemy lub minimalizowaniu takiego ryzyka, a także uwzględniając dostępność odpowiednich zdolności i zasobów wśród jednostek notyfikowanych.
1. Certifikati, ki jih izdajo priglašeni organi v skladu s Prilogo VII, so sestavljeni v jeziku, ki ga ustrezni organi v državi članici, v kateri ima priglašeni organ sedež, zlahka razumejo.
1. Certyfikaty wydane przez jednostki notyfikowane zgodnie z załącznikiem VII są sporządzane w języku łatwo zrozumiałym dla odpowiednich organów w państwie członkowskim, w którym jednostka notyfikowana ma siedzibę.
2. Certifikati so veljavni toliko časa, kolikor je navedeno, a ne več kot pet let za sisteme UI iz Priloge I in štiri leta za sisteme UI iz Priloge III. Na zahtevo ponudnika se lahko veljavnost certifikata na podlagi ponovne ocene v skladu z veljavnimi postopki za ugotavljanje skladnosti podaljša za nadaljnja obdobja, ki ne presegajo pet let za sisteme UI iz Priloge I in štirih let za sisteme UI iz Priloge III. Vsako dopolnilo k certifikatu ostane veljavno, če je veljaven certifikat, ki ga to dopolnjuje.
2. Certyfikaty zachowują ważność przez wskazany w nich okres, który nie może przekraczać pięciu lat – w odniesieniu do systemów AI objętych zakresem stosowania załącznika I oraz czterech lat – w odniesieniu do systemów AI objętych zakresem stosowania załącznika III. Na wniosek dostawcy ważność certyfikatu można przedłużyć na kolejne okresy, które nie mogą każdorazowo przekraczać pięciu lat – w odniesieniu do systemów AI objętych zakresem stosowania załącznika I oraz czterech lat – w odniesieniu do systemów AI objętych zakresem stosowania załącznika III, w oparciu o wyniki ponownej oceny przeprowadzonej zgodnie z mającymi zastosowanie procedurami oceny zgodności. Wszelkie uzupełnienia do certyfikatu pozostają ważne, pod warunkiem, że uzupełniany certyfikat jest ważny.
3. Kadar priglašeni organ ugotovi, da sistem UI ne izpolnjuje več zahtev iz oddelka 2, ob upoštevanju načela sorazmernosti začasno prekliče ali umakne izdan certifikat oziroma ga omeji, razen če se skladnost s temi zahtevami zagotovi z ustreznimi popravnimi ukrepi, ki jih je ponudnik sistema sprejel v ustreznem roku, ki ga je določil priglašeni organ. Priglašeni organ svojo odločitev obrazloži.
3. Jeżeli jednostka notyfikowana ustali, że system AI przestał spełniać wymogi ustanowione w sekcji 2, zawiesza lub cofa wydany certyfikat lub nakłada na niego ograniczenia, biorąc pod uwagę zasadę proporcjonalności, chyba że dostawca systemu zapewni zgodność z tymi wymogami poprzez podjęcie odpowiedniego działania naprawczego w stosownym terminie wyznaczonym przez jednostkę notyfikowaną. Jednostka notyfikowana uzasadnia swoją decyzję.
Zoper odločitve priglašenih organov, tudi o izdanih certifikatih o skladnosti, je na voljo pritožbeni postopek.
Od decyzji jednostek notyfikowanych, w tym dotyczących wydanych certyfikatów zgodności, przysługuje odwołanie.
Odstopanje od postopka ugotavljanja skladnosti
Odstępstwo od procedury oceny zgodności
1. Z odstopanjem od člena 43 in na podlagi ustrezno utemeljene zahteve lahko kateri koli organ za nadzor trga dovoli dajanje posebnih visokotveganih sistemov UI na trg ali v uporabo na ozemlju zadevne države članice iz izjemnih razlogov javne varnosti ali varstva življenja in zdravja ljudi, varstva okolja ter varstva ključnih industrijskih in infrastrukturnih sredstev. To dovoljenje velja omejeno obdobje, dokler se izvajajo potrebni postopki ugotavljanja skladnosti, ob upoštevanju izjemnih razlogov, ki upravičujejo odstopanje. Ti postopki se zaključijo brez nepotrebnega odlašanja.
1. Na zasadzie odstępstwa od art. 43 i na należycie uzasadniony wniosek organ nadzoru rynku może wydać zezwolenie na wprowadzenie do obrotu lub oddanie do użytku konkretnych systemów AI wysokiego ryzyka na terytorium danego państwa członkowskiego w związku z wystąpieniem nadzwyczajnych względów dotyczących bezpieczeństwa publicznego lub ochrony zdrowia i życia osób, ochrony środowiska lub ochrony kluczowych aktywów przemysłowych i infrastrukturalnych. Zezwolenie to wydaje się tymczasowo na okres przeprowadzenia niezbędnych procedur oceny zgodności, uwzględniając nadzwyczajne względy uzasadniające przedmiotowe odstępstwo. Dokłada się starań, aby procedury te ukończono bez zbędnej zwłoki.
2. V ustrezno utemeljenih nujnih primerih iz izjemnih razlogov javne varnosti ali v primeru posebne, precejšnje in neposredne grožnje za življenje ali telesno varnost fizičnih oseb lahko organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj ali organi civilne zaščite dajo določen visokotvegani sistem UI v uporabo brez dovoljenja iz odstavka 1, če se za tako dovoljenje brez nepotrebnega odlašanja zaprosi med uporabo ali po njej. Če se dovoljenje iz odstavka 1 zavrne, se uporaba visokotveganega sistema UI takoj ustavi, vsi rezultati in izhodni podatki, ki izhajajo iz take uporabe, pa se takoj zavržejo.
2. W należycie uzasadnionych pilnych przypadkach w związku z wystąpieniem nadzwyczajnych względów bezpieczeństwa publicznego lub w przypadku konkretnego, istotnego i bezpośredniego zagrożenia życia lub bezpieczeństwa fizycznego osób fizycznych, organy ścigania lub organy ochrony ludności mogą oddać do użytku określony system AI wysokiego ryzyka bez zezwolenia, o którym mowa w ust. 1, pod warunkiem że wniosek o takie zezwolenie zostanie bez zbędnej zwłoki złożony w trakcie wykorzystywania tego systemu lub tuż po nim. W przypadku odmowy wydania zezwolenia, o którym mowa w ust. 1, wykorzystywanie tego systemu AI wysokiego ryzyka wstrzymuje się ze skutkiem natychmiastowym, a wszystkie rezultaty i wyniki tego wykorzystania muszą zostać natychmiast odrzucone.
3. Dovoljenje iz odstavka 1 se izda le, če organ za nadzor trga ugotovi, da visokotvegani sistem UI izpolnjuje zahteve iz oddelka 2. Organ za nadzor trga obvesti Komisijo in druge države članice o vseh dovoljenjih, izdanih na podlagi odstavkov 1 in 2. Ta obveznost ne zajema občutljivih operativnih podatkov v zvezi z dejavnostmi organov za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj.
3. Zezwolenie, o którym mowa w ust. 1, wydaje się wyłącznie wówczas, gdy organ nadzoru rynku stwierdzi, że system AI wysokiego ryzyka jest zgodny z wymogami ustanowionymi w sekcji 2. Organ nadzoru rynku informuje Komisję i pozostałe państwa członkowskie o zezwoleniach wydanych zgodnie z ust. 1 i 2. Obowiązek ten nie obejmuje wrażliwych danych operacyjnych dotyczących działań organów ścigania.
4. Kadar v 15 koledarskih dneh po prejemu informacij iz odstavka 3 država članica ali Komisija ne poda nobenega ugovora glede dovoljenja, ki ga je izdal organ za nadzor trga države članice v skladu z odstavkom 1, se šteje, da je dovoljenje upravičeno.
4. Jeżeli w terminie 15 dni kalendarzowych od dnia otrzymania informacji, o której mowa w ust. 3, ani żadne państwo członkowskie, ani Komisja nie zgłoszą sprzeciwu dotyczącego zezwolenia wydanego przez organ nadzoru rynku państwa członkowskiego zgodnie z ust. 1, takie zezwolenie uznaje się za uzasadnione.
5. Kadar v 15 koledarskih dneh po prejemu obvestila iz odstavka 3 država članica poda ugovore zoper dovoljenje, ki ga je izdal organ za nadzor trga druge države članice, ali kadar Komisija meni, da je dovoljenje v nasprotju s pravom Unije ali da je sklep držav članic glede skladnosti sistema iz odstavka 3 neutemeljen, se Komisija brez odlašanja posvetuje z zadevno državo članico. Z zadevnimi operaterji se posvetuje in ti imajo možnost, da predstavijo svoja stališča. Glede na to Komisija odloči, ali je dovoljenje upravičeno. Komisija svojo odločitev sporoči zadevnim državam članicam in ustreznim operaterjem.
5. Jeżeli w terminie 15 dni kalendarzowych od dnia otrzymania informacji, o której mowa w ust. 3, państwo członkowskie zgłosi sprzeciw dotyczący zezwolenia wydanego przez organ nadzoru rynku innego państwa członkowskiego lub w przypadku gdy Komisja uzna zezwolenie za sprzeczne z prawem Unii lub uzna za bezpodstawne dokonane przez państwo członkowskie stwierdzenie zgodności systemu, o czym mowa w ust. 3, Komisja niezwłocznie przystępuje do konsultacji z odpowiednim państwem członkowskim. W takim przypadku zasięga się opinii zainteresowanych operatorów i zapewnia się im możliwość przedstawienia ich stanowiska. Na tej podstawie Komisja podejmuje decyzję, czy dane zezwolenie jest uzasadnione. Komisja kieruje swoją decyzję do zainteresowanego państwa członkowskiego i odpowiednich operatorów.
6. Kadar Komisija meni, da je dovoljenje neupravičeno, ga organ za nadzor trga zadevne države članice umakne.
6. W przypadku gdy Komisja uzna zezwolenie za bezpodstawne, organ nadzoru rynku zainteresowanego państwa członkowskiego cofa je.
7. Za visokotvegane sisteme UI, povezane s proizvodi, zajetimi v harmonizacijski zakonodaji Unije iz Priloge I, oddelek A, se uporabljajo samo odstopanja od ugotavljanja skladnosti, določena v navedeni harmonizacijski zakonodaji Unije.
7. W przypadku systemów AI wysokiego ryzyka powiązanych z produktami objętymi zakresem stosowania unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I sekcja A stosuje się wyłącznie odstępstwa od oceny zgodności ustanowione w tym unijnym prawodawstwie harmonizacyjnym.
1. Ponudnik za vsak visokotvegani sistem UI sestavi strojno berljivo, fizično ali elektronsko podpisano pisno EU izjavo o skladnosti in jo hrani za potrebe pristojnih nacionalnih organov ter jim jo daje na voljo še 10 let po tem, ko je bil visokotvegani sistem UI dan na trg ali v uporabo. V EU izjavi o skladnosti se opredeli, za kateri visokotvegani sistem UI je bila sestavljena. Na zahtevo se ustreznim pristojnim nacionalnim organom predloži izvod EU izjave o skladnosti.
1. Dostawca sporządza pisemną i nadającą się do odczytu maszynowego, podpisaną fizycznie lub elektronicznie, deklarację zgodności UE dla każdego systemu AI wysokiego ryzyka i przechowuje ją do dyspozycji właściwych organów krajowych przez okres 10 lat od dnia wprowadzenia systemu AI wysokiego ryzyka do obrotu lub oddania go do użytku. W deklaracji zgodności UE wskazuje się system AI wysokiego ryzyka, dla którego ją sporządzono. Kopię deklaracji zgodności UE przedkłada się odpowiednim właściwym organom krajowym na ich wniosek.
2. V EU izjavi o skladnosti se navede, da zadevni visokotvegani sistem UI izpolnjuje zahteve iz oddelka 2. EU izjava o skladnosti vsebuje informacije iz Priloge V in se prevede v jezik, ki ga pristojni nacionalni organi držav članic, v katerih je visokotvegani sistem UI dan na trg ali je omogočena dostopnost do njega, zlahka razumejo.
2. W deklaracji zgodności UE stwierdza się, że dany system AI wysokiego ryzyka spełnia wymogi ustanowione w sekcji 2. Deklaracja zgodności UE zawiera informacje określone w załączniku V i musi zostać przetłumaczona na język łatwo zrozumiały dla właściwych organów krajowych państw członkowskich, w których dany system AI wysokiego ryzyka jest wprowadzany do obrotu lub udostępniany.
3. Kadar za visokotvegane sisteme UI velja druga harmonizacijska zakonodaja Unije, v skladu s katero se zahteva tudi EU izjava o skladnosti, se pripravi enotna EU izjava o skladnosti za pravo Unije, ki se uporablja za visokotvegani sistem UI. Ta izjava vsebuje vse informacije, s katerimi se ugotovi, na katero harmonizacijsko zakonodajo Unije se izjava nanaša.
3. W przypadku gdy systemy AI wysokiego ryzyka podlegają innemu unijnemu prawodawstwu harmonizacyjnemu, w którym również ustanowiono wymóg sporządzenia deklaracji zgodności UE, na potrzeby wszystkich przepisów prawa Unii mających zastosowanie do systemu AI wysokiego ryzyka sporządza się jedną deklarację zgodności UE. W deklaracji zamieszcza się wszystkie informacje niezbędne do zidentyfikowania unijnego prawodawstwa harmonizacyjnego, do którego się ona odnosi.
4. S pripravo EU izjave o skladnosti ponudnik prevzame odgovornost za skladnost z zahtevami iz oddelka 2. Ponudnik EU izjavo o skladnosti, če je to primerno, posodablja.
4. Sporządzając deklarację zgodności UE, dostawca bierze na siebie odpowiedzialność za zgodność z wymogami ustanowionymi w sekcji 2. Dostawca odpowiednio zapewnia aktualność deklaracji zgodności UE.
5. Na Komisijo se prenese pooblastilo za sprejemanje delegiranih aktov v skladu s členom 97, da se spremeni Priloga V, s posodobitvijo vsebine EU izjave o skladnosti iz navedene priloge, da se uvedejo elementi, potrebni zaradi tehničnega napredka.
5. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 97 w celu zmiany załącznika V poprzez zaktualizowanie treści deklaracji zgodności UE określonej w tym załączniku w celu wprowadzenia elementów, które stały się konieczne w świetle postępu technicznego.
1. Za oznako CE veljajo splošna načela iz člena 30 Uredbe (ES) št. 765/2008.
1. Oznakowanie CE podlega ogólnym zasadom określonym w art. 30 rozporządzenia (WE) nr 765/2008.
2. Za visokotvegane sisteme UI, ki se zagotavljajo digitalno, se digitalna oznaka CE uporablja le, če je do nje mogoče enostavno dostopati prek vmesnika, prek katerega se dostopa do tega sistema, ali prek lahko dostopne strojno berljive kode ali drugega elektronskega sredstva.
2. W przypadku systemów AI wysokiego ryzyka dostarczanych w formie cyfrowej cyfrowe oznakowanie CE stosuje się wyłącznie wtedy, gdy można do niego łatwo dotrzeć za pośrednictwem interfejsu, poprzez który uzyskuje się dostęp do tego systemu, lub za pomocą łatwo dostępnego kodu nadającego się do odczytu maszynowego lub innych środków elektronicznych.
3. Oznaka CE se vidno, čitljivo in neizbrisno namesti na visokotvegane sisteme UI. Kadar to ni mogoče ali ni upravičeno zaradi značilnosti visokotveganega sistema UI, se oznaka namesti bodisi na embalažo ali na priloženo dokumentacijo.
3. Oznakowanie CE umieszcza się na systemie AI wysokiego ryzyka w sposób widoczny, czytelny i trwały. W przypadku gdy z uwagi na charakter systemu AI wysokiego ryzyka oznakowanie systemu w taki sposób nie jest możliwe lub zasadne, oznakowanie to umieszcza się na opakowaniu lub – w stosownych przypadkach – w dołączonej do systemu dokumentacji.
4. Kadar je to primerno, oznaki CE sledi identifikacijska številka priglašenega organa, odgovornega za postopke ugotavljanja skladnosti iz člena 43. Identifikacijsko številko priglašenega organa pritrdi organ sam ali pa jo na podlagi njegovih navodil pritrdi ponudnik ali njegov pooblaščeni zastopnik. Identifikacijska številka se navede tudi v promocijskem gradivu, v katerem je omenjeno, da visokotvegani sistem UI izpolnjuje zahteve za oznako CE.
4. W stosownych przypadkach oznakowaniu CE towarzyszy również numer identyfikacyjny jednostki notyfikowanej odpowiedzialnej za przeprowadzenie procedur oceny zgodności ustanowionych w art. 43. Numer identyfikacyjny jednostki notyfikowanej umieszcza sama jednostka lub, według wskazówek jednostki notyfikowanej, dostawca lub jego upoważniony przedstawiciel. Numer identyfikacyjny umieszcza się również na wszelkich materiałach promocyjnych zawierających informacje o tym, że system AI wysokiego ryzyka spełnia wymogi konieczne do opatrzenia go oznakowaniem CE.
5. Kadar visokotvegane sisteme UI ureja drugo pravo Unije, ki prav tako določa namestitev oznake CE, se na tej oznaki navede, da visokotvegani sistem UI izpolnjuje tudi zahteve tega drugega prava.
5. W przypadku gdy systemy AI wysokiego ryzyka podlegają innym przepisom Unii, które również przewidują umieszczenie oznakowania CE, oznakowanie CE wskazuje, że dany system AI wysokiego ryzyka spełnia także wymogi zawarte w tych innych przepisach.
1. Pred dajanjem visokotveganega sistema UI iz Priloge III, z izjemo visokotveganih sistemov UI iz Priloge III, točka 2, na trg ali v uporabo ponudnik ali, kadar je to ustrezno, pooblaščeni zastopnik sebe in svoj sistem registrira v podatkovni zbirki EU iz člena 71.
1. Przed wprowadzeniem do obrotu lub oddaniem do użytku systemu AI wysokiego ryzyka wymienionego w załączniku III, z wyjątkiem systemów AI wysokiego ryzyka, o których mowa w załączniku III pkt 2, dostawca lub – w stosownych przypadkach – jego upoważniony przedstawiciel rejestrują się i swój system w bazie danych UE, o której mowa w art. 71.
2. Pred dajanjem sistema UI, za katerega je ponudnik ugotovil, da v skladu s členom 6(3) ne šteje za visokotvegan, na trg ali v uporabo ponudnik ali, kadar je to ustrezno, pooblaščeni zastopnik sebe in navedeni sistem registrira v podatkovni zbirki EU iz člena 71.
2. Przed wprowadzeniem do obrotu lub oddaniem do użytku systemu AI, co do którego dostawca stwierdził, że nie jest systemem wysokiego ryzyka zgodnie z art. 6 ust. 3, dostawca ten lub – w stosownych przypadkach – jego upoważniony przedstawiciel rejestrują się i swój system w bazie danych UE, o której mowa w art. 71.
3. Pred dajanjem v uporabo ali pred uporabo visokotveganega sistema UI iz Priloge III, z izjemo visokotveganih sistemov UI iz Priloge III, točka 2, se uvajalci, ki so javni organi, institucije, organi, uradi ali agencije Unije ali osebe, ki delujejo v njihovem imenu, registrirajo, izberejo sistem in registrirajo njegovo uporabo v podatkovni zbirki EU iz člena 71.
3. Przed oddaniem do użytku lub wykorzystaniem systemu AI wysokiego ryzyka wymienionego w załączniku III, z wyjątkiem systemów AI wysokiego ryzyka wymienionych w załączniku III pkt 2, podmioty stosujące będące publicznymi organami, instytucjami, organami lub jednostkami organizacyjnymi Unii lub osobami działającymi w ich imieniu rejestrują się, wybierają system i rejestrują jego wykorzystanie w bazie danych UE, o której mowa w art. 71.
4. Za visokotvegane sisteme UI iz Priloge III, točke 1, 6 in 7, na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, migracij, azila in upravljanja nadzora meja se registracija iz odstavkov 1, 2 in 3 tega člena izvede v varnem nejavnem delu podatkovne zbirke EU iz člena 71 in vključuje le naslednje informacije, kot je ustrezno, iz:
4. W przypadku systemów AI wysokiego ryzyka, o których mowa w załączniku III pkt 1, 6 i 7, w obszarach ścigania przestępstw, migracji, azylu i zarządzania kontrolą graniczną, rejestracji, o której mowa w ust. 1, 2 i 3 niniejszego artykułu, dokonuje się w bezpiecznej niepublicznej sekcji bazy danych UE, o której mowa w art. 71, i – stosownie do przypadku – zawiera wyłącznie następujące informacje, o których mowa w:
(a)
Priloge VIII, oddelek A, točke 1 do 10, razen točk 6, 8 in 9;
a)
załączniku VIII sekcja A pkt 1–10, z wyjątkiem pkt 6, 8 i 9;
(b)
Priloge VIII, oddelek B, točke 1 do 5 ter točki 8 in 9;
b)
załączniku VIII sekcja B pkt 1–5 oraz pkt 8 i 9;
(c)
Priloge VIII, oddelek C, točke 1 do 3;
c)
załączniku VIII sekcja C pkt 1–3;
(d)
Priloge IX, točke 1, 2, 3 in 5.
d)
załączniku IX pkt 1, 2, 3 i 5.
Dostop do ustreznih omejenih delov podatkovne zbirke EU iz prvega pododstavka tega odstavka imajo samo Komisija in nacionalni organi iz člena 74(8).
Do odpowiednich zastrzeżonych sekcji bazy danych UE wymienionych w akapicie pierwszym niniejszego ustępu dostęp mają jedynie Komisja i organy krajowe, o których mowa w art. 74 ust. 8.
5. Visokotvegani sistemi UI iz Priloge III, točka 2, se registrirajo na nacionalni ravni.
5. Systemy AI wysokiego ryzyka, o których mowa w załączniku III pkt 2, rejestruje się na poziomie krajowym.
Obveznosti ponudnikov in uvajalcev nekaterih sistemov UI glede preglednosti
Obowiązki w zakresie przejrzystości dla dostawców i podmiotów stosujących niektóre systemy AI
1. Ponudniki zagotovijo, da so sistemi UI, namenjeni neposredni interakciji s fizičnimi osebami, zasnovani in razviti tako, da so zadevne fizične osebe obveščene, da so v interakciji s sistemom UI, razen če je to očitno z vidika razmeroma dobro obveščene, pozorne in preudarne fizične osebe ob upoštevanju okoliščin in konteksta uporabe. Ta obveznost se ob upoštevanju ustreznih zaščitnih ukrepov za pravice in svoboščine tretjih oseb ne uporablja za sisteme UI, ki so z zakonom odobreni za odkrivanje, preprečevanje, preiskovanje ali pregon kaznivih dejanj, razen če so ti sistemi na voljo javnosti za prijavo kaznivega dejanja.
1. Dostawcy zapewniają, aby systemy AI przeznaczone do wchodzenia w bezpośrednią interakcję z osobami fizycznymi projektowano i rozwijano w taki sposób, aby zainteresowane osoby fizyczne były informowane o tym, że prowadzą interakcję z systemem AI, chyba że jest to oczywiste z punktu widzenia osoby fizycznej, która jest dostatecznie poinformowana, uważna i ostrożna, z uwzględnieniem okoliczności i kontekstu wykorzystywania. Obowiązek ten nie ma zastosowania do systemów AI, których wykorzystywanie jest dozwolone na mocy prawa do celów wykrywania przestępstw, przeciwdziałania im, prowadzenia postępowań przygotowawczych w ich sprawie lub ścigania ich sprawców, z zastrzeżeniem odpowiednich zabezpieczeń w zakresie praw i wolności osób trzecich, chyba że systemy te udostępnia się ogółowi społeczeństwa na potrzeby składania zawiadomień o popełnieniu przestępstwa.
2. Ponudniki sistemov UI, vključno s sistemi UI za splošne namene, ki ustvarjajo sintetično zvočno, slikovno, video ali besedilno vsebino, zagotovijo, da so izhodni podatki sistema UI označeni v strojno berljivi obliki in jih je mogoče prepoznati kot umetno ustvarjene ali prirejene. Ponudniki zagotovijo, da so njihove tehnične rešitve učinkovite, interoperabilne, robustne in zanesljive, kolikor je to tehnično izvedljivo, pri čemer upoštevajo posebnosti in omejitve različnih vrst vsebin, stroške izvajanja in splošno priznane najsodobnejše tehnološke dosežke, kar se lahko odraža v ustreznih tehničnih standardih. Ta obveznost se ne uporablja, kolikor sistemi UI zagotavljajo podporno funkcijo za standardno urejanje ali ne spreminjajo bistveno vhodnih podatkov, ki jih zagotovi uvajalec, ali njihove semantike ali kadar so z zakonom dovoljeni za odkrivanje, preprečevanje, preiskovanje ali pregon kaznivih dejanj.
2. Dostawcy systemów AI, w tym systemów AI ogólnego zastosowania, generujących treści w postaci syntetycznych dźwięków, obrazów, wideo lub tekstu, zapewniają, aby wyniki systemu AI zostały oznakowane w formacie nadającym się do odczytu maszynowego i były wykrywalne jako sztucznie wygenerowane lub zmanipulowane. Dostawcy zapewniają skuteczność, interoperacyjność, solidność i niezawodność swoich rozwiązań technicznych w zakresie, w jakim jest to technicznie wykonalne, uwzględniając przy tym specyfikę i ograniczenia różnych rodzajów treści, koszty wdrażania oraz powszechnie uznany stan wiedzy technicznej, co może być odzwierciedlone w odpowiednich normach technicznych. Obowiązek ten nie ma zastosowania w zakresie, w jakim systemy AI pełnią funkcję wspomagającą w zakresie standardowej edycji lub nie zmieniają w istotny sposób przekazywanych przez podmiot stosujący danych wejściowych lub ich semantyki, ani w zakresie, w jakim jest to dozwolone na mocy prawa do celów wykrywania przestępstw, zapobiegania im, prowadzenia postępowań przygotowawczych w ich sprawie lub ścigania ich sprawców.
3. Uvajalci sistema za prepoznavanje čustev ali sistema za biometrično kategorizacijo o delovanju sistema obvestijo fizične osebe, ki so mu izpostavljene, in obdelujejo osebne podatke v skladu z uredbama (EU) 2016/679 in (EU) 2018/1725 ter Direktivo (EU) 2016/680, kot je ustrezno. Ta obveznost se ob upoštevanju ustreznih zaščitnih ukrepov za pravice in svoboščine tretjih oseb ter v skladu s pravom Unije ne uporablja za sisteme UI, ki se uporabljajo za biometrično kategorizacijo in prepoznavanje čustev ter so z zakonom dovoljeni za odkrivanje, preprečevanje ali preiskovanje kaznivih dejanj.
3. Podmioty stosujące systemy rozpoznawania emocji lub systemy kategoryzacji biometrycznej informują osoby fizyczne, wobec których systemy te są stosowane, o fakcie ich stosowania i przetwarzają dane osobowe stosownie do przypadku zgodnie z rozporządzeniami (UE) 2016/679 i (UE) 2018/1725 oraz dyrektywą (UE) 2016/680. Obowiązek ten nie ma zastosowania do systemów AI wykorzystywanych do kategoryzacji biometrycznej i rozpoznawania emocji, których wykorzystywanie jest dozwolone z mocy prawa do celów wykrywania przestępstw, przeciwdziałania im i prowadzenia postępowań przygotowawczych w przestępstwami ich sprawach, z zastrzeżeniem odpowiednich zabezpieczeń w zakresie praw i wolności osób trzecich oraz zgodnie z prawem Unii.
4. Uvajalci sistema UI, ki ustvarja ali prireja slikovno, zvočno ali video vsebino, ki je globoki ponaredek, morajo razkriti, da je bila vsebina umetno ustvarjena ali prirejena. Ta obveznost se ne uporablja, kadar je uporaba zakonsko dovoljena za odkrivanje, preprečevanje, preiskovanje ali pregon kaznivih dejanj. Kadar je vsebina del očitno umetniškega, ustvarjalnega, satiričnega, fiktivnega ali podobnega dela ali programa, so obveznosti glede preglednosti iz tega odstavka omejene na razkritje obstoja take ustvarjene ali prirejene vsebine na ustrezen način, ki ne ovira prikazovanja ali uživanja dela.
4. Podmioty stosujące system AI, który generuje obrazy, treści audio lub wideo stanowiące treści deepfake lub który manipuluje takimi obrazami lub treściami, ujawniają, że treści te zostały sztucznie wygenerowane lub zmanipulowane. Obowiązek ten nie ma zastosowania, w przypadku gdy wykorzystywanie jest dozwolone na mocy prawa w celu wykrywania przestępstw, zapobiegania im, prowadzenia postępowań przygotowawczych w ich sprawie lub ścigania ich sprawców. W przypadku gdy treść stanowi część pracy lub programu o wyraźnie artystycznym, twórczym, satyrycznym, fikcyjnym lub analogicznym charakterze obowiązki w zakresie przejrzystości określone w niniejszym ustępie ograniczają się do ujawnienia istnienia takich wygenerowanych lub zmanipulowanych treści w odpowiedni sposób, który nie utrudnia wyświetlania lub korzystania z utworu.
Uvajalci sistema UI, ki ustvarja ali prireja besedilo, ki se objavi z namenom obveščanja javnosti o zadevah javnega interesa, morajo razkriti, da je bilo besedilo umetno ustvarjeno ali prirejeno. Ta obveznost se ne uporablja, kadar je uporaba zakonsko dovoljena za odkrivanje, preprečevanje, preiskovanje ali pregon kaznivih dejanj ali kadar je bila vsebina, ustvarjena z UI, predmet človeške preverbe ali uredniškega pregleda in kadar ima fizična ali pravna oseba uredniško odgovornost za objavo vsebine.
Podmioty stosujące system AI, który generuje tekst publikowany w celu informowania społeczeństwa o sprawach leżących w interesie publicznym lub manipuluje takim tekstem, ujawniają, że tekst został sztucznie wygenerowany lub zmanipulowany. Obowiązek ten nie ma zastosowania, w przypadku gdy wykorzystywanie jest dozwolone na mocy prawa w celu wykrywania przestępstw, zapobiegania im, prowadzenia postępowań przygotowawczych w ich sprawie lub ścigania ich sprawców lub w przypadku gdy treści wygenerowane przez AI zostały poddane weryfikacji przez człowieka lub kontroli redakcyjnej i gdy za publikację treści odpowiedzialność redakcyjną ponosi osoba fizyczna lub prawna.
5. Informacije iz odstavkov 1 do 4 se dajo na voljo zadevnim fizičnim osebam na jasen in razpoznaven način ter najpozneje ob prvi interakciji ali izpostavljenosti. Informacije morajo biti skladne z veljavnimi zahtevami glede dostopnosti.
5. Informacje, o których mowa w ust. 1–4, są przekazywane zainteresowanym osobom fizycznym w jasny i wyraźny sposób, najpóźniej w momencie pierwszej interakcji lub pierwszego stosowania. Informacje te muszą spełniać mające zastosowanie wymogi dostępności.
6. Odstavki 1 do 4 ne vplivajo na zahteve in obveznosti iz poglavja III in ne posegajo v druge obveznosti glede preglednosti, ki so za uvajalce sistemov UI določene v pravu Unije ali nacionalnem pravu.
6. Ust. 1–4 nie mają wpływu na wymogi i obowiązki ustanowione w rozdziale III i pozostają bez uszczerbku dla innych obowiązków w zakresie przejrzystości ustanowionych w prawie Unii lub prawie krajowym w odniesieniu do podmiotów stosujących systemy AI.
7. Urad za UI spodbuja in olajšuje pripravo kodeksov prakse na ravni Unije, da se omogoči učinkovito izvajanje obveznosti glede odkrivanja in označevanja umetno ustvarjenih ali prirejenih vsebin. Komisija lahko sprejme izvedbene akte za odobritev teh kodeksov prakse v skladu s postopkom iz člena 56(6). Če meni, da kodeks ni ustrezen, lahko Komisija sprejme izvedbeni akt, s katerim določi skupna pravila za izvajanje navedenih obveznosti v skladu s postopkom pregleda iz člena 98(2).
7. Urząd ds. AI zachęca do opracowywania kodeksów praktyk na poziomie Unii i wspiera ich opracowanie, aby ułatwić skuteczne wykonywanie obowiązków w zakresie wykrywania i oznaczania treści sztucznie wygenerowanych lub zmanipulowanych. Komisja może przyjmować akty wykonawcze dotyczące zatwierdzenia tych kodeksów praktyk zgodnie z procedurą ustanowioną w art. 56 ust. 6. Jeżeli Komisja uzna, że kodeks nie jest odpowiedni, może przyjąć akt wykonawczy określający wspólne zasady wykonywania tych obowiązków zgodnie z procedurą sprawdzającą ustanowioną w art. 98 ust. 2.
1. Kadar model UI za splošne namene izpolnjuje pogoj iz člena 51(1), točka (a), zadevni ponudnik o tem nemudoma, v vsakem primeru pa v dveh tednih po izpolnitvi te zahteve ali po tem, ko je znano, da bo izpolnjena, uradno obvesti Komisijo. To uradno obvestilo vključuje informacije, iz katerih je razvidno, da je ustrezna zahteva izpolnjena. Če Komisija ugotovi, da model UI za splošne namene predstavlja sistemska tveganja, o katerih ni bila uradno obveščena, se lahko odloči, da ga bo označila za model s sistemskim tveganjem.
1. W przypadku gdy model AI ogólnego przeznaczenia spełnia warunki, o których mowa w art. 51 ust. 1 lit. a), odpowiedni dostawca powiadamia Komisję niezwłocznie, a w każdym przypadku w terminie dwóch tygodni od spełnienia tego warunku lub od kiedy wiadomo, że zostanie on spełniony. Powiadomienie to zawiera informacje niezbędne do wykazania, że dany warunek został spełniony. Jeśli Komisja dowie się o stwarzającym ryzyko systemowe modelu AI ogólnego przeznaczenia, o którym nie została powiadomiona, może zdecydować o uznaniu go za model z ryzykiem systemowym.
2. Ponudnik modela UI za splošne namene, ki izpolnjuje pogoj iz člena 51(1), točka (a), lahko ob uradnem obvestilu predloži dovolj utemeljene argumente, s katerimi dokaže, da model UI za splošne namene izjemoma, čeprav izpolnjuje navedeno zahtevo, zaradi svojih posebnih značilnosti ne predstavlja sistemskih tveganj in zato ne bi smel biti razvrščen kot model UI za splošne namene s sistemskim tveganjem.
2. Dostawca spełniający warunek, o którym mowa w art. 51 ust. 1 lit. a), modelu AI ogólnego przeznaczenia z ryzykiem systemowym może wraz ze swoim powiadomieniem przedstawić wystarczająco uzasadnione argumenty wykazujące, że wyjątkowo, pomimo spełniania przez ten model AI ogólnego przeznaczenia przedmiotowego warunku, nie stwarza on – z uwagi na swoje szczególne cechy – ryzyka systemowego i nie powinien być w związku z tym zaklasyfikowany jako model AI ogólnego przeznaczenia z ryzykiem systemowym.
3. Kadar Komisija ugotovi, da argumenti, predloženi na podlagi odstavka 2, niso dovolj utemeljeni in da zadevni ponudnik ni mogel dokazati, da model UI za splošne namene zaradi svojih posebnih značilnosti ne predstavlja sistemskih tveganj, te argumente zavrne, model UI za splošne namene pa se šteje za model UI za splošne namene s sistemskim tveganjem.
3. W przypadku gdy Komisja stwierdzi, że argumenty przedstawione zgodnie z ust. 2 nie są wystarczająco uzasadnione i że dany dostawca nie był w stanie wykazać, że dany model AI ogólnego przeznaczenia nie stwarza – z uwagi na swoje szczególne cechy – ryzyka systemowego, odrzuca te argumenty, a dany model AI ogólnego przeznaczenia uważa się za model AI ogólnego przeznaczenia z ryzykiem systemowym.
4. Komisija lahko na podlagi meril iz Priloge XIII po uradni dolžnosti ali na podlagi kvalificiranega opozorila znanstvenega odbora na podlagi člena 90(1), točka (a), model UI za splošne namene označi za model, ki predstavlja sistemska tveganja.
4. Komisja może – z urzędu lub w następstwie ostrzeżenia kwalifikowanego wydanego przez panel naukowy zgodnie z art. 90 ust. 1 lit. a) – uznać model AI ogólnego przeznaczenia za model stwarzający ryzyko systemowe na podstawie kryteriów określonych w załączniku XIII.
Na Komisijo se prenese pooblastilo za sprejemanje delegiranih aktov v skladu s členom 97, da spremeni Prilogo XIII, s tem da določi in posodobi merila iz navedene priloge.
Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 97 w celu zmiany załącznika XIII poprzez określenie i zaktualizowanie kryteriów określonych w załączniku XIII.
5. Komisija na obrazloženo zahtevo ponudnika, katerega model je bil označen za model UI za splošne namene s sistemskim tveganjem na podlagi odstavka 4, upošteva zahtevo in se lahko odloči, da ponovno oceni, ali se lahko za model UI za splošne namene še vedno šteje, da predstavlja sistemska tveganja na podlagi meril iz Priloge XIII. Taka zahteva vsebuje objektivne, podrobne in nove razloge, ki so se pojavili po odločitvi glede označitve. Ponudniki ponovne ocene ne morejo zahtevati prej kot šest mesecev po odločitvi glede označitve. Kadar se Komisija po ponovni oceni odloči, da bo ohranila označitev modela UI za splošne namene s sistemskim tveganjem, ponudniki ponovne zahteve ne morejo zahtevati prej kot šest mesecev po tej odločitvi.
5. Na uzasadniony wniosek dostawcy, którego model został zgodnie z ust. 4 uznany za model AI ogólnego przeznaczenia z ryzykiem systemowym, Komisja bierze pod uwagę taki wniosek i może zdecydować o ponownej ocenie w celu stwierdzenia, czy dany model AI ogólnego przeznaczenia może być nadal uważany za stwarzający ryzyko systemowe na podstawie kryteriów określonych w załączniku XIII. Wniosek taki zawiera obiektywne, szczegółowe i nowe powody, które pojawiły się po podjęciu decyzji o uznaniu. Dostawcy mogą zwrócić się z wnioskiem o ponowną ocenę najwcześniej sześć miesięcy po podjęciu decyzji o uznaniu. W przypadku gdy w wyniku ponownej oceny Komisja zdecyduje się utrzymać uznanie modelu za model AI ogólnego przeznaczenia z ryzykiem systemowym, dostawcy mogą zwrócić się z wnioskiem o ponowną ocenę najwcześniej sześć miesięcy po podjęciu tej decyzji.
6. Komisija zagotovi objavo seznama modelov UI za splošne namene s sistemskim tveganjem in ga posodablja, ne da bi pri tem posegala v potrebo po spoštovanju in varstvu pravic intelektualne lastnine in zaupnih poslovnih informacij ali poslovnih skrivnosti v skladu s pravom Unije in nacionalnim pravom.
6. Komisja zapewnia publikację i aktualizację wykazu modeli AI ogólnego przeznaczenia z ryzykiem systemowym, bez uszczerbku dla konieczności przestrzegania i ochrony praw własności intelektualnej oraz poufnych informacji handlowych lub tajemnic przedsiębiorstwa zgodnie z prawem Unii i prawem krajowym.
Obveznosti, naložene ponudnikom modelov UI za splošne namene
Obowiązki dostawców modeli AI ogólnego przeznaczenia
1. Ponudniki modelov UI za splošne namene:
1. Dostawcy modeli AI ogólnego przeznaczenia:
(a)
pripravijo in posodabljajo tehnično dokumentacijo modela, vključno s postopkom učenja in testiranja ter rezultati njegovega ocenjevanja, ki vsebuje vsaj informacije iz Priloge XI, da se na zahtevo predloži Uradu za UI in pristojnim nacionalnim organom;
a)
sporządzają i aktualizują dokumentację techniczną modelu, w tym proces jego trenowania i testowania oraz wyniki jego oceny, zawierającą co najmniej informacje określone w załączniku XI do celów przekazania ich, na wniosek, Urzędowi ds. AI i właściwym organom krajowym;
(b)
pripravijo, posodabljajo in dajejo na voljo informacije in dokumentacijo za ponudnike sistemov UI, ki nameravajo model UI za splošne namene integrirati v svoje sisteme UI. Brez poseganja v potrebo po spoštovanju in varstvu pravic intelektualne lastnine in zaupnih poslovnih informacij ali poslovnih skrivnosti v skladu s pravom Unije in nacionalnim pravom informacije in dokumentacija:
b)
sporządzają, aktualizują i udostępniają informacje i dokumentację dostawcom systemów AI, którzy zamierzają zintegrować model AI ogólnego przeznaczenia ze swoimi systemami AI. Bez uszczerbku dla potrzeby przestrzegania i ochrony praw własności intelektualnej i poufnych informacji handlowych lub tajemnic przedsiębiorstwa zgodnie prawem Unii i prawem krajowym te informacje i dokumentacja:
(i)
ponudnikom sistemov UI omogočajo, da dobro razumejo zmogljivosti in omejitve modela UI za splošne namene ter izpolnjujejo svoje obveznosti na podlagi te uredbe, ter
(i)
umożliwiają dostawcom systemów AI dobre zrozumienie możliwości i ograniczeń danego modelu AI ogólnego przeznaczenia oraz spełnienie ich obowiązków zgodnie z niniejszym rozporządzeniem; oraz
(ii)
vsebujejo vsaj elemente iz Priloge XII;
(ii)
zawierają co najmniej elementy określone w załączniku XII;
(c)
vzpostavijo politiko za doseganje skladnosti s pravom Unije o avtorskih in sorodnih pravicah, zlasti za opredelitev in spoštovanje, tudi z najsodobnejšimi tehnologijami, pridržanj pravic, izraženih na podlagi člena 4(3) Direktive (EU) 2019/790;
c)
wprowadzają politykę służącą zapewnieniu zgodności z prawem Unii dotyczącym prawa autorskiego i praw pokrewnych, w szczególności z myślą o identyfikacji i zastosowaniu się, w tym poprzez najnowocześniejsze technologie, do zastrzeżenia praw wyrażonego zgodnie z art. 4 ust. 3 dyrektywy (UE) 2019/790;
(d)
v skladu s predlogo, ki jo zagotovi Urad za UI, pripravijo in objavijo dovolj podroben povzetek vsebine, ki se uporablja za učenje modela UI za splošne namene.
d)
sporządzają i podają do wiadomości publicznej wystarczająco szczegółowe streszczenie na temat treści wykorzystanych do trenowania danego modelu AI ogólnego przeznaczenia, zgodnie ze wzorem dostarczonym przez Urząd ds. AI.
2. Obveznosti iz odstavka 1, točki (a) in (b), ne veljajo za ponudnike modelov UI, ki so bili objavljeni na podlagi proste in odprtokodne licence, ki omogoča dostop do modela, njegovo uporabo, spreminjanje in distribucijo ter katere parametri, vključno z utežmi, informacijami o strukturi modela in informacijami o uporabi modela, so javno dostopni. Ta izjema se ne uporablja za modele UI za splošne namene s sistemskimi tveganji.
2. Obowiązków określonych w ust. 1 lit. a) i b) nie stosuje się do dostawców modeli AI, które są udostępniane na podstawie bezpłatnej licencji otwartego oprogramowania umożliwiającej dostęp, wykorzystanie, zmianę i dystrybucję modelu i których parametry, w tym wagi, informacje o architekturze modelu oraz informacje o wykorzystaniu modelu są podawane do wiadomości publicznej. Wyjątku tego nie stosuje się do modeli AI ogólnego przeznaczenia z ryzykiem systemowym.
3. Ponudniki modelov UI za splošne namene pri izvajanju svojih pristojnosti in pooblastil na podlagi te uredbe po potrebi sodelujejo s Komisijo in pristojnimi nacionalnimi organi.
3. Dostawcy modeli AI ogólnego przeznaczenia współpracują w razie konieczności z Komisją i właściwymi organami krajowymi przy wykonywaniu ich kompetencji i uprawnień zgodnie z niniejszym rozporządzeniem.
4. Ponudniki modelov UI za splošne namene se lahko do objave harmoniziranega standarda zanašajo na kodekse prakse v smislu člena 56, da dokažejo skladnost z obveznostmi iz odstavka 1 tega člena. Izpolnjevanje evropskih harmoniziranih standardov zagotavlja ponudnikom domnevo o skladnosti, kadar ti standardi zajemajo te obveznosti. Ponudniki modelov UI za splošne namene, ki ne upoštevajo odobrenega kodeksa prakse ali ne izpolnjujejo evropskega harmoniziranega standarda, dokažejo, da imajo druge ustrezne načine za zagotavljanje skladnosti, ki jih oceni Komisija.
4. Do czasu opublikowania normy zharmonizowanej dostawcy modeli AI ogólnego przeznaczenia mogą opierać się na kodeksach praktyk w rozumieniu art. 56 w celu wykazania spełnienia obowiązków ustanowionych w ust. 1 niniejszego artykułu. Zgodność z europejskimi normami zharmonizowanymi stwarza dla dostawcy domniemanie spełnienia tych obowiązków w zakresie, w jakim normy te obejmują te obowiązki. Dostawcy modeli AI ogólnego przeznaczenia, którzy nie zobowiązują się do przestrzegania zatwierdzonego kodeksu praktyk lub nie zapewniają zgodności z europejską normą zharmonizowaną, przedstawiają Komisji do oceny adekwatne alternatywne środki służące zapewnieniu zgodności.
5. Da se olajša skladnost s Prilogo XI, zlasti s točko 2(d) in (e) navedene priloge, se na Komisijo prenese pooblastilo za sprejemanje delegiranih aktov v skladu s členom 97, v katerih se podrobno opredelijo metodologije merjenja in izračunavanja, da se omogoči primerljiva in preverljiva dokumentacija.
5. Do celu ułatwienia zgodności z załącznikiem XI, w szczególności jego pkt 2 lit. d) i e), Komisja jest uprawniona do przyjmowania zgodnie z art. 97 aktów delegowanych dotyczących szczegółowego określenia metod pomiaru i obliczeń umożliwiających porównywalną i weryfikowalną dokumentację.
6. Na Komisijo se prenese pooblastilo za sprejemanje delegiranih aktov v skladu s členom 97(2) za spremembo prilog XI in XII glede na hiter tehnološki razvoj.
6. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 97 ust. 2 w celu zmiany załączników XI i XII w świetle postępu technicznego.
7. Vse informacije ali dokumentacija, pridobljene na podlagi tega člena, vključno s poslovnimi skrivnostmi, se obravnavajo v skladu z obveznostmi glede zaupnosti iz člena 78.
7. Wszelkie informacje lub dokumentację uzyskane zgodnie z niniejszym artykułem, w tym tajemnice przedsiębiorstwa, traktuje się zgodnie z obowiązkami dotyczącymi poufności określonymi w art. 78.
Pooblaščeni zastopniki ponudnikov modelov UI za splošne namene
Upoważnieni przedstawiciele dostawców modeli AI ogólnego przeznaczenia
1. Ponudniki s sedežem v tretji državi pred dajanjem modela UI za splošne namene na trg Unije s pisnim pooblastilom imenujejo pooblaščenega zastopnika s sedežem v Uniji.
1. Przed wprowadzeniem swoich modeli AI ogólnego przeznaczenia do obrotu w Unii dostawcy mający siedzibę w państwach trzecich ustanawiają – na podstawie pisemnego pełnomocnictwa – upoważnionego przedstawiciela mającego siedzibę w Unii.
2. Ponudnik svojemu pooblaščenemu zastopniku omogoči, da opravlja naloge, določene v pooblastilu, ki ga prejme od ponudnika.
2. Dostawca umożliwia swojemu upoważnionemu przedstawicielowi wykonywanie zadań powierzonych mu na mocy pełnomocnictwa udzielonego przez dostawcę.
3. Pooblaščeni zastopnik opravlja naloge, določene v pooblastilu, ki ga prejme od ponudnika. Uradu za UI na njegovo zahtevo predloži izvod pooblastila, in sicer v enem od uradnih jezikov institucij Unije. Za namene te uredbe pooblastilo pooblaščenemu zastopniku omogoča, da opravlja naslednje naloge:
3. Upoważniony przedstawiciel wykonuje zadania powierzone mu na mocy pełnomocnictwa udzielonego przez dostawcę. Przekazuje on Urzędowi ds. AI na jego wniosek kopię pełnomocnictwa w jednym z oficjalnych języków instytucji Unii. Do celów niniejszego rozporządzenia pełnomocnictwo uprawnia upoważnionego przedstawiciela do wykonywania następujących zadań:
(a)
preveri, ali je bila tehnična dokumentacija, določena v Prilogi XI, pripravljena in ali je ponudnik izpolnil vse obveznosti iz člena 53 in, kadar je ustrezno, člena 55;
a)
sprawdzenie, czy dostawca sporządził dokumentację techniczną określoną w załączniku XI oraz czy wypełnił wszystkie obowiązki, o których mowa w art. 53, oraz, w stosownych przypadkach, w art. 55;
(b)
hrani izvod tehnične dokumentacije, določene v Prilogi XI, da je za obdobje 10 let po tem, ko je bil model UI za splošne namene dan na trg, na voljo Uradu za UI in pristojnim nacionalnim organom, ter kontaktne podatke ponudnika, ki je imenoval pooblaščenega zastopnika;
b)
przechowywanie kopii dokumentacji technicznej określonej w załączniku XI do dyspozycji Urzędu ds. AI i właściwych organów krajowych przez okres 10 lat od czasu wprowadzenia danego modelu AI ogólnego przeznaczenia do obrotu oraz danych kontaktowych dostawcy, który ustanowił danego upoważnionego przedstawiciela;
(c)
Uradu za UI na obrazloženo zahtevo zagotovi vse informacije in dokumentacijo, vključno s tistimi iz točke (b), s katerimi dokaže, da izpolnjuje obveznosti iz tega poglavja;
c)
przekazywanie Urzędowi ds. AI na uzasadniony wniosek wszystkich informacji i dokumentacji, w tym określonych w lit. b), niezbędnych do wykazania spełnienia obowiązków ustanowionych w niniejszym rozdziale;
(d)
na obrazloženo zahtevo sodeluje z Uradom za UI in pristojnimi nacionalnimi organi pri vseh ukrepih, ki jih slednji sprejmejo v zvezi z modelom UI za splošne namene s sistemskimi tveganji, tudi kadar je model vključen v sisteme UI, dane na trg ali v uporabo v Uniji.
d)
współpraca z Urzędem ds. AI i właściwymi organami, na uzasadniony wniosek, we wszelkich podejmowanych przez nie działaniach odnoszących się do modelu AI ogólnego przeznaczenia, w tym kiedy model ten jest zintegrowany z systemami AI wprowadzanymi do obrotu lub oddawanymi do użytku w Unii.
4. Na podlagi pooblastila je pooblaščeni zastopnik pooblaščen, da lahko Urad za UI ali pristojni organi nanj, poleg ponudnika ali namesto njega, naslovijo vsa vprašanja, povezana z zagotavljanjem skladnosti s to uredbo.
4. Pełnomocnictwo daje upoważnionemu przedstawicielowi prawo do tego, aby Urząd ds. AI lub właściwe organy mogły się zwracać do niego, obok albo zamiast do dostawcy, we wszystkich kwestiach dotyczących zapewnienia zgodności z niniejszym rozporządzeniem.
5. Pooblaščeni zastopnik odpove pooblastilo, če meni ali utemeljeno domneva, da ponudnik ravna v nasprotju s svojimi obveznostmi na podlagi te uredbe. V takem primeru tudi nemudoma obvesti Urad za UI o odpovedi pooblastila in o razlogih zanjo.
5. Upoważniony przedstawiciel wypowiada pełnomocnictwo, jeśli sądzi lub ma powody sądzić, że dostawca działa w sposób sprzeczny z jego obowiązkami wynikającymi z niniejszego rozporządzenia. W takim przypadku informuje on również natychmiast Urząd ds. AI o wypowiedzeniu pełnomocnictwa i o jego przyczynach.
6. Obveznost iz tega člena ne velja za ponudnike modelov UI za splošne namene, ki so bili objavljeni na podlagi proste in odprtokodne licence, ki omogoča dostop do modela, njegovo uporabo, spreminjanje in distribucijo ter katere parametri, vključno z utežmi, informacijami o strukturi modela in informacijami o uporabi modela, so javno dostopni, razen če modeli UI za splošne namene predstavljajo sistemska tveganja.
6. Obowiązek określony w niniejszym artykule nie dotyczy dostawców modeli AI ogólnego przeznaczenia, które są udostępniane na podstawie bezpłatnej licencji otwartego oprogramowania umożliwiającej dostęp, wykorzystanie, zmianę i dystrybucję modelu i których parametry, w tym wagi, informacje o architekturze modelu oraz informacje o wykorzystaniu modelu są podawane do wiadomości publicznej, chyba że te modele AI ogólnego przeznaczenia stwarzają ryzyko systemowe.
1. Urad za UI spodbuja in olajšuje pripravo kodeksov prakse na ravni Unije, da bi prispeval k pravilni uporabi te uredbe ob upoštevanju mednarodnih pristopov.
1. Urząd ds. AI zachęca do sporządzania kodeksów praktyk na poziomie Unii i ułatwia ich sporządzanie w celu przyczyniania się do właściwego stosowania niniejszego rozporządzenia, przy uwzględnieniu podejść międzynarodowych.
2. Urad za UI in Odbor si prizadevata zagotoviti, da kodeksi prakse zajemajo vsaj obveznosti iz členov 53 in 55, vključno z naslednjimi elementi:
2. Urząd ds. AI i Rada ds. AI dążą do zapewnienia, by kodeksy praktyk obejmowały co najmniej obowiązki przewidziane w art. 53 i 55, w tym następujące kwestie:
(a)
načini za zagotavljanje, da se informacije iz člena 53(1), točki (a) in (b), posodabljajo glede na tržni in tehnološki razvoj;
a)
środki na rzecz zapewnienia, by informacje, o których mowa w art. 53 ust. 1 lit. a) i b), były aktualne w świetle rozwoju rynku i technologii;
(b)
ustrezno ravnjo podrobnosti za povzetek o vsebini, ki se uporablja za učenje;
b)
odpowiedni poziom szczegółowości streszczenia na temat treści wykorzystywanych do trenowania;
(c)
opredelitvijo vrste in narave sistemskih tveganj na ravni Unije, po potrebi vključno z njihovimi viri;
c)
identyfikacja rodzaju i charakteru ryzyka systemowego na poziomie Unii, w tym, w stosownych przypadkach, jego źródła;
(d)
ukrepi, postopki in načini za oceno in obvladovanje sistemskih tveganj na ravni Unije, vključno s pripadajočo dokumentacijo, ki so sorazmerni s tveganji, upoštevajo njihovo resnost in verjetnost ter upoštevajo posebne izzive pri obvladovanju teh tveganj glede na možne načine, na katere se lahko taka tveganja pojavijo in udejanijo vzdolž verige vrednosti UI.
d)
środki, procedury i zasady oceny ryzyka systemowego i zarządzania nim na poziomie Unii, w tym ich dokumentacja, które muszą być proporcjonalne do ryzyka, uwzględniać jego dotkliwość i prawdopodobieństwo wystąpienia oraz uwzględniać szczególne wyzwania w zakresie radzenia sobie z tym ryzykiem w świetle potencjalnych sposobów pojawienia się takie ryzyka i jego urzeczywistnienia w całym łańcuchu wartości AI.
3. Urad za UI lahko k sodelovanju pri pripravi kodeksov prakse povabi vse ponudnike modelov UI za splošne namene in ustrezne pristojne nacionalne organe. V procesu lahko sodelujejo organizacije civilne družbe, industrija, akademski krogi in drugi ustrezni deležniki, kot so ponudniki nižje v verigi in neodvisni strokovnjaki.
3. Urząd ds. AI może zwrócić się do wszystkich dostawców modeli AI ogólnego przeznaczenia oraz odpowiednich właściwych organów krajowych o wzięcie udziału w opracowywaniu kodeksów praktyk. Organizacje społeczeństwa obywatelskiego, przedstawiciele przemysłu, środowisko akademickie oraz inne odpowiednie zainteresowane strony, takie jak dostawcy niższego szczebla i niezależni eksperci, mogą wspierać ten proces.
4. Urad za UI in Odbor si prizadevata zagotoviti, da kodeksi prakse jasno določajo njune posebne cilje in vsebujejo zaveze ali ukrepe, po potrebi tudi ključne kazalnike uspešnosti, da se zagotovi doseganje teh ciljev, ter da so v njih ustrezno upoštevani potrebe in interesi vseh zainteresiranih strani na ravni Unije, tudi oseb, ki jih to zadeva.
4. Urząd ds. AI i Rada ds. AI starają się zapewnić, by kodeksy praktyk wyraźnie określały swoje cele szczegółowe i zawierały zobowiązania lub środki, w tym, w stosownych przypadkach, kluczowe wskaźniki skuteczności działania, w celu zapewnienia realizacji tych celów, oraz by uwzględniały w należytym stopniu potrzeby i interesy wszystkich zainteresowanych stron, w tym osób, na które AI ma wpływ, na poziomie Unii.
5. Urad za UI si prizadeva zagotoviti, da mu sodelujoči pri kodeksu prakse redno poročajo o uresničevanju zavez in sprejetih ukrepov ter posledičnih rezultatih, po potrebi tudi glede na ključne kazalnike uspešnosti. V ključnih kazalnikih uspešnosti in obveznostih poročanja se odražajo razlike v velikosti in zmogljivosti različnih sodelujočih.
5. Urząd ds. AI stara się zapewnić, by uczestnicy kodeksów praktyk regularnie składali Urzędowi ds. AI sprawozdania z realizacji podjętych zobowiązań i środków oraz z ich wyników, w tym, w odpowiednich przypadkach, mierzonych w odniesieniu do kluczowych wskaźników skuteczności działania. Kluczowe wskaźniki skuteczności działania i zobowiązania w zakresie sprawozdawczości muszą odzwierciedlać różnice w wielkości i zdolnościach poszczególnych uczestników.
6. Urad za UI in Odbor redno spremljata in ocenjujeta, kako sodelujoči dosegajo cilje kodeksov prakse in kako prispevajo k pravilni uporabi te uredbe. Urad za UI in Odbor ocenita, ali kodeksi prakse zajemajo obveznosti iz členov 53 in 55, ter redno spremljata in ocenjujeta doseganje ciljev v zvezi s tem. Svojo oceno ustreznosti kodeksov prakse objavita.
6. Urząd ds. AI i Rada ds. AI regularnie monitorują i oceniają realizację przez uczestników celów kodeksów praktyk oraz wkład tych kodeksów w należyte stosowanie niniejszego rozporządzenia. Urząd ds. AI i Rada ds. AI oceniają, czy kodeksy praktyk obejmują swoim zakresem obowiązki przewidziane w art. 53 i 55, i regularnie monitorują i oceniają realizację ich celów. Publikują one swoją ocenę adekwatności kodeksów praktyk.
Komisija lahko z izvedbenim aktom odobri kodeks prakse in mu da splošno veljavnost v Uniji. Ta izvedbeni akt se sprejme v skladu s postopkom pregleda iz člena 98(2).
Komisja może w drodze aktu wykonawczego zatwierdzić kodeks praktyk i nadać mu powszechną moc w Unii. Taki akt wykonawczy przyjmuje się zgodnie z procedurą sprawdzającą, o której mowa w art. 98 ust. 2.
7. Urad za UI lahko povabi vse ponudnike modelov UI za splošne namene, da pristopijo h kodeksom prakse. Za ponudnike modelov UI za splošne namene, ki ne predstavljajo sistemskih tveganj, je pristop lahko omejen na obveznosti iz člena 53, razen če izrecno izrazijo svoj interes za pristop k celotnemu kodeksu.
7. Urząd ds. AI może zwracać się do wszystkich dostawców modeli AI ogólnego przeznaczenia, by przestrzegali kodeksów praktyk. W przypadku dostawców modeli AI ogólnego przeznaczenia, które nie stwarzają ryzyka systemowego, przestrzeganie kodeksów może być ograniczone do obowiązków przewidzianych w art. 53, chyba że wyraźnie zadeklarują oni zainteresowanie pełnym przystąpieniem do kodeksu.
8. Urad za UI po potrebi spodbuja in olajšuje pregled in prilagoditev kodeksov prakse, zlasti glede na nastajajoče standarde. Urad za UI pomaga ocenjevati razpoložljive standarde.
8. Urząd ds. AI w stosownych przypadkach zachęca również do prowadzenia przeglądów i dostosowywania kodeksów praktyk oraz ułatwia takie przeglądy i dostosowania, w szczególności w świetle nowych norm. Urząd ds. AI udziela wsparcia w ocenie dostępnych norm.
9. Kodeksi prakse se pripravijo najpozneje do 2. maja 2025. Urad za UI sprejme potrebne ukrepe, vključno s povabilom ponudnikom na podlagi odstavka 7.
9. Kodeksy praktyk muszą być gotowe najpóźniej do dnia 2 maja 2025 r. Urząd ds. AI podejmuje niezbędne kroki, w tym kieruje zachęty do dostawców zgodnie z ust. 7.
Če kodeksa prakse do 2. avgusta 2025 ni mogoče dokončati ali če Urad za UI na podlagi svoje ocene na podlagi odstavka 6 tega člena meni, da ni ustrezen, lahko Komisija z izvedbenimi akti določi skupna pravila za izvajanje obveznosti iz členov 53 in 55, vključno z elementi iz odstavka 2 tega člena. Ti izvedbeni akti se sprejmejo v skladu s postopkom pregleda iz člena 98(2).
Jeśli do dnia 2 sierpnia 2025 r. opracowanie kodeks praktyk nie może zostać zakończone lub Urząd ds. AI w wyniku swojej oceny na podstawie ust. 6 niniejszego artykułu uzna, że nie jest on odpowiedni, Komisja może w drodze aktów wykonawczych ustanowić wspólne przepisy dotyczące wykonywania obowiązków przewidzianych w art. 53 i 55, z uwzględnieniem kwestii określonych w ust. 2 niniejszego artykułu. Te akty wykonawcze przyjmuje się zgodnie z procedurą sprawdzającą, o której mowa w art. 98 ust. 2.
Regulativni peskovniki za UI
Piaskownice regulacyjne w zakresie AI
1. Države članice zagotovijo, da njihovi pristojni organi na nacionalni ravni vzpostavijo vsaj en regulativni peskovnik za UI, ki začne delovati najpozneje 2. avgusta 2026. Ta peskovnik se lahko vzpostavi skupaj s pristojnimi organi drugih držav članic. Komisija lahko za vzpostavitev in delovanje regulativnih peskovnikov za UI zagotovi tehnično podporo, svetovanje in orodja.
1. Państwa członkowskie zapewniają, by ich właściwe organy ustanowiły na poziomie krajowym przynajmniej jedną piaskownicę regulacyjną w zakresie AI, która musi zostać uruchomiona do dnia 2 sierpnia 2026 r. Piaskownica ta może również zostać ustanowiona wspólnie z właściwymi organami innych państw członkowskich. Komisja może zapewniać wsparcie techniczne, doradztwo i narzędzia do celów ustanowienia i działania piaskownic regulacyjnych w zakresie AI.
Obveznost iz prvega pododstavka se lahko izpolni tudi s sodelovanjem v obstoječem peskovniku, če tako sodelovanje zagotavlja enakovredno nacionalno zastopanost sodelujočih držav članic.
Obowiązek ustanowiony w akapicie pierwszym może również zostać spełniony poprzez uczestnictwo w istniejącej piaskownicy w zakresie, w jakim udział ten stwarza równoważny poziom zasięgu krajowego dla uczestniczących państw członkowskich.
2. Na regionalni ali lokalni ravni ali skupaj s pristojnimi organi drugih držav članic se lahko vzpostavijo tudi dodatni regulativni peskovniki za UI.
2. Można również ustanowić dodatkowe piaskownice regulacyjne w zakresie AI na poziomie regionalnym lub lokalnym lub wspólnie z właściwymi organami innych państw członkowskich.
3. Evropski nadzornik za varstvo podatkov lahko vzpostavi tudi regulativni peskovnik za UI za institucije, organe, urade in agencije Unije ter lahko opravlja vloge in naloge pristojnih nacionalnih organov v skladu s tem poglavjem.
3. Europejski Inspektor Ochrony Danych może również ustanowić piaskownicę regulacyjną w zakresie AI dla instytucji, organów i jednostek organizacyjnych Unii i może pełnić role i wykonywać zadania właściwych organów krajowych zgodnie z niniejszym rozdziałem.
4. Države članice zagotovijo, da pristojni organi iz odstavkov 1 in 2 dodelijo zadostna sredstva za učinkovito in pravočasno izpolnjevanje tega člena. Kadar je primerno, pristojni nacionalni organi sodelujejo z drugimi ustreznimi organi in lahko dopustijo udeleženost drugih akterjev ekosistema UI. Ta člen ne vpliva na druge regulativne peskovnike, vzpostavljene na podlagi prava Unije ali nacionalnega prava. Države članice zagotovijo ustrezno raven sodelovanja med organi, ki nadzorujejo te druge peskovnike, in pristojnimi nacionalnimi organi.
4. Państwa członkowskie zapewniają, by właściwe organy, o których mowa w ust. 1 i 2, przeznaczały wystarczające zasoby do skutecznego i terminowego zapewnienia zgodności z niniejszym artykułem. W stosownych przypadkach właściwe organy krajowe współpracują z innymi odpowiednimi organami i mogą zezwolić na zaangażowanie innych podmiotów z ekosystemu AI. Niniejszy artykuł nie ma wpływu na inne piaskownice regulacyjne ustanowione na podstawie prawa Unii lub prawa krajowego. Państwa członkowskie zapewniają odpowiedni poziom współpracy między organami nadzorującymi te inne piaskownice a właściwymi organami krajowymi.
5. Regulativni peskovniki za UI, vzpostavljeni na podlagi odstavka 1, zagotavljajo nadzorovano okolje, ki spodbuja inovacije ter omogoča razvoj, učenje, testiranje in validacijo inovativnih sistemov UI za določen čas, preden se dajo na trg ali v uporabo, v skladu s posebnim načrtom peskovnika, o katerem se dogovorijo ponudniki ali potencialni ponudniki in pristojni organ. Taki peskovniki lahko vključujejo testiranje v realnih razmerah, ki se v njih nadzoruje.
5. Piaskownice regulacyjne w zakresie AI ustanowione na podstawie ust. 1 zapewniają kontrolowane środowisko sprzyjające innowacjom oraz ułatwiające rozwój, trenowanie, testowanie i walidację innowacyjnych systemów AI przez ograniczony czas przed ich wprowadzeniem do obrotu lub oddaniem ich do użytku zgodnie z określonym planem działania piaskownicy uzgodnionym między dostawcami lub potencjalnymi dostawcami a właściwym organem. Takie piaskownice mogą obejmować testy w warunkach rzeczywistych nadzorowane w jej ramach.
6. Pristojni organi v regulativnem peskovniku za UI po potrebi zagotovijo smernice, nadzor in podporo, kar zadeva opredeljevanje tveganja – zlasti za temeljne pravice, zdravje in varnost –, testiranje, ukrepe za zmanjšanje tveganj in njihovo učinkovitost glede na obveznosti in zahteve iz te uredbe ter po potrebi iz drugega prava Unije in nacionalnega prava, katerih upoštevanje se nadzoruje v peskovniku.
6. Właściwe organy zapewniają, w stosownych przypadkach, wskazówki, nadzór i wsparcie w ramach piaskownicy regulacyjnej w zakresie AI, mając na celu identyfikację ryzyka, w szczególności dla praw podstawowych, zdrowia i bezpieczeństwa, testowania, środków ograniczających ryzyko oraz ich skuteczności w odniesieniu do obowiązków i wymogów niniejszego rozporządzenia oraz, w stosownych przypadkach, innych nadzorowanych w ramach danej piaskownicy przepisów prawa Unii i prawa krajowego.
7. Pristojni organi ponudnikom in potencialnim ponudnikom, ki sodelujejo v regulativnem peskovniku za UI, zagotovijo smernice o regulativnih pričakovanjih ter o tem, kako izpolniti zahteve in obveznosti iz te uredbe.
7. Właściwe organy zapewniają dostawcom i potencjalnym dostawcom uczestniczącym w piaskownicy regulacyjnej w zakresie AI wskazówki dotyczące oczekiwań regulacyjnych oraz sposobów spełnienia wymogów i obowiązków ustanowionych w niniejszym rozporządzeniu.
Pristojni organ na zahtevo ponudnika ali potencialnega ponudnika sistema UI predloži pisno dokazilo o dejavnostih, ki so bile uspešno izvedene v peskovniku. Predloži tudi poročilo o izstopu, v katerem podrobno opiše dejavnosti, izvedene v peskovniku, ter povezane rezultate in učne izide. Ponudniki lahko tako dokumentacijo uporabijo za to, da s postopkom ugotavljanja skladnosti ali z ustreznimi dejavnostmi nadzora trga dokažejo skladnost s to uredbo. V zvezi s tem organi za nadzor trga in priglašeni organi pozitivno upoštevajo poročila o izstopu in pisna dokazila, ki jih predloži pristojni nacionalni organ, da bi v razumni meri pospešili postopke ugotavljanja skladnosti.
Na wniosek dostawcy lub potencjalnego dostawcy systemu AI właściwy organ przedstawia na piśmie dowód skutecznie przeprowadzonych w ramach piaskownicy działań. Właściwy organ przygotowuje również sprawozdanie końcowe zawierające szczegółowe informacje na temat działań przeprowadzonych w ramach piaskownicy oraz powiązanych rezultatów i efektów uczenia się. Dostawcy mogą wykorzystywać taką dokumentację do wykazania swojej zgodności z niniejszym rozporządzeniem w ramach procesu oceny zgodności lub odpowiednich działań w zakresie nadzoru rynku. W tym względzie sprawozdania końcowe oraz dowody na piśmie przedstawione przez właściwy organ krajowy są uwzględniane pozytywnie przez organy nadzoru rynku i jednostki notyfikowane, z myślą o przyspieszeniu procedur oceny zgodności w rozsądnym zakresie.
8. Komisija in Odbor sta ob upoštevanju določb o zaupnosti iz člena 78 in s soglasjem ponudnika ali potencialnega ponudnika pooblaščena za dostop do poročil o izstopu in jih, če je to primerno, upoštevata pri izvajanju svojih nalog na podlagi te uredbe. Če se ponudnik ali potencialni ponudnik in pristojni nacionalni organ izrecno strinjata, se lahko poročilo o izstopu objavi na enotni informacijski platformi iz tega člena.
8. Z zastrzeżeniem przepisów dotyczących poufności określonych w art. 78 i za zgodą dostawcy lub potencjalnego dostawcy Komisja i Rada ds. AI są upoważnione, by uzyskać dostęp do sprawozdań końcowych i – w stosownych przypadkach – uwzględniają je przy wykonywaniu swoich zadań na podstawie niniejszego rozporządzenia. Jeżeli zarówno dostawca lub przyszły dostawca, jak i właściwy organ krajowy wyraźnie wyrażą na to zgodę, sprawozdanie końcowe może zostać podane do wiadomości publicznej za pośrednictwem jednolitej platformy informacyjnej, o której mowa w niniejszym artykule.
9. Namen vzpostavitve regulativnih peskovnikov za UI je prispevati k naslednjim ciljem:
9. Ustanowienie piaskownic regulacyjnych w zakresie AI ma na celu przyczynienie się do osiągnięcia następujących celów:<