Dziennik Urzędowy
Unii Europejskiej
PL
EUROOPA PARLAMENDI JA NÕUKOGU MÄÄRUS (EL) 2024/1689,
ROZPORZĄDZENIE PARLAMENTU EUROPEJSKIEGO I RADY (UE) 2024/1689
z dnia 13 czerwca 2024 r.
millega nähakse ette tehisintellekti käsitlevad ühtlustatud õigusnormid ning muudetakse määruseid (EÜ) nr 300/2008, (EL) nr 167/2013, (EL) nr 168/2013, (EL) 2018/858, (EL) 2018/1139 ja (EL) 2019/2144 ning direktiive 2014/90/EL, (EL) 2016/797 ja (EL) 2020/1828 (tehisintellekti käsitlev määrus)
w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji)
(Tekst mający znaczenie dla EOG)
EUROOPA PARLAMENT JA EUROOPA LIIDU NÕUKOGU,
PARLAMENT EUROPEJSKI I RADA UNII EUROPEJSKIEJ,
võttes arvesse Euroopa Liidu toimimise lepingut, eriti selle artikleid 16 ja 114,
uwzględniając Traktat o funkcjonowaniu Unii Europejskiej, w szczególności jego art. 16 i 114,
võttes arvesse Euroopa Komisjoni ettepanekut,
uwzględniając wniosek Komisji Europejskiej,
olles edastanud seadusandliku akti eelnõu liikmesriikide parlamentidele,
po przekazaniu projektu aktu ustawodawczego parlamentom narodowym,
võttes arvesse Euroopa Majandus- ja Sotsiaalkomitee arvamust (1),
uwzględniając opinię Europejskiego Komitetu Ekonomiczno-Społecznego (1),
võttes arvesse Euroopa Keskpanga arvamust (2),
uwzględniając opinię Europejskiego Banku Centralnego (2),
võttes arvesse Regioonide Komitee arvamust (3),
uwzględniając opinię Komitetu Regionów (3),
toimides seadusandliku tavamenetluse kohaselt (4)
stanowiąc zgodnie ze zwykłą procedurą ustawodawczą (4),
ning arvestades järgmist:
a także mając na uwadze, co następuje:
(1)
Käesoleva määruse eesmärk on parandada siseturu toimimist ühtse õigusraamistiku kehtestamisega eeskätt tehisintellektisüsteemide arendamiseks, turule laskmiseks, kasutusele võtmiseks ja kasutamiseks liidus kooskõlas liidu väärtustega, et edendada inimkeskse ja usaldusväärse tehisintellekti levikut, tagades samal ajal tervise, turvalisuse, Euroopa Liidu põhiõiguste hartas (edaspidi „põhiõiguste harta“) sätestatud põhiõiguste, sealhulgas demokraatia ja õigusriigi kõrgetasemelise kaitse ning keskkonnakaitse, kaitsta tehisintellekti süsteemide kahjuliku mõju vastu liidus, ning toetada innovatsiooni. Käesoleva määrusega tagatakse tehisintellektil põhinevate kaupade ja teenuste vaba piiriülene liikumine, takistades seega liikmesriikidel kehtestamast piiranguid tehisintellektisüsteemide arendamisele, turustamisele ja kasutamisele, välja arvatud juhul, kui see käesoleva määrusega selgesõnaliselt lubatakse.
(1)
Celem niniejszego rozporządzenia jest poprawa funkcjonowania rynku wewnętrznego przez ustanowienie jednolitych ram prawnych, w szczególności w zakresie rozwoju, wprowadzania do obrotu, oddawania do użytku i wykorzystywania systemów sztucznej inteligencji (zwanych dalej „systemami AI”) w Unii, zgodnie z wartościami Unii, w celu promowania upowszechniania zorientowanej na człowieka i godnej zaufania sztucznej inteligencji (AI) przy jednoczesnym zapewnieniu wysokiego poziomu ochrony zdrowia, bezpieczeństwa, praw podstawowych zapisanych w Karcie praw podstawowych Unii Europejskiej (zwanej „Kartą”), w tym demokracji, praworządności i ochrony środowiska, ochrony przed szkodliwymi skutkami systemów AI w Unii, a także wspierania innowacji. Niniejsze rozporządzenie zapewnia swobodny transgraniczny przepływ towarów i usług opartych na AI, uniemożliwiając tym samym państwom członkowskim nakładanie ograniczeń na rozwój, wprowadzanie do obrotu i wykorzystywanie systemów AI, chyba że jest to wyraźnie dozwolone w niniejszym rozporządzeniu.
(2)
Käesolevat määrust tuleks kohaldada kooskõlas põhiõiguste hartas sätestatud liidu väärtustega, hõlbustades füüsiliste isikute, ettevõtjate, demokraatia ja õigusriigi kaitset ning keskkonnakaitset, edendades samal ajal innovatsiooni ja tööhõivet ning viies liidu usaldusväärse tehisintellekti laialdaselt kasutuselevõtmises juhtpositsioonile.
(2)
Niniejsze rozporządzenie należy stosować zgodnie z wartościami Unii zapisanymi w Karcie, ułatwiając ochronę osób fizycznych, przedsiębiorstw, demokracji, praworządności oraz ochronę środowiska, a jednocześnie pobudzając innowacje i zatrudnienie oraz czyniąc Unię liderem w upowszechnianiu godnej zaufania AI.
(3)
Tehisintellektisüsteeme saab kergesti juurutada paljudes erinevates majandussektorites ja ühiskonna osades, sealhulgas piiriüleselt, ning need saavad kergesti levida kogu liidus. Teatavad liikmesriigid on juba uurinud võimalust võtta vastu riigisisesed õigusnormid, et tagada tehisintellekti usaldusväärsus ja ohutus ning selle arendamine ja kasutamine kooskõlas põhiõigustealaste kohustustega. Erinevad riigisisesed õigusnormid võivad tuua kaasa siseturu killustumise ja võivad vähendada tehisintellektisüsteemide arendamise, impordi või kasutamisega tegelevate operaatorite õiguskindlust. Seepärast tuleks usaldusväärse tehisintellekti saavutamiseks tagada kõikjal liidus kaitse järjekindlus ja kõrge tase ning ühtlasi hoida ära erinevusi, mis kahjustavad tehisintellektisüsteemide ja nendega seotud toodete ja teenuste vaba ringlust, innovatsiooni, juurutamist ja levikut siseturul; selleks tuleks operaatoritele kehtestada ühetaolised kohustused ja tagada kaalukate üldiste huvide ja isikute õiguste ühtne kaitse siseturul, lähtudes Euroopa Liidu toimimise lepingu (ELi toimimise leping) artiklist 114. Kuivõrd käesolev määrus sisaldab konkreetseid õigusnorme, mis puudutavad üksikisikute kaitset isikuandmete töötlemisel ja millega piiratakse tehisintellektisüsteemide kasutamist õiguskaitse eesmärgil toimuva biomeetrilise kaugtuvastamise jaoks, tehisintellektisüsteemide kasutamist õiguskaitse eesmärgil toimuva füüsiliste isikutega seotud riskihindamise jaoks ja tehisintellektisüsteemide kasutamist õiguskaitse eesmärgil toimuva biomeetrilise liigitamise jaoks, on asjakohane võtta nende konkreetsete normide puhul käesoleva määruse aluseks ELi toimimise lepingu artikkel 16. Neid konkreetseid õigusnorme ja ELi toimimise lepingu artiklile 16 tuginemist silmas pidades on asjakohane konsulteerida Euroopa Andmekaitsenõukoguga.
(3)
Systemy AI mogą być łatwo wdrażane w wielu różnych sektorach gospodarki i obszarach życia społecznego, w tym w wymiarze transgranicznym, i mogą w łatwy sposób być przedmiotem obrotu w całej Unii. Niektóre państwa członkowskie zastanawiają się już nad przyjęciem przepisów krajowych w celu zapewnienia, aby AI była godna zaufania i bezpieczna oraz rozwijana i wykorzystywana w sposób zgodny z obowiązkami wynikającymi z praw podstawowych. Zróżnicowane przepisy krajowe mogą prowadzić do rozdrobnienia rynku wewnętrznego i mogą zmniejszyć pewność prawa dla operatorów, którzy rozwijają, importują lub wykorzystują systemy AI. Aby zatem AI stałą się godna zaufania, należy zapewnić spójny i wysoki poziom ochrony w całej Unii poprzez ustanowienie jednolitych obowiązków dla operatorów i zagwarantowanie jednolitej ochrony nadrzędnego interesu publicznego i praw osób na całym rynku wewnętrznym na podstawie art. 114 Traktatu o funkcjonowaniu Unii Europejskiej (TFUE), zapobiegając jednocześnie rozbieżnościom, które utrudniają swobodny obrót systemami AI oraz powiązanymi produktami i usługami na rynku wewnętrznym, a także utrudniają innowacje w ich zakresie oraz ich wdrażanie i rozpowszechnianie. W zakresie, w jakim niniejsze rozporządzenie zawiera przepisy szczególne dotyczące ochrony osób fizycznych w związku z przetwarzaniem danych osobowych w odniesieniu do ograniczenia wykorzystywania systemów AI do zdalnej identyfikacji biometrycznej do celów ścigania przestępstw, ograniczenia wykorzystywania systemów AI do oceny ryzyka w odniesieniu do osób fizycznych do celów ścigania przestępstw i ograniczenia wykorzystywania systemów AI kategoryzacji biometrycznej do celów ścigania przestępstw, podstawą niniejszego rozporządzenia w zakresie takich przepisów szczególnych powinien być art. 16 TFUE. W świetle tych przepisów szczególnych i skorzystania z art. 16 TFUE należy skonsultować się z Europejską Radą Ochrony Danych.
(4)
Tehisintellekt on kiiresti arenev tehnoloogiaharu, mis aitab saavutada mitmesuguseid majanduslikke, keskkondlikke ja ühiskondlikke hüvesid kõigis tööstusharudes ja ühiskondlikes tegevustes. Tänu täpsemale prognoosimisele, tegevuse ja ressursijaotuse optimeerimisele ning üksikisikutele ja organisatsioonidele kättesaadavate digilahenduste personaliseerimisele võib tehisintellekti kasutamine anda ettevõtjatele olulise konkurentsieelise ning toetada ühiskonna ja keskkonna jaoks soodsate tulemuste saavutamist näiteks sellistes valdkondades nagu tervishoid, põllumajandus, toiduohutus, haridus ja koolitus, meedia, sport, kultuur, taristuhaldus, energeetika, transport ja logistika, avalikud teenused, turvalisus, õigus, ressursi- ja energiatõhusus, keskkonnaseire, elurikkuse ja ökosüsteemide säilitamine ja taastamine ning kliimamuutuste leevendamine ja nendega kohanemine.
(4)
AI to szybko rozwijająca się grupa technologii, która przyczynia się do wielu różnych korzyści ekonomicznych, środowiskowych i społecznych we wszystkich gałęziach przemysłu i obszarach działalności społecznej. Ponieważ wykorzystywanie AI umożliwia lepsze prognozowanie, optymalizację operacji i przydzielania zasobów oraz personalizację rozwiązań cyfrowych dostępnych dla osób fizycznych i organizacji, może ono zapewnić przedsiębiorstwom kluczową przewagę konkurencyjną i wzmacniać korzyści społeczne i środowiskowe, na przykład w zakresie opieki zdrowotnej, rolnictwa, bezpieczeństwa żywności, kształcenia i szkolenia, mediów, sportu, kultury, zarządzania infrastrukturą, energetyki, transportu i logistyki, usług publicznych, bezpieczeństwa, wymiaru sprawiedliwości, zasobooszczędności i efektywności energetycznej, monitorowania środowiska, ochrony i odtwarzania różnorodności biologicznej i ekosystemów oraz łagodzenia zmiany klimatu i przystosowywania się do niej.
(5)
Samas võib tehisintellekt olenevalt konkreetse rakenduse asjaoludest, kasutusest ja tehnoloogilise arengu tasemest tekitada ka riske ning kahjustada avalikke huve ja liidu õigusega kaitstud põhiõigusi. Selline kahju võib olla varaline või mittevaraline, sealhulgas füüsiline, psühholoogiline, ühiskondlik või majanduslik.
(5)
Jednocześnie AI może stwarzać zagrożenia i wyrządzać szkody dla interesu publicznego i praw podstawowych chronionych przepisami prawa Unii, w zależności od okoliczności jej konkretnego zastosowania, wykorzystania oraz od poziomu rozwoju technologicznego. Szkody te mogą być materialne lub niematerialne, w tym fizyczne, psychiczne, społeczne lub ekonomiczne.
(6)
Võttes arvesse suurt mõju, mida tehisintellekt võib ühiskonnale avaldada, ja vajadust suurendada usaldust, on äärmiselt oluline, et tehisintellekti arendamisel ja selle õigusraamistiku väljatöötamisel järgitaks Euroopa Liidu lepingu (ELi lepingu) artiklis 2 sätestatud liidu väärtusi ning aluslepingutes ja ELi lepingu artikli 6 kohaselt põhiõiguste hartas sätestatud põhiõigusi ja -vabadusi. Tuleks seada eeltingimuseks, et tehisintellekt peab olema inimkeskne tehnoloogia. See peaks olema vahend, mis teenib inimesi ja mille lõppeesmärk on suurendada inimeste heaolu.
(6)
Biorąc pod uwagę istotny wpływ, jaki AI może mieć na społeczeństwo, oraz potrzebę budowania zaufania, AI i jej ramy regulacyjne należy rozwijać zgodnie z wartościami Unii zapisanymi w art. 2 Traktatu o Unii Europejskiej (TUE), podstawowymi prawami i wolnościami zapisanymi w traktatach oraz, zgodnie z art. 6 TUE – w Karcie. Warunkiem wstępnym jest to, by AI była technologią zorientowaną na człowieka. Powinna ona służyć jako narzędzie dla ludzi, którego ostatecznym celem jest zwiększenie dobrostanu człowieka.
(7)
Selleks et tagada järjekindel ja kõrgetasemeline avalike huvide kaitse tervise, turvalisuse ja põhiõiguste vallas, tuleks suure riskiga tehisintellektisüsteemide jaoks kehtestada ühised õigusnormid. Need õigusnormid peaksid olema kooskõlas põhiõiguste hartaga, mittediskrimineerivad ja järgima liidu rahvusvahelisi kaubanduskohustusi. Samuti tuleks nende õigusnormide puhul arvesse võtta Euroopa deklaratsiooni digiõiguste ja -põhimõtete kohta digikümnendiks ja kõrgetasemelise tehisintellekti eksperdirühma suuniseid usaldusväärse tehisintellekti arendamiseks.
(7)
W celu zapewnienia spójnego i wysokiego poziomu ochrony interesów publicznych w dziedzinie zdrowia, bezpieczeństwa i praw podstawowych należy ustanowić wspólne przepisy dotyczące systemów AI wysokiego ryzyka. Przepisy te powinny być zgodne z Kartą, niedyskryminacyjne i zgodne z międzynarodowymi zobowiązaniami handlowymi Unii. Przepisy te powinny również uwzględniać Europejską deklarację praw i zasad cyfrowych w cyfrowej dekadzie oraz Wytyczne w zakresie etyki dotyczące godnej zaufania AI grupy ekspertów wysokiego szczebla ds. AI.
(8)
Seepärast on vaja liidu õigusraamistikku, milles nähakse ette tehisintellekti käsitlevad ühtlustatud õigusnormid, et edendada siseturul tehisintellekti arendamist, kasutamist ja levikut, mille puhul oleks ühtlasi tagatud liidu õigusega tunnustatud ja kaitstud avalike huvide, näiteks tervise ja ohutuse ning põhiõiguste, sealhulgas demokraatia ja õigusriigi kõrgetasemeline kaitse ning keskkonnakaitse. Selle eesmärgi saavutamiseks tuleks kehtestada teatavate tehisintellektisüsteemide turule laskmist, kasutusele võtmist ja kasutamist reguleerivad õigusnormid, et seeläbi tagada siseturu sujuv toimimine ja võimaldada neil süsteemidel saada kasu kaupade ja teenuste vaba liikumise põhimõttest. Nimetatud normid peaksid olema põhiõiguste kaitsmisel selged ja töökindlad, toetades uusi innovatiivseid lahendusi ning võimaldades avaliku ja erasektori osalejate Euroopa ökosüsteemil luua tehisintellektisüsteeme kooskõlas liidu väärtustega ja vallandades digipöörde potentsiaali kõigis liidu piirkondades. Nimetatud õigusnormide kehtestamisega, samuti meetmete võtmisega innovatsiooni toetamiseks, keskendudes eriti väikestele ja keskmise suurusega ettevõtjatele (VKEd), sealhulgas idufirmadele, toetab käesolev määrus eesmärki edendada Euroopa inimkeskset lähenemisviisi tehisintellektile ning seda, et liidul oleks turvalise, usaldusväärse ja eetilise tehisintellekti arendamises ülemaailmne juhtroll, nagu sõnastati Euroopa Ülemkogul, (5) ning samas aitab see tagada eetiliste põhimõtete kaitse, mida on eraldi nõudnud Euroopa Parlament (6).
(8)
Unijne ramy prawne określające zharmonizowane przepisy dotyczące AI są zatem niezbędne, by wspierać rozwój, wykorzystywanie i upowszechnianie AI na rynku wewnętrznym, przy jednoczesnym zapewnieniu wysokiego poziomu ochrony interesów publicznych, takich jak zdrowie i bezpieczeństwo oraz ochrona praw podstawowych, w tym demokracji, praworządności i ochrony środowiska, uznanych i chronionych przez prawo Unii. Aby osiągnąć ten cel, należy ustanowić przepisy regulujące wprowadzanie do obrotu, oddawanie do użytku i wykorzystywanie niektórych systemów AI, zapewniając w ten sposób sprawne funkcjonowanie rynku wewnętrznego i obejmując te systemy zasadą swobodnego przepływu towarów i usług. Przepisy te powinny być jasne i solidne, aby chronić prawa podstawowe, sprzyjać nowym innowacyjnym rozwiązaniom, umożliwiać tworzenie europejskiego ekosystemu podmiotów publicznych i prywatnych tworzących systemy AI zgodnie z wartościami Unii oraz pozwalać realizować potencjał transformacji cyfrowej we wszystkich regionach Unii. Ustanawiając te przepisy, a także środki wspierające innowacje, ze szczególnym uwzględnieniem małych i średnich przedsiębiorstw (MŚP), w tym przedsiębiorstw typu start-up, niniejsze rozporządzenie wspiera realizację celu, jakim jest promowanie europejskiego zorientowanego na człowieka podejścia do AI i znalezienie się przez Unię w światowej czołówce, jeśli chodzi o rozwój bezpiecznej, godnej zaufania i etycznej AI, zgodnie z konkluzjami Rady Europejskiej (5), oraz zapewnia ochronę zasad etycznych, zgodnie z wyraźnym wnioskiem Parlamentu Europejskiego (6).
(9)
Suure riskiga tehisintellektisüsteemide turule laskmise, kasutusele võtmise ja kasutamise suhtes kohaldatavad ühtlustatud õigusnormid tuleks kehtestada kooskõlas Euroopa Parlamendi ja nõukogu määrusega (EÜ) nr 765/2008, (7) Euroopa Parlamendi ja nõukogu otsusega nr 768/2008/EÜ (8) ning Euroopa Parlamendi ja nõukogu määrusega (EL) 2019/1020 (9) (edaspidi „uus õigusraamistik“). Käesolevas määruses sätestatud ühtlustatud õigusnorme tuleks kohaldada kõigis sektorites ning kooskõlas uue õigusraamistikuga ei tohiks need piirata kehtivat liidu õigust, eeskätt andmekaitset, tarbijakaitset, põhiõigusi, tööhõivet ja töötajate kaitset ning tooteohutust käsitlevaid õigusakte, mida käesolev määrus täiendab. Sellest tulenevalt jäävad muutumatuks ja täielikult kohaldatavaks kõik õigused ja õiguskaitsevahendid, mis on liidu õiguses ette nähtud tarbijatele ja muudele isikutele, keda tehisintellektisüsteemid võivad negatiivselt mõjutada, sealhulgas seoses võimaliku kahju hüvitamisega vastavalt nõukogu direktiivile 85/374/EMÜ (10). Lisaks ei tohiks käesolev määrus tööhõive ja töötajate kaitse kontekstis mõjutada sotsiaalpoliitikat käsitlevat liidu õigust ega liidu õigusega kooskõlas olevat riigisisest tööõigust, mis käsitleb tööhõivet ja töötingimusi, sealhulgas töötervishoidu ja -ohutust ning tööandjate ja töötajate vahelisi suhteid. Käesolev määrus ei tohiks samuti mõjutada liikmesriikides ja liidu tasandil tunnustatud põhiõiguste, sealhulgas streigiõiguse või -vabaduse teostamist või õigust või vabadust võtta muid liikmesriikide töösuhete erisüsteemidega hõlmatud meetmeid, samuti õigust pidada läbirääkimisi kollektiivlepingute üle, neid sõlmida ja jõustada või kollektiivselt tegutseda kooskõlas riigisisese õigusega. Käesolev määrus ei tohiks mõjutada sätteid, mille eesmärk on parandada platvormitöö tingimusi, mis on sätestatud Euroopa Parlamendi ja nõukogu direktiivis platvormitöö tingimuste parandamise kohta. Lisaks sellele on käesoleva määruse eesmärk tugevdada nimetatud kehtivate õiguste ja õiguskaitsevahendite tõhusust, kehtestades konkreetsed nõuded ja kohustused, sealhulgas seoses tehisintellektisüsteemide läbipaistvuse, tehnilise dokumentatsiooni ja andmete säilitamisega. Samuti ei tohiks käesoleva määruse alusel tehisintellekti väärtusahelas osalevatele eri operaatoritele pandud kohustuste kohaldamine mõjutada liidu õigusega kooskõlas olevate teatavate tehisintellektisüsteemide kasutamist piiravate riigisiseste õigusaktide kohaldamist, kui sellised õigusaktid jäävad käesoleva määruse kohaldamisalast välja või kui nendega taotletakse muid õiguspäraseid avaliku huvi eesmärke kui need, mida taotletakse käesoleva määrusega. Näiteks ei tohiks käesolev määrus mõjutada riigisisest tööõigust ja alaealiste, nimelt alla 18-aastaste isikute kaitset käsitlevaid õigusakte, võttes arvesse ÜRO lapse õiguste komitee üldist märkust nr 25 (2021) laste õiguste kohta seoses digikeskkonnaga, niivõrd, kuivõrd need ei ole tehisintellektisüsteemidele eriomased ja taotlevad muid õiguspäraseid avaliku huvi eesmärke.
(9)
Zharmonizowane przepisy mające zastosowanie do wprowadzania do obrotu, oddawania do użytku i wykorzystywania systemów AI wysokiego ryzyka należy ustanowić zgodnie z rozporządzeniem Parlamentu Europejskiego i Rady (WE) nr 765/2008 (7), decyzją Parlamentu Europejskiego i Rady nr 768/2008/WE (8) oraz rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2019/1020 (9) (zwanymi dalej „nowymi ramami prawnymi”). Zharmonizowane przepisy ustanowione w niniejszym rozporządzeniu powinny mieć zastosowanie we wszystkich sektorach i – zgodnie z nowymi ramami prawnymi – powinny pozostawać bez uszczerbku dla obowiązującego prawa Unii, w szczególności w zakresie ochrony danych, ochrony konsumentów, praw podstawowych, zatrudnienia i ochrony pracowników oraz bezpieczeństwa produktów, wobec którego to prawa niniejsze rozporządzenie ma charakter uzupełniający. W związku z tym wszystkie prawa i środki ochrony prawnej przysługujące na mocy prawa Unii konsumentom i innym osobom, na które systemy AI mogą mieć negatywny wpływ, w tym w odniesieniu do odszkodowania za ewentualne szkody zgodnie z dyrektywą Rady 85/374/EWG (10), pozostają nienaruszone i mają pełne zastosowanie. Ponadto w kontekście zatrudnienia i ochrony pracowników niniejsze rozporządzenie nie powinno zatem mieć wpływu na prawo Unii w dziedzinie polityki społecznej oraz na krajowe prawo pracy zgodne z prawem Unii dotyczące warunków zatrudnienia i pracy, w tym bezpieczeństwa i higieny pracy, oraz stosunków między pracodawcami a pracownikami. Niniejsze rozporządzenie nie powinno mieć też wpływu na korzystanie z praw podstawowych uznanych w państwach członkowskich i na poziomie Unii, w tym z prawa do strajku czy swobody prowadzenia strajku lub innych działań objętych szczególnymi systemami stosunków pracy w państwach członkowskich, ani na korzystanie z prawa do negocjowania, zawierania i egzekwowania układów zbiorowych lub podejmowania działań zbiorowych zgodnie z prawem krajowym. Niniejsze rozporządzenie nie powinno mieć wpływu na przepisy mające na celu poprawę warunków pracy świadczonej za pośrednictwem platform internetowych ustanowione w dyrektywie Parlamentu Europejskiego i Rady w sprawie poprawy warunków pracy za pośrednictwem platform internetowych. Ponadto niniejsze rozporządzenie ma na celu zwiększenie skuteczności takich istniejących praw i środków ochrony prawnej poprzez ustanowienie szczególnych wymogów i obowiązków, w tym w zakresie przejrzystości, dokumentacji technicznej i rejestrowania zdarzeń w ramach systemów AI. Co więcej obowiązki nałożone na mocy niniejszego rozporządzenia na różnych operatorów uczestniczących w łańcuchu wartości AI powinny mieć zastosowanie bez uszczerbku dla prawa krajowego zgodnego z prawem Unii, skutkującego ograniczeniem wykorzystania określonych systemów AI, gdy prawo to nie wchodzi w zakres stosowania niniejszego rozporządzenia lub służy uzasadnionym celom interesu publicznego innym niż cele niniejszego rozporządzenia. Na przykład niniejsze rozporządzenie nie powinno mieć wpływu na krajowe prawo pracy i przepisy dotyczące ochrony małoletnich, tj. osób poniżej 18. roku życia, uwzględniające komentarz ogólny nr 25 z 2021 r. w sprawie praw dziecka w środowisku cyfrowym zamieszczony w Konwencji ONZ o prawach dziecka, w zakresie w jakim prawo to i te przepisy nie dotyczą konkretnie systemów AI i służą innym uzasadnionym celom interesu publicznego.
(10)
Põhiõigus isikuandmete kaitsele on tagatud eelkõige Euroopa Parlamendi ja nõukogu määrustega (EL) 2016/679 (11) ja (EL) 2018/1725 (12) ning Euroopa Parlamendi ja nõukogu direktiiviga (EL) 2016/680 (13). Euroopa Parlamendi ja nõukogu direktiiviga 2002/58/EÜ (14) kaitstakse lisaks eraelu puutumatust ja side konfidentsiaalsust, sealhulgas isikuandmete ja isikustamata andmete lõppseadmesse talletamist ja andmetele lõppseadmest juurdepääsu käsitlevate tingimuste sätestamise kaudu. Need liidu õigusaktid on aluseks kestlikule ja vastutustundlikule andmetöötlusele, sealhulgas juhtudel, kui andmestikud sisaldavad nii isikuandmeid kui ka isikustamata andmeid. Käesoleva määruse eesmärk ei ole mõjutada isikuandmete töötlemist reguleeriva kehtiva liidu õiguse kohaldamist, sealhulgas selliste sõltumatute järelevalveasutuste ülesandeid ja volitusi, kes on pädevad jälgima kõnealuste õigusaktide järgimist. Samuti ei mõjuta käesolev määrus tehisintellektisüsteemide pakkujate ja juurutajate jaoks liidu või liikmesriikide õigusest tulenevaid kohustusi, mis on seotud nende rolliga vastutava töötlejana või volitatud töötlejana ning mis käsitlevad isikuandmete kaitset, niivõrd, kuivõrd tehisintellektisüsteemide projekteerimine, arendamine või kasutamine hõlmab isikuandmete töötlemist. Samuti on asjakohane selgitada, et andmesubjektide jaoks säilivad kõik sellisest liidu õigusest tulenevad õigused ja tagatised, sealhulgas üksnes automatiseeritud üksikotsuste tegemisega (k.a profiilianalüüsiga) seotud õigused. Käesoleva määruse alusel kehtestatud tehisintellektisüsteemide turule laskmist, kasutusele võtmist ja kasutamist käsitlevad ühtlustatud õigusnormid peaksid hõlbustama andmesubjektide õiguste ja teiste liidu õiguse kohaselt isikuandmete kaitse ja muude põhiõigustega seoses tagatud õiguskaitsevahendite tulemuslikku rakendamist ning võimaldama nende kasutamist.
(10)
Podstawowe prawo do ochrony danych osobowych jest gwarantowane w szczególności przez rozporządzenia Parlamentu Europejskiego i Rady (UE) 2016/679 (11) i (UE) 2018/1725 (12) oraz dyrektywę Parlamentu Europejskiego i Rady (UE) 2016/680 (13). Dyrektywa Parlamentu Europejskiego i Rady 2002/58/WE (14) dodatkowo chroni życie prywatne i poufność komunikacji, w tym określając warunki dotyczące przechowywania danych osobowych i nieosobowych w urządzeniach końcowych oraz warunki uzyskiwania dostępu do tych danych z urządzeń końcowych. Te unijne akty prawne stanowią podstawę zrównoważonego i odpowiedzialnego przetwarzania danych, w tym w przypadku gdy zbiory danych zawierają połączenie danych osobowych i nieosobowych. Celem niniejszego rozporządzenia nie jest wpływanie na stosowanie obowiązującego prawa Unii regulującego przetwarzanie danych osobowych, w tym na zadania i uprawnienia niezależnych organów nadzoru właściwych do monitorowania zgodności z tymi instrumentami. W zakresie, w jakim projektowanie, rozwój lub wykorzystywanie systemów AI wiąże się z przetwarzaniem danych osobowych, niniejsze rozporządzenie nie wpływa też na wynikające z prawa Unii lub prawa krajowego obowiązki w dziedzinie ochrony danych osobowych spoczywające na dostawcach i podmiotach stosujących systemy AI, którzy pełnią funkcję administratorów danych lub podmiotów przetwarzających. Należy również wyjaśnić, że osoby, których dane dotyczą, zachowują wszystkie prawa i gwarancje przyznane im na mocy takiego prawa Unii, w tym prawa związane z całkowicie zautomatyzowanym podejmowaniem decyzji w indywidualnych sprawach, w tym z profilowaniem. Ustanowione w niniejszym rozporządzeniu zharmonizowane przepisy dotyczące wprowadzania do obrotu, oddawania do użytku i wykorzystywania systemów AI powinny ułatwiać skuteczne wdrażanie i umożliwiać korzystanie przez osoby, których dane dotyczą, z praw i innych środków ochrony prawnej zagwarantowanych na podstawie prawa Unii dotyczącego ochrony danych osobowych i innych praw podstawowych.
(11)
Käesolev määrus ei tohiks mõjutada Euroopa Parlamendi ja nõukogu määruse (EL) 2022/2065 (15) vahendajatest teenuseosutajate vastutust käsitlevate sätete kohaldamist.
(11)
Niniejsze rozporządzenie powinno pozostawać bez uszczerbku dla przepisów dotyczących odpowiedzialności dostawców usług pośrednich, określonych w rozporządzeniu Parlamentu Europejskiego i Rady (UE) 2022/2065 (15).
(12)
Tehisintellektisüsteemi mõiste tuleks käesolevas määruses selgelt määratleda ja see peaks olema tihedalt kooskõlas tehisintellekti valdkonnas tegutsevate rahvusvaheliste organisatsioonide tööga, et tagada õiguskindlus, hõlbustada rahvusvahelist lähenemist ja laialdast aktsepteerimist, võimaldades samal ajal paindlikkust, et võtta arvesse tehnoloogia kiiret arengut selles valdkonnas. Lisaks peaks see mõiste põhinema tehisintellektisüsteemide põhiomadustel, mis eristavad neid lihtsamatest traditsioonilistest tarkvarasüsteemidest või programmeerimisviisidest ega peaks hõlmama süsteeme, mis kasutavad toimingute automaatseks sooritamiseks üksnes füüsiliste isikute määratletud reegleid. Tehisintellektisüsteemide põhiomadus on nende võime teha järeldusi. See järelduste tegemise võime viitab protsessile, mis toodab selliseid väljundeid nagu prognoosid, sisu, soovitused või otsused, mis võivad mõjutada füüsilist ja virtuaalset keskkonda, ning tehisintellektisüsteemide võimele tuletada sisenditest või andmetest mudeleid või algoritme või mõlemaid. Meetodid, mis aitavad tehisintellektisüsteemi loomisel saavutada selle järelduste tegemise võime, hõlmavad masinõppemeetodeid, mis õpivad andmete põhjal, kuidas saavutada teatavaid eesmärke, ning loogika- ja teadmistepõhiseid lähenemisviise, mis teevad järeldusi kodeeritud teadmiste või lahendatava ülesande sümboolse esituse põhjal. Tehisintellektisüsteemi võime teha järeldusi ulatub kaugemale vaid andmete töötlemisest, võimaldades õppimist, arutlust või modelleerimist. Mõiste „masinpõhine“ viitab asjaolule, et tehisintellektisüsteemid kasutavad oma tööks masinaid. Viide otsestele või kaudsetele eesmärkidele rõhutab, et tehisintellektisüsteemid võivad toimida vastavalt selgetele määratletud eesmärkidele või kaudsetele eesmärkidele. Tehisintellektisüsteemi eesmärgid võivad teatud kontekstis erineda tehisintellektisüsteemi kasutusotstarbest. Käesoleva määruse kohaldamisel tuleks keskkondade all mõista konteksti, milles tehisintellektisüsteemid toimivad, samas kui tehisintellektisüsteemi loodud väljundid kajastavad tehisintellektisüsteemide erinevaid funktsioone ning hõlmavad prognoose, sisu, soovitusi ja otsuseid. Tehisintellektisüsteemid on projekteeritud töötama erinevatel autonoomsuse tasemetel, mis tähendab, et neil on teatav inimesest sõltumatu tegevusvabadus ja suutlikkus toimida ilma inimsekkumiseta. Kohanemisvõime, mida tehisintellektisüsteem võib pärast juurutamist demonstreerida, viitab iseõppimisvõimele, mis võimaldab süsteemil kasutamise ajal muutuda. Tehisintellektisüsteeme võib kasutada autonoomselt või mingi toote komponentidena, olenemata sellest, kas süsteem on füüsiliselt tootesse integreeritud (sisseehitatud) või teenib toote funktsionaalsust ilma, et oleks sellesse integreeritud (sisseehitamata).
(12)
Pojęcie „systemu AI” w niniejszym rozporządzeniu powinno być jasno zdefiniowane i ściśle powiązane z pracami organizacji międzynarodowych zajmujących się AI, aby zapewnić pewność prawa, ułatwiać międzynarodową konwergencję i szeroką akceptację, przy jednoczesnym zapewnieniu swobody umożliwiającej dostosowanie się do szybkiego rozwoju technologicznego w tej dziedzinie. Ponadto pojęcie to powinno opierać się na kluczowych cechach systemów AI, które odróżniają je od prostszych tradycyjnych systemów oprogramowania lub założeń programistycznych, i nie powinno obejmować systemów opartych na zasadach określonych wyłącznie przez osoby fizyczne w celu automatycznego wykonywania operacji. Jedną z kluczowych cech systemów AI jest ich zdolność do wnioskowania. Ta zdolność do wnioskowania odnosi się do procesu uzyskiwania wyników, takich jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne i wirtualne, oraz do zdolności systemów AI do tworzenia modeli lub algorytmów na podstawie informacji wejściowych lub danych. Techniki, które umożliwiają wnioskowanie podczas tworzenia systemu AI, obejmują mechanizmy uczenia maszynowego, które na podstawie danych uczą się, jak osiągnąć określone cele, oraz podejścia oparte na logice i wiedzy, które polegają na wnioskowaniu na podstawie zakodowanej wiedzy lub symbolicznego przedstawienia zadania, które należy rozwiązać. Zdolność systemu AI do wnioskowania wykracza poza podstawowe przetwarzanie danych w wyniku umożliwiania uczenia się, rozumowania lub modelowania. Termin „maszynowy” odnosi się do faktu, że systemy AI działają z wykorzystaniem maszyn. Odniesienie do wyraźnych lub dorozumianych celów podkreśla, że systemy AI mogą działać według jasno określonych lub dorozumianych celów. Cele systemu AI mogą różnić się od przeznaczenia systemu AI w określonym kontekście. Na potrzeby niniejszego rozporządzenia środowiska należy rozumieć jako konteksty, w których działają systemy AI, natomiast wyniki generowane przez system AI odzwierciedlają różne funkcje wykonywane przez systemy AI i obejmują predykcje, treści, zalecenia lub decyzje. Systemy AI są zaprojektowane tak, aby działały z różnym poziomem autonomii, co oznacza, że są w pewnym stopniu niezależne od zaangażowania ze strony człowieka i zdolne do działania bez interwencji człowieka. Zdolność adaptacji, jaką system AI może wykazać po jego wdrożeniu, odnosi się do zdolności do samouczenia się, która umożliwia zmianę systemu w czasie jego wykorzystywania. Systemy AI mogą być wykorzystywane jako samodzielne rozwiązania lub jako element produktu, niezależnie od tego, czy system jest fizycznie zintegrowany z produktem (wbudowany), czy też służy realizacji funkcji produktu, choć nie jest z nim zintegrowany (niewbudowany).
(13)
Käesolevas määruses osutatud juurutaja mõistet tuleks tõlgendada kui tehisintellektisüsteemi kasutavat mis tahes füüsilist või juriidilist isikut, sealhulgas avaliku sektori asutust, ametit või muud organit, kelle volitusel süsteemi kasutatakse, välja arvatud juhul, kui tehisintellektisüsteemi kasutatakse isikliku, mitte kutselise tegevuse jaoks. Olenevalt tehisintellektisüsteemi tüübist võib süsteemi kasutamine mõjutada lisaks juurutajale ka muid isikuid.
(13)
Pojęcie „podmiotu stosującego”, o którym mowa w niniejszym rozporządzeniu, należy interpretować jako osobę fizyczną lub prawną, w tym organ publiczny, agencję lub inny podmiot, która wykorzystuje system AI, nad którym sprawuje kontrolę, oprócz przypadków gdy wykorzystywanie systemu AI odbywa się w ramach osobistej działalności pozazawodowej. W zależności od rodzaju systemu AI korzystanie z takiego systemu może mieć wpływ na osoby inne niż podmiot stosujący.
(14)
Käesolevas määruses kasutatavat biomeetriliste andmete mõistet tuleks tõlgendada lähtudes määruse (EL) 2016/679 artikli 4 punktis 14, määruse (EL) 2018/1725 artikli 3 punktis 18 ja direktiivi (EL) 2016/680 artikli 3 punktis 13 määratletud biomeetriliste andmete mõistest. Biomeetrilised andmed võivad võimaldada füüsiliste isikute autentimist, tuvastamist või liigitamist ning füüsiliste isikute emotsioonide tuvastamist.
(14)
Pojęcie „danych biometrycznych” stosowane w niniejszym rozporządzeniu należy interpretować w świetle pojęcia danych biometrycznych zdefiniowanego w art. 4 pkt 14 rozporządzenia (UE) 2016/679, art. 3 pkt 18 rozporządzenia (UE) 2018/1725 i art. 3 pkt 13 dyrektywy (UE) 2016/680. Dane biometryczne mogą umożliwiać uwierzytelnianie, identyfikację lub kategoryzację osób fizycznych oraz rozpoznawanie emocji osób fizycznych.
(15)
Käesolevas määruses osutatud biomeetrilise tuvastamise mõiste tuleks määratleda kui inimeste füüsiliste, füsioloogiliste ja käitumuslike tunnuste, nagu nägu, silmade liikumine, kehakuju, hääl, prosoodia, kõnnak, kehahoiak, südame löögisagedus, vererõhk, lõhn, klahvivajutuste erijooned, automaatseks tuvastamiseks isiku isikusamasuse kindlakstegemise eesmärgil, võrreldes selle isiku biomeetrilisi andmeid isikute võrdlusandmebaasi salvestatud biomeetriliste andmetega, sõltumata sellest, kas isik on andnud selleks nõusoleku või mitte. See ei hõlma tehisintellektisüsteeme, mis on ette nähtud biomeetriliseks kontrolliks, kaasa arvatud autentimiseks, mille ainus eesmärk on kinnitada, et konkreetne füüsiline isik on see, kes ta väidab end olevat, ning füüsilise isiku isikusamasuse kinnitamiseks üksnes selleks, et saada juurdepääs teenusele, avada seade või saada juurdepääsuluba ruumidesse sisenemiseks.
(15)
Pojęcie „identyfikacji biometrycznej”, o którym mowa w niniejszym rozporządzeniu, należy zdefiniować jako zautomatyzowane rozpoznawanie fizycznych, fizjologicznych i behawioralnych cech człowieka, takich jak twarz, ruch gałek ocznych, kształt ciała, głos, właściwości mowy, chód, postawa, tętno, ciśnienie krwi, zapach, sposób pisania na klawiaturze, w celu ustalenia tożsamości osoby fizycznej przez porównanie danych biometrycznych tej osoby z przechowywanymi w referencyjnej bazie danych danymi biometrycznymi osób fizycznych, niezależnie od tego, czy osoba ta wyraziła na to zgodę. Do tej kategorii nie należą systemy AI przeznaczone do weryfikacji biometrycznej, która obejmuje uwierzytelnianie, prowadzonej jedynie w celu potwierdzenia, że dana osoba fizyczna jest osobą, za którą się podaje, oraz potwierdzenia tożsamości osoby fizycznej wyłącznie w celu uzyskania dostępu do usługi, uruchomienia urządzenia lub uzyskania bezpiecznego dostępu do pomieszczeń.
(16)
Käesolevas määruses osutatud biomeetrilise liigitamise mõiste tuleks määratleda kui füüsiliste isikute jagamine teatud kategooriatesse nende biomeetriliste andmete alusel. Kõnealused konkreetsed kategooriad võivad olla seotud selliste aspektidega nagu sugu, vanus, juuksevärv, silmade värv, tätoveeringud, käitumine või isikuomadused, keel, usk, rahvusvähemusse kuulumine, seksuaalne või poliitiline sättumus. See ei hõlma biomeetrilise liigitamise süsteeme, mis on puhtalt lisafunktsioonid, mis on lahutamatult seotud teise äriteenusega, mis tähendab, et seda funktsiooni ei saa objektiivsetel tehnilistel põhjustel kasutada ilma põhiteenuseta ning selle funktsiooni või funktsioonistiku integreerimine ei ole vahend käesoleva määruse normide kohaldamisest kõrvalehoidmiseks. Sellised lisafunktsioonid võivad olla näiteks internetipõhistes kauplemiskohtades kasutatavad filtrid näojoonte või kehaehituse liigitamiseks, kuna neid saab kasutada ainult seoses põhiteenusega, mis seisneb toote müümises sellisel viisil, mis võimaldab tarbijal toote virtuaalset proovimist enda peal ja aidates selle abil tarbijal teha ostuotsust. Lisafunktsiooniks võib pidada ka veebipõhistes sotsiaalvõrgustike teenustes kasutatavaid filtreid, millega liigitatakse näojooned või kehaehitus, et võimaldada kasutajatel lisada või muuta pilte või videoid, kuna sellist filtrit ei saa kasutada ilma sotsiaalvõrgustiku teenuste põhiteenuseta, mis seisneb veebisisu jagamises.
(16)
Pojęcie „kategoryzacji biometrycznej”, o którym mowa w niniejszym rozporządzeniu, należy zdefiniować jako przypisywanie osób fizycznych do określonych kategorii na podstawie danych biometrycznych tych osób. Takie szczególne kategorie mogą odnosić się do takich aspektów jak płeć, wiek, kolor włosów, kolor oczu, tatuaże, cechy behawioralne bądź osobowości, język, religia, przynależność do mniejszości narodowej, orientacja seksualna lub poglądy polityczne. Nie obejmuje to systemów kategoryzacji biometrycznej, które pełnią jedynie funkcję pomocniczą nieodłącznie związaną z inną usługą komercyjną, co oznacza, że z obiektywnych względów technicznych funkcja ta nie może być wykorzystywana bez usługi głównej, a włączenie takiej funkcji lub funkcjonalności nie jest sposobem na obejście stosowania przepisów niniejszego rozporządzenia. Przykładem pełnienia takiej funkcji pomocniczej mogą być filtry klasyfikujące cechy twarzy lub ciała wykorzystywane na internetowych platformach handlowych, ponieważ można je stosować wyłącznie w powiązaniu z usługą główną, która polega na sprzedaży produktu przy jednoczesnym umożliwieniu konsumentowi uzyskania wyobrażenia, jak produkt będzie się na nim prezentował, aby pomóc mu w podjęciu decyzji o zakupie. Filtry stosowane w internetowych serwisach społecznościowych, które kategoryzują cechy twarzy lub ciała, aby umożliwić użytkownikom dodawanie lub modyfikowanie zdjęć lub filmów wideo, można również uznać za funkcję pomocniczą, ponieważ filtry takie nie mogą być stosowane bez usługi głównej polegającej na udostępnianiu treści online w ramach serwisu społecznościowego.
(17)
Käesolevas määruses osutatud biomeetrilise kaugtuvastamise süsteemi mõiste tuleks määratleda funktsioonidest lähtuvalt kui tehisintellektisüsteem, mis on mõeldud füüsiliste isikute tuvastamiseks ilma nende aktiivse osaluseta, tavaliselt eemalt, võrreldes isiku biomeetrilisi andmeid võrdlusandmebaasis sisalduvate biomeetriliste andmetega, olenemata sellest, milliseid konkreetseid tehnoloogiaid ja protseduure või mis liiki biomeetrilisi andmeid selleks kasutatakse. Selliseid biomeetrilise kaugtuvastamise süsteeme kasutatakse tavaliselt mitme isiku või nende käitumise samaaegseks tajumiseks, et oluliselt hõlbustada füüsiliste isikute tuvastamist ilma nende aktiivse osaluseta. See ei hõlma tehisintellektisüsteeme, mis on ette nähtud biomeetriliseks kontrolliks, kaasa arvatud autentimiseks, mille ainus eesmärk on kinnitada, et konkreetne füüsiline isik on see, kes ta väidab end olevat, ning füüsilise isiku isikusamasuse kinnitamiseks üksnes selleks, et saada juurdepääs teenusele, avada seade või saada juurdepääsuluba ruumidesse sisenemiseks. Kõnealune väljajätmine on põhjendatud asjaoluga, et sellistel süsteemidel on tõenäoliselt väike mõju füüsiliste isikute põhiõigustele võrreldes selliste biomeetrilise kaugtuvastamise süsteemidega, mida võidakse kasutada suure hulga isikute biomeetriliste andmete töötlemiseks ilma nende aktiivse osaluseta. Reaalajaliste süsteemide puhul toimub nii biomeetriliste andmete hõive, võrdlemine kui ka isikutuvastus koheselt, peaaegu koheselt või igal juhul ilma märkimisväärse viivituseta. Siinjuures ei tohiks jääda võimalust hoida väikeste viivituste kasutamisega kõrvale käesoleva määruse sätetest, mis käsitlevad asjaomaste tehisintellektisüsteemide kasutamist reaalajas. Reaalajalistes süsteemides kasutatakse kaamera või muu sarnase funktsiooniga seadmega tehtud otse edastatavat või peaaegu otse edastatavat materjali, näiteks videosalvestisi. Tagantjärele kasutatavate süsteemide puhul on aga biomeetriliste andmete hõive juba toimunud ning võrdlemine ja isikutuvastus toimub alles pärast olulist viivitust. Sealjuures kasutatakse sellist materjali nagu videovalvesüsteemi või isikliku seadmega tehtud pildid või videosalvestised, mis on tehtud enne, kui süsteemi konkreetse füüsilise isiku puhul kasutatakse.
(17)
Pojęcie „systemu zdalnej identyfikacji biometrycznej”, o którym mowa w niniejszym rozporządzeniu, należy zdefiniować funkcjonalnie jako system AI służący do identyfikacji osób fizycznych bez aktywnego udziału tych osób, co do zasady na odległość, poprzez porównanie danych biometrycznych danej osoby z danymi biometrycznymi zawartymi w referencyjnej bazie danych, niezależnie od konkretnej stosowanej technologii oraz konkretnych wykorzystywanych procesów lub rodzajów danych biometrycznych. Takie systemy zdalnej identyfikacji biometrycznej są zwykle wykorzystywane do jednoczesnego obserwowania wielu osób lub ich zachowania w celu znacznego ułatwienia identyfikacji osób fizycznych bez ich aktywnego udziału. Do tej kategorii nie należą systemy AI przeznaczone do weryfikacji biometrycznej, która obejmuje uwierzytelnianie, prowadzonej jedynie w celu potwierdzenia, że dana osoba fizyczna jest osobą, za którą się podaje, oraz potwierdzenia tożsamości osoby fizycznej wyłącznie w celu uzyskania dostępu do usługi, uruchomienia urządzenia lub uzyskania bezpiecznego dostępu do pomieszczeń. Wyłączenie to jest uzasadnione faktem, że takie systemy w niewielkim stopniu mogą wpływać na prawa podstawowe osób fizycznych w porównaniu z systemami zdalnej identyfikacji biometrycznej, które mogą być wykorzystywane do przetwarzania danych biometrycznych dużej liczby osób bez ich aktywnego udziału. W przypadku systemów działających „w czasie rzeczywistym” zbieranie danych biometrycznych, porównanie i identyfikacja następują natychmiast, niemal natychmiast lub w każdym razie bez znacznego opóźnienia. W związku z tym nie powinno być możliwości obchodzenia przepisów niniejszego rozporządzenia dotyczących stosowania systemów AI „w czasie rzeczywistym” poprzez wprowadzanie niewielkich opóźnień. Systemy identyfikacji „w czasie rzeczywistym” obejmują wykorzystanie materiału rejestrowanego „na żywo” lub „niemal na żywo”, takiego jak materiał wideo generowany przez kamerę lub inne urządzenie o podobnej funkcjonalności. Natomiast w przypadku systemów identyfikacji post factum dane biometryczne zostały już zebrane, a porównanie i identyfikacja następują ze znacznym opóźnieniem. Dotyczy to materiałów, takich jak zdjęcia lub materiały wideo generowane przez kamery telewizji przemysłowej lub urządzenia prywatne, które to materiały zostały wygenerowane, zanim użyto systemu identyfikacji w stosunku do danej osoby fizycznej.
(18)
Käesolevas määruses osutatud emotsioonituvastussüsteemi mõiste tuleks määratleda kui tehisintellektisüsteem, mille eesmärk on tuvastada või tuletada füüsiliste isikute emotsioone või kavatsusi nende biomeetriliste andmete põhjal. Selle mõistega viidatakse sellistele emotsioonidele või kavatsustele nagu õnnetunne, kurbus, viha, üllatus, vastikus, piinlikkus, elevus, häbi, põlgus, rahulolu ja lõbustatus. See ei hõlma füüsilisi seisundeid, nagu valu või väsimus, sealhulgas näiteks süsteeme, mida kasutatakse kutseliste pilootide või sõidukijuhtide väsimuse avastamiseks, et õnnetusi ära hoida. See ei hõlma ka pelgalt kergesti arusaadavate ilmete, žestide või liigutuste kindlakstegemist, välja arvatud juhul, kui neid kasutatakse emotsioonide tuvastamiseks või tuletamiseks. Nimetatud ilmed võivad olla tavalised näoilmed, näiteks kulmukortsutus või naeratus, või žestid, nagu käte- või pealiigutused, või isiku hääle erijooned, näiteks vali hääl või sosistamine.
(18)
Pojęcie „systemu rozpoznawania emocji”, o którym mowa w niniejszym rozporządzeniu, należy zdefiniować jako system AI służący do rozpoznawania emocji lub zamiarów osób fizycznych na podstawie danych biometrycznych tych osób, lub wyciągania wniosków odnośnie do tych emocji lub zamiarów. Pojęcie to dotyczy emocji lub zamiarów, takich jak radość, smutek, złość, zdziwienie, obrzydzenie, zakłopotanie, podekscytowanie, wstyd, pogarda, satysfakcja i rozbawienie. Nie obejmuje ono stanów fizycznych, takich jak ból lub zmęczenie; w tym na przykład systemów stosowanych do wykrywania poziomu zmęczenia zawodowych pilotów lub kierowców w celu zapobiegania wypadkom. Nie obejmuje ono również samego wykrywania łatwych do zauważenia form wyrazu, gestów lub ruchów, chyba że wykorzystuje się je do identyfikacji lub wnioskowania na temat emocji. Te formy wyrazu mogą obejmować podstawowe rodzaje wyrazu twarzy, takie jak grymas lub uśmiech, gesty, takie jak ruch rąk, ramion lub głowy, lub cechy głosu danej osoby, takie jak podniesiony ton lub szept.
(19)
Käesoleva määruse kohaldamisel tuleks avalikult juurdepääsetava ruumina käsitada mis tahes füüsilist ruumi, mis on määratlemata arvu füüsiliste isikute jaoks juurdepääsetav, olenemata sellest, kas kõnealune ruum on era- või avalik-õiguslikus omandis, olenemata tegevusest, mille jaoks ruumi võidakse kasutada, nagu kaubandus, näiteks kauplused, restoranid, kohvikud; teenused, näiteks pangad, ametialane tegevus, majutus; sport, näiteks ujumisbasseinid, võimlad, staadionid; transport, näiteks bussi-, metroo- ja raudteejaamad, lennujaamad, transpordivahendid; meelelahutus, näiteks kinod, teatrid, muuseumid, kontserdi- ja konverentsisaalid; vaba aja veetmine või muu, näiteks avalikud teed ja väljakud, pargid, metsad, mänguväljakud. Ruumi tuleks liigitada ka avalikult juurdepääsetavaks, kui olenemata võimalikest mahtuvus- või turvapiirangutest sõltub juurdepääs teatud eelmääratletud tingimustest, mida saab täita määratlemata arv isikuid, näiteks pääsme või sõidupileti ostmine, eelnev registreerimine või isikute teatav vanus. Seevastu ei tohiks ruumi pidada avalikult juurdepääsetavaks, kui juurdepääs on piiratud konkreetsete ja kindlaksmääratud füüsiliste isikutega kas liidu või liikmesriigi õiguse alusel, mis on otseselt seotud avaliku turvalisuse või julgeolekuga, või ruumi suhtes asjaomaseid volitusi omava isiku selge tahteavalduse alusel. Ainuüksi juurdepääsu faktiline võimalus, näiteks lukustamata uks, avatud aiavärav, ei tähenda, et ruum on avalikult juurdepääsetav, kui on olemas vastupidisele viitavad tähised või asjaolud, näiteks juurdepääsu keelavad või piiravad märgid. Ettevõtete ja tehaste ruumid ning kontorid ja töökohad, millele on juurdepääs ainult asjaomastel töötajatel ja teenuseosutajatel, on ruumid, mis ei ole avalikult juurdepääsetavad. Avalikult juurdepääsetavate ruumide hulka ei tohiks kuuluda vanglad ega piirikontrolliala. Mõned muud ruumid võivad koosneda nii avalikult juurdepääsetavatest kui ka avalikult mitte juurdepääsetavatest ruumidest, näiteks eraomandis oleva eluhoone koridor, mille kaudu on vaja minna arstikabinetti, või lennujaam. Selle mõiste alla ei käi küberruum, sest see ei ole füüsiline ruum. See, kas konkreetne ruum on avalikult juurdepääsetav, tuleks siiski otsustada igal üksikjuhul eraldi, võttes arvesse asjaomase olukorra iseärasusi.
(19)
Do celów niniejszego rozporządzenia pojęcie „przestrzeni publicznej” należy rozumieć jako odnoszące się do każdej przestrzeni fizycznej, która jest dostępna dla nieokreślonej liczby osób fizycznych, niezależnie od tego, czy dana przestrzeń jest własnością prywatną czy publiczną, a także niezależnie od rodzaju działalności, dla której się ją wykorzystuje, takiej jak działalność handlowa (na przykład sklepy, restauracje, kawiarnie), działalność usługowa (na przykład banki, działalność zawodowa, hotelarstwo), działalność sportowa (na przykład baseny, sale do ćwiczeń, stadiony), działalność transportowa (na przykład dworce autobusowe i kolejowe, stacje metra, lotniska, środki transportu), działalność rozrywkowa (na przykład kina, teatry, muzea, sale koncertowe i konferencyjne) lub przestrzenie służące wypoczynkowi lub innym celom (na przykład drogi publiczne i place, parki, lasy i place zabaw). Przestrzeń należy uznać za przestrzeń publiczną również wtedy, gdy niezależnie od potencjalnych ograniczeń w zakresie pojemności lub bezpieczeństwa, dostęp do niej podlega pewnym określonym z góry warunkom, które mogą zostać spełnione przez nieokreśloną liczbę osób, takich jak zakup biletu wstępu lub biletu na przejazd, uprzednia rejestracja lub osiągnięcie określonego wieku. Danej przestrzeni nie należy natomiast uznawać za przestrzeń publiczną, jeśli dostęp do niej ograniczony jest do konkretnych i określonych osób fizycznych na mocy prawa Unii lub prawa krajowego bezpośrednio związanego z bezpieczeństwem publicznym lub ochroną publiczną lub w wyniku wyraźnego wyrażenia woli przez osobę posiadającą odpowiednie uprawnienia związane z taką przestrzenią. Faktyczna możliwość samego dostępu (taka jak niezamknięte drzwi, otwarta bramka w ogrodzeniu) nie oznacza, że dana przestrzeń stanowi przestrzeń publiczną, jeśli istnieją wskazania lub okoliczności sugerujące inaczej (takie jak znaki zakazujące dostępu lub go ograniczające). Tereny przedsiębiorstw i fabryk, a także biura i miejsca pracy, do których dostęp powinni mieć wyłącznie odpowiedni pracownicy i usługodawcy, to przestrzenie, które nie stanowią przestrzeni publicznej. Do przestrzeni publicznej nie zaliczają się więzienia ani strefy kontroli granicznej. Niektóre przestrzenie mogą zawierać zarówno przestrzenie publiczne, jak i niepubliczne, takie jak hol w prywatnym budynku mieszkalnym prowadzący do gabinetu lekarskiego lub lotnisko. Przestrzenie internetowe również nie są objęte tym pojęciem, ponieważ nie są to przestrzenie fizyczne. To, czy dana przestrzeń jest dostępna publicznie, powinno być jednak ustalane indywidualnie w każdym przypadku, z uwzględnieniem specyfiki danej sytuacji.
(20)
Selleks et saada tehisintellektisüsteemidest võimalikult suur kasu, kaitstes samal ajal põhiõigusi, tervist ja ohutust, ning võimaldada demokraatlikku kontrolli, peaks tehisintellektipädevus andma pakkujatele, juurutajatele ja mõjutatud isikutele vajalikud mõisted tehisintellektisüsteemide kohta teadlike otsuste tegemiseks. Nimetatud mõisted võivad asjaomase konteksti poolest erineda ja võivad hõlmata arusaamist tehniliste elementide nõuetekohasest kohaldamisest tehisintellektisüsteemi arendusetapis, selle kasutamisel kohaldatavaid meetmeid, sobivaid viise tehisintellektisüsteemi väljundi tõlgendamiseks ja mõjutatud isikute puhul teadmisi, mis on vajalikud, et mõista, kuidas tehisintellekti abil tehtud otsused neid mõjutavad. Käesoleva määruse kohaldamisel peaks tehisintellektipädevus andma kõigile tehisintellekti väärtusahela asjaomastele osalejatele vajalikud teadmised, et tagada määruse asjakohane järgimine ja selle korrektne jõustamine. Lisaks võib tehisintellektipädevusega seotud meetmete laialdane rakendamine ja asjakohaste järelmeetmete kehtestamine aidata parandada töötingimusi ning lõppkokkuvõttes toetada usaldusväärse tehisintellekti konsolideerimist ja innovatsiooni liidus. Euroopa tehisintellekti nõukoda (edaspidi „nõukoda“) peaks toetama komisjoni, et edendada tehisintellektipädevusega seotud vahendeid, üldsuse teadlikkust ja arusaamist tehisintellektisüsteemide kasutamisega seotud kasust, riskidest, kaitsemeetmetest, õigustest ja kohustustest. Komisjon ja liikmesriigid peaksid koostöös asjaomaste sidusrühmadega hõlbustama vabatahtlike käitumisjuhendite koostamist, et edendada tehisintellektipädevust tehisintellekti arendamise, käitamise ja kasutamisega tegelevate isikute seas.
(20)
Dostawców, podmioty stosujące i osoby, na które AI ma wpływ, należy wyposażyć w niezbędne kompetencje w zakresie AI umożliwiające im podejmowanie świadomych decyzji w odniesieniu do systemów AI, co pozwoli czerpać największe korzyści z systemów AI, a jednocześnie chronić prawa podstawowe, zdrowie i bezpieczeństwo oraz sprawować kontrolę demokratyczną. Kompetencje te mogą różnić się w zależności od danego kontekstu i mogą obejmować rozumienie prawidłowego stosowania elementów technicznych na etapie rozwoju systemu AI, rozumienie środków, które mają być stosowane podczas jego wykorzystywania, odpowiednich sposobów interpretacji wyników działania systemu AI oraz, w przypadku osób, na które AI ma wpływ – wiedzę niezbędną do zrozumienia, jaki wpływ będą miały na nie decyzje podejmowane przy pomocy AI. W kontekście stosowania niniejszego rozporządzenia kompetencje w zakresie AI powinny oznaczać, że wszystkie odpowiednie podmioty w łańcuchu wartości AI będą posiadać wiedzę konieczną do zapewnienia odpowiedniej zgodności z przepisami niniejszego rozporządzenia i ich prawidłowego egzekwowania. Ponadto szerokie wdrażanie środków rozwijających kompetencje w zakresie AI oraz wprowadzanie odpowiednich działań następczych mogłyby przyczynić się do poprawy warunków pracy, a w ostatecznym rozrachunku wsparłyby konsolidację i innowacyjną ścieżkę godnej zaufania AI w Unii. Europejska Rada ds. Sztucznej Inteligencji (zwana dalej „Radą ds. AI”) powinna wspierać Komisję w promowaniu narzędzi rozwijających kompetencje w zakresie AI, świadomości społecznej oraz zrozumienia korzyści, ryzyka, zabezpieczeń, praw i obowiązków związanych z wykorzystaniem systemów AI. We współpracy z odpowiednimi zainteresowanymi stronami Komisja i państwa członkowskie powinny ułatwiać opracowywanie dobrowolnych kodeksów postępowania w celu podnoszenia kompetencji w zakresie AI wśród osób zajmujących się rozwojem, działaniem i wykorzystywaniem AI.
(21)
Selleks et tagada võrdsed tingimused ning üksikisikute õiguste ja vabaduste tõhus kaitse kogu liidus, tuleks käesoleva määrusega kehtestatud õigusnorme kohaldada tehisintellektisüsteemide pakkujate suhtes mittediskrimineerival viisil, olenemata sellest, kas nad on asutatud liidus või mõnes kolmandas riigis, ja liidus asutatud tehisintellektisüsteemide juurutajate suhtes.
(21)
W celu zapewnienia równych szans oraz skutecznej ochrony praw i wolności osób fizycznych w całej Unii przepisy ustanowione niniejszym rozporządzeniem powinny mieć zastosowanie do dostawców systemów AI w sposób niedyskryminacyjny, niezależnie od tego, czy mają oni siedzibę w Unii, czy w państwie trzecim, oraz do podmiotów stosujących systemy AI mających siedzibę w Unii.
(22)
Kuna tehisintellektisüsteemid on digitaalsed, peaksid teatavad tehisintellektisüsteemid kuuluma käesoleva määruse kohaldamisalasse isegi siis, kui neid ei ole liidus turule lastud ega kasutusele võetud või kui neid liidus ei kasutata. See kehtib näiteks siis, kui liidus asutatud operaator sõlmib kolmandas riigis asutatud operaatoriga lepingu, et see osutaks teatavaid teenuseid, mis on seotud sellise tehisintellektisüsteemi teostatava tegevusega, mida peetakse suure riskiga tehisintellektisüsteemiks. Sellisel juhul võib operaatori kolmandas riigis kasutatav tehisintellektisüsteem töödelda andmeid, mis on seaduslikult liidus kogutud ja mida liidust edastatakse, ning anda liidus asuvale lepingu sõlminud operaatorile väljundi, mille see tehisintellektisüsteem kõnealuse töötlemise tulemusena genereeris, ilma et see tehisintellektisüsteem oleks liidus turule lastud, kasutusele võetud või kasutatav. Et hoida ära käesoleva määruse sätetest kõrvalehoidmist ja tagada liidus asuvate füüsiliste isikute tulemuslik kaitse, tuleks käesolevat määrust kohaldada ka tehisintellektisüsteemide kolmandas riigis asutatud pakkujate ja juurutajate suhtes niivõrd, kuivõrd nende süsteemide genereeritud väljundit kavatsetakse liidus kasutada. Võtmaks siiski arvesse olemasolevaid kokkuleppeid ja erivajadusi, mis puudutavad tulevast koostööd välispartneritega, kellega vahetatakse teavet ja tõendeid, ei tuleks käesolevat määrust kohaldada kolmanda riigi ametiasutuste ja rahvusvaheliste organisatsioonide suhtes, kui tegutsetakse koostöö või selliste rahvusvaheliste lepingute alusel, mis on liidu või riigi tasandil sõlmitud liidu või liikmesriikidega tehtava õiguskaitse- ja õigusalase koostöö kohta, tingimusel et asjaomane kolmas riik või rahvusvaheline organisatsioon pakub piisavaid kaitsemeetmeid üksikisikute põhiõiguste ja -vabaduste kaitseks. Vajaduse korral võib see hõlmata selliste üksuste tegevust, kellele kolmandad riigid on usaldanud konkreetsete ülesannete täitmise sellise õiguskaitse- ja õigusalase koostöö toetamiseks. Selliseid koostööraamistikke või lepinguid on sõlmitud kahepoolselt liikmesriikide ja kolmandate riikide vahel, aga ka Euroopa Liidu, Europoli ja muude liidu asutuste ning kolmandate riikide ja rahvusvaheliste organisatsioonide vahel. Pädevad asutused, kes vastutavad käesoleva määruse alusel õiguskaitse- ja õigusasutuste järelevalve eest, peaksid hindama, kas need koostööraamistikud või rahvusvahelised lepingud sisaldavad piisavaid kaitsemeetmeid üksikisikute põhiõiguste ja -vabaduste kaitseks. Vastuvõtvad riiklikud ametiasutused ning liidu institutsioonid, organid ja asutused, kes selliseid väljundeid liidus kasutavad, vastutavad selle tagamise eest, et väljundite kasutamine oleks kooskõlas liidu õigusega. Kui kõnealused rahvusvahelised lepingud vaadatakse läbi või sõlmitakse tulevikus uusi, peaksid lepinguosalised tegema kõik endast oleneva, et viia need lepingud vastavusse käesoleva määruse nõuetega.
(22)
Ze względu na swój cyfrowy charakter niektóre systemy AI powinny zostać objęte zakresem stosowania niniejszego rozporządzenia, nawet jeśli nie zostały wprowadzane do obrotu, oddane do użytku ani są wykorzystywane w Unii. Dotyczy to na przykład operatora mającego siedzibę w Unii, który zleca operatorowi mającemu siedzibę w państwie trzecim określone usługi w związku z działaniem, które ma być wykonywane przez system AI, który zostałby zakwalifikowany jako system wysokiego ryzyka. W takich okolicznościach system AI wykorzystywany w państwie trzecim przez operatora mógłby przetwarzać dane, które legalnie zgromadzono w Unii i przekazano poza Unię, oraz przekazywać zlecającemu operatorowi z Unii wynik przetwarzania tych danych przez system AI, natomiast sam system AI nie byłby wprowadzony do obrotu lub oddany do użytku w Unii ani nie byłby w Unii wykorzystywany. Aby zapobiec obchodzeniu przepisów niniejszego rozporządzenia oraz zapewnić skuteczną ochronę osób fizycznych znajdujących się w Unii, niniejsze rozporządzenie powinno mieć również zastosowanie do dostawców i podmiotów stosujących systemy AI, którzy mają siedzibę lub miejsce zamieszkania w państwie trzecim, w zakresie, w jakim wyniki wytworzone przez te systemy są przeznaczone do wykorzystywania w Unii. Aby uwzględnić jednak istniejące ustalenia i szczególne potrzeby w zakresie przyszłej współpracy z partnerami zagranicznymi, z którymi wymienia się informacje i dowody, niniejszego rozporządzenia nie powinno się stosować do organów publicznych państwa trzeciego i organizacji międzynarodowych działających w ramach współpracy lub na mocy zawartych na poziomie Unii lub poziomie krajowym umów międzynarodowych o współpracy organów ścigania i wymiarów sprawiedliwości z Unią lub państwami członkowskimi, pod warunkiem zapewnienia przez to państwo trzecie lub organizację międzynarodową odpowiednich zabezpieczeń w odniesieniu do ochrony podstawowych praw i wolności osób fizycznych. W stosownych przypadkach może to obejmować działania podmiotów, którym państwa trzecie powierzyły wykonywanie szczególnych zadań w ramach wsparcia ścigania przestępstw i współpracy wymiarów sprawiedliwości. Takie ramy współpracy lub umowy zostały ustanowione dwustronnie między państwami członkowskimi a państwami trzecimi lub między Unią Europejską, Europolem i innymi agencjami Unii a państwami trzecimi i organizacjami międzynarodowymi. Organy właściwe do sprawowania nadzoru nad organami ścigania i organami wymiaru sprawiedliwości na mocy niniejszego rozporządzenia powinny ocenić, czy te ramy współpracy lub umowy międzynarodowe zawierają odpowiednie zabezpieczenia w odniesieniu do ochrony podstawowych praw i wolności osób fizycznych. Będące odbiorcami organy krajowe oraz instytucje, organy i jednostki organizacyjne Unii korzystające z takich wyników w Unii pozostają odpowiedzialne za zapewnienie zgodności ich stosowania z prawem Unii. W przypadku zmiany takich umów międzynarodowych lub zawarcia nowych w przyszłości umawiające się strony powinny dołożyć wszelkich starań, by dostosować takie umowy do wymogów niniejszego rozporządzenia.
(23)
Käesolevat määrust tuleks kohaldada ka liidu institutsioonide, organite ja asutuste suhtes, kui need tegutsevad tehisintellektisüsteemi pakkuja või juurutajana.
(23)
Niniejsze rozporządzenie powinno być również stosowane do instytucji, organów i jednostek organizacyjnych Unii, gdy działają one jako dostawca systemu AI lub podmiot stosujący system AI.
(24)
Juhul kui ja sel määral mil tehisintellektisüsteeme lastakse turule, võetakse kasutusele või kasutatakse muudetud või muutmata kujul sõjalisel, kaitse- või riikliku julgeoleku eesmärgil, tuleks need käesoleva määruse kohaldamisalast välja jätta, olenemata sellest, mis liiki üksus neid tegevusi teostab, näiteks kas tegemist on avalik-õigusliku või eraõigusliku üksusega. Sõjalisel ja kaitse-eesmärgil on selline väljajätmine põhjendatud nii ELi lepingu artikli 4 lõikega 2 kui ka ELi lepingu V jaotise 2. peatükiga hõlmatud liikmesriikide ja ühise liidu kaitsepoliitika eripäradega, mille suhtes kohaldatakse rahvusvahelist avalikku õigust ning mis on seega sobivam õigusraamistik, et reguleerida tehisintellektisüsteeme surmava jõu kasutamise kontekstis ja muid tehisintellektisüsteeme sõjalise ja kaitsetegevuse kontekstis. Mis puudutab riigi julgeolekuga seotud eesmärke, siis on väljajätmine põhjendatud nii asjaoluga, et riigi julgeolek kuulub ELi lepingu artikli 4 lõike 2 kohaselt jätkuvalt liikmesriikide ainuvastutusse, kui ka riikliku julgeolekualase tegevuse eripära ja operatiivvajadustega ning selle tegevuse suhtes kohaldatavate konkreetsete riigisiseste õigusnormidega. Kui aga sõjalisel, kaitse- või riikliku julgeoleku eesmärgil välja töötatud, turule lastud, kasutusele võetud või kasutatavat tehisintellektisüsteemi kasutatakse ajutiselt või alaliselt muudel eesmärkidel, näiteks tsiviil- või humanitaareesmärkidel, õiguskaitse või avaliku julgeoleku eesmärgil, kuulub selline süsteem käesoleva määruse kohaldamisalasse. Sellisel juhul peaks üksus, kes kasutab tehisintellektisüsteemi muul kui sõjalisel, kaitse- või riikliku julgeoleku eesmärgil, tagama tehisintellektisüsteemi vastavuse käesolevale määrusele, välja arvatud juhul, kui süsteemi vastavus on juba tagatud. Tehisintellektisüsteemid, mis on turule lastud või kasutusele võetud määruse kohaldamisalast välja jäetud eesmärgil, nimelt sõjalisel, kaitse- või riikliku julgeoleku eesmärgil, ja ühel või mitmel määruse kohaldamisalasse kuuluval eesmärgil, näiteks tsiviileesmärgil või õiguskaitse eesmärgil, kuuluvad käesoleva määruse kohaldamisalasse ning nende süsteemide pakkujad peaksid tagama vastavuse käesolevale määrusele. Sellistel juhtudel ei tohiks asjaolu, et tehisintellektisüsteem võib kuuluda käesoleva määruse kohaldamisalasse, mõjutada riikliku julgeoleku, kaitse- ja sõjalise tegevusega tegelevate üksuste – olenemata sellest, mis liiki üksus seda tegevust teostab – võimalust kasutada tehisintellektisüsteeme riikliku julgeoleku, sõjalisel ja kaitseotstarbel, mis on käesoleva määruse kohaldamisalast välja jäetud. Tsiviileesmärgil või õiguskaitse eesmärgil turule lastud tehisintellektisüsteem, mida kasutatakse muudetud või muutmata kujul sõjalisel, kaitse- või riikliku julgeoleku eesmärgil, ei peaks kuuluma käesoleva määruse kohaldamisalasse, olenemata sellest, mis liiki üksus seda tegevust teostab.
(24)
Jeżeli i w zakresie, w jakim systemy AI wprowadza się do obrotu, oddaje do użytku lub wykorzystuje się je ze zmianami lub bez zmian – do celów wojskowych, obronnych lub celów bezpieczeństwa narodowego, systemy te należy wyłączyć z zakresu stosowania niniejszego rozporządzenia niezależnie od tego, jaki podmiot wykonuje te działania – nie ma znaczenia na przykład, czy jest on podmiotem publicznym czy prywatnym. W przypadku celów wojskowych i obronnych, takie wyłączenie jest uzasadnione zarówno art. 4 ust. 2 TUE, jak i specyfiką polityki obronnej państw członkowskich i wspólnej polityki obronnej Unii objętej tytułem V rozdział 2 TUE, które podlegają prawu międzynarodowemu publicznemu stanowiącemu zatem bardziej odpowiednie ramy prawne dla regulacji systemów AI w kontekście stosowania śmiercionośnej siły i innych systemów AI w kontekście działań wojskowych i obronnych. W przypadku celów bezpieczeństwa narodowego wyłączenie to jest uzasadnione zarówno faktem, że za bezpieczeństwo narodowe wyłączną odpowiedzialność ponoszą państwa członkowskie zgodnie z art. 4 ust. 2 TUE, jak i faktem, że działania w zakresie bezpieczeństwa narodowego mają szczególny charakter, wiążą się ze szczególnymi potrzebami operacyjnymi i że stosuje się do nich szczególne przepisy krajowe. Jeżeli jednak system AI rozwinięty, wprowadzony do obrotu, oddany do użytku lub wykorzystywany do celów wojskowych, obronnych lub celów bezpieczeństwa narodowego jest tymczasowo lub na stałe wykorzystywany do innych celów, na przykład do celów cywilnych lub humanitarnych, do celów ścigania przestępstw lub bezpieczeństwa publicznego, system taki objęty zostanie zakresem stosowania niniejszego rozporządzenia. W takim przypadku podmiot wykorzystujący system AI do celów inne niż cele wojskowe, obronne lub cele bezpieczeństwa narodowego powinien zapewnić zgodność systemu AI z niniejszym rozporządzeniem, chyba że system ten jest już z nim zgodny. Systemy AI wprowadzane do obrotu lub oddawane do użytku do celu stanowiącego podstawę wyłączenia, tzn. celu wojskowego, obronnego lub celu bezpieczeństwa narodowego, oraz do jednego lub kilku celów niestanowiących podstawy wyłączenia, takich jak cele cywilne lub ściganie przestępstw, są objęte zakresem stosowania niniejszego rozporządzenia, a dostawcy tych systemów powinni zapewnić zgodność z niniejszym rozporządzeniem. W takich przypadkach fakt, że system AI może wchodzić w zakres stosowania niniejszego rozporządzenia, nie powinien mieć wpływu na możliwość wykorzystywania – przez podmioty prowadzące działania dotyczące bezpieczeństwa narodowego, działania obronne i wojskowe, bez względu na rodzaj podmiotu prowadzącego te działania – systemów AI do celów bezpieczeństwa narodowego, celów wojskowych i obronnych, których wykorzystanie jest wyłączone z zakresu stosowania niniejszego rozporządzenia. System AI wprowadzany do obrotu do celów cywilnych lub w celu ścigania przestępstw, który jest wykorzystywany ze zmianami lub bez zmian do celów wojskowych, obronnych lub do celów bezpieczeństwa narodowego, nie powinien być objęty zakresem stosowania niniejszego rozporządzenia, bez względu na rodzaj podmiotu prowadzącego działania związane z tymi celami.
(25)
Käesolev määrus peaks toetama innovatsiooni, peaks austama teadusvabadust ega tohiks kahjustada teadus- ja arendustegevust. Seepärast on vaja jätta selle kohaldamisalast välja tehisintellektisüsteemid ja -mudelid, mis on spetsiaalselt välja töötatud ja kasutusele võetud üksnes teadus- ja arendustegevuse eesmärgil. Lisaks on vaja tagada, et käesolev määrus ei mõjuta muul viisil tehisintellektisüsteemide või -mudelitega seotud teadus- ja arendustegevust enne nende turule laskmist või kasutusele võtmist. Samuti ei tohiks käesoleva määruse sätteid kohaldada tehisintellektisüsteemide või -mudelite tootepõhise teadus-, testimis- ja arendustegevuse suhtes enne nende süsteemide ja mudelite kasutusele võtmist või turule laskmist. See väljajätmine ei piira käesoleva määruse järgimise kohustust, kui sellise teadus- ja arendustegevuse tulemusena lastakse turule või võetakse kasutusele käesoleva määruse kohaldamisalasse kuuluv tehisintellektisüsteem, ega tehisintellekti regulatiivliivakasti ja tegelikes tingimustes testimist käsitlevate sätete kohaldamist. Lisaks peaksid käesoleva määruse kohaldamisalasse jääma kõik muud tehisintellektisüsteemid, mida võidakse kasutada mis tahes teadus- ja arendustegevuseks, ilma et see piiraks selliste tehisintellektisüsteemide väljajätmist, mis on spetsiaalselt välja töötatud ja kasutusele võetud üksnes teadus- ja arendustegevuse eesmärgil. Teadus- ja arendustegevus peaks igal juhul toimuma kooskõlas teadusuuringute tunnustatud eetiliste ja kutsestandarditega ning see peaks toimuma kooskõlas kohaldatava liidu õigusega.
(25)
Niniejsze rozporządzenie powinno wspierać innowacje, szanować wolność nauki i nie powinno osłabiać działalności badawczo-rozwojowej. Należy zatem wyłączyć z jego zakresu stosowania systemy i modele AI rozwinięte i oddane do użytku wyłącznie do celów badań naukowych i rozwojowych. Ponadto należy zapewnić, aby niniejsze rozporządzenie nie wpływało w żaden inny sposób na działalność badawczo-rozwojową dotyczącą systemów lub modeli AI przed wprowadzeniem tych systemów lub modeli do obrotu lub oddaniem ich do użytku. Przepisów niniejszego rozporządzenia nie powinno się również stosować do zorientowanej na produkty działalności badawczej, testowej i rozwojowej dotyczącej systemów lub modeli AI przed oddaniem tych systemów i modeli do użytku lub wprowadzaniem ich do obrotu. Wyłączenie to pozostaje to bez uszczerbku dla obowiązku zapewnienia zgodności z niniejszym rozporządzeniem, gdy system AI objęty zakresem stosowania niniejszego rozporządzenia jest wprowadzany do obrotu lub oddawany do użytku w wyniku takiej działalności badawczo-rozwojowej, oraz dla stosowania przepisów dotyczących piaskownic regulacyjnych w zakresie AI i testów w warunkach rzeczywistych. Ponadto bez uszczerbku dla wyłączenia systemów AI rozwiniętych i oddanych do użytku wyłącznie do celów badań naukowych i rozwojowych, wszelkie inne systemy AI, które mogą być wykorzystywane do prowadzenia wszelkiej działalności badawczo-rozwojowej, powinny podlegać przepisom niniejszego rozporządzenia. W każdym przypadku wszelka działalność badawczo-rozwojowa powinna być prowadzona zgodnie z uznanymi normami etycznymi i zawodowymi dotyczącymi badań naukowych oraz zgodnie z mającym zastosowanie prawem Unii.
(26)
Selleks et kehtestada tehisintellektisüsteemide suhtes proportsionaalsed, mõjusad ja siduvad õigusnormid, tuleks järgida selgelt määratletud riskipõhist lähenemisviisi. Sellise lähenemisviisi kohaselt tuleks nende õigusnormide liiki ja sisu kujundada vastavalt nende riskide intensiivsusele ja ulatusele, mida tehisintellektisüsteemid võivad põhjustada. Seepärast tuleb keelata teatavad vastuvõetamatud tehisintellekti kasutusviisid, näha ette suure riskiga tehisintellektisüsteemide suhtes kohaldatavad nõuded ja asjaomaste operaatorite kohustused ning kehtestada teatavatele tehisintellektisüsteemidele läbipaistvuskohustused.
(26)
Aby wprowadzić proporcjonalny i skuteczny zbiór wiążących przepisów dotyczących systemów AI, należy zastosować jasno określone podejście oparte na analizie ryzyka. Takie podejście powinno polegać na dostosowywaniu rodzaju i treści takich przepisów do intensywności i zakresu ryzyka, jakie mogą powodować systemy AI. Konieczne jest zatem wprowadzenie zakazu stosowania niektórych niedopuszczalnych praktyk w zakresie AI, ustanowienie wymogów dotyczących systemów AI wysokiego ryzyka i obowiązków spoczywających na odpowiednich operatorach oraz ustanowienie obowiązków w zakresie przejrzystości w odniesieniu do niektórych systemów AI.
(27)
Kuigi riskipõhine lähenemisviis on proportsionaalsete ja tõhusate siduvate õigusnormide alus, on oluline meelde tuletada 2019. aasta eetikasuuniseid usaldusväärse tehisintellekti arendamiseks, mille töötas välja komisjoni määratud sõltumatu kõrgetasemeline tehisintellekti eksperdirühm. Kõrgetasemeline tehisintellekti eksperdirühm töötas nendes suunistes välja seitse mittesiduvat tehisintellekti eetikapõhimõtet, mille eesmärk on aidata tagada, et tehisintellekt on usaldusväärne ja järgib eetikanorme. Nende seitsme põhimõtte seas on: inimese toimevõime ja inimjärelevalve; tehniline töökindlus ja ohutus; privaatsus ja andmehaldus; läbipaistvus; mitmekesisus, mittediskrimineerimine ja õiglus; ühiskondlik ja keskkonnaalane heaolu ning vastutuse võtmine. Ilma et see piiraks käesoleva määruse ja mis tahes muu kohaldatava liidu õiguse õiguslikult siduvate nõuete kohaldamist, aitavad need suunised kujundada sidusat, usaldusväärset ja inimkeskset tehisintellekti kooskõlas põhiõiguste harta ja liidu alusväärtustega. Kõrgetasemelise tehisintellekti eksperdirühma suuniste kohaselt tähendab inimese toimevõime ja inimjärelevalve, et tehisintellektisüsteeme arendatakse ja kasutatakse vahendina, mis teenib inimesi, austab inimväärikust ja isiklikku sõltumatust ning toimib viisil, mille üle inimesed saavad nõuetekohaselt kontrolli ja järelevalvet teostada. Tehniline töökindlus ja ohutus tähendab seda, et tehisintellektisüsteeme arendatakse ja kasutatakse viisil, mis tagab probleemide esinemisel nende töökindluse ning vastupidavuse katsetele muuta tehisintellektisüsteemi kasutust või toimivust nii, et kolmandad isikud saaksid neid ebaseaduslikult kasutada, ning et minimeerida soovimatut kahju. Privaatsus ja andmehaldus tähendab, et tehisintellektisüsteeme arendatakse ja kasutatakse kooskõlas privaatsus- ja andmekaitsenormidega ning andmetöötlus vastab kõrgetele kvaliteedi ja tervikluse standarditele. Läbipaistvus tähendab, et tehisintellektisüsteeme arendatakse ja kasutatakse viisil, mis võimaldab asjakohast jälgitavust ja selgitatavust, andes samal ajal inimestele teada, et nad suhtlevad tehisintellektisüsteemiga, ning teavitades juurutajaid igakülgselt selle tehisintellektisüsteemi võimetest ja piiridest ning mõjutatud isikuid nende õigustest. Mitmekesisus, mittediskrimineerimine ja õiglus tähendavad, et tehisintellektisüsteeme arendatakse ja kasutatakse viisil, mis hõlmab erinevaid osalejaid ja edendab võrdset ligipääsu, soolist võrdõiguslikkust ja kultuurilist mitmekesisust, vältides samal ajal diskrimineerivat mõju ja ebaõiglast kallutatust, mis on liidu või liikmesriikide õigusega keelatud. Ühiskondlik ja keskkonnaalane heaolu tähendab, et tehisintellektisüsteeme arendatakse ja kasutatakse kestlikul ja keskkonnasõbralikul viisil, samuti viisil, mis toob kasu kõigile inimestele, jälgides ja hinnates samal ajal pikaajalist mõju üksikisikule, ühiskonnale ning demokraatiale. Nimetatud põhimõtete kohaldamine tuleks võimaluse korral üle kanda tehisintellektimudelite projekteerimisse ja kasutamisse. Igal juhul peaksid need olema aluseks käesoleva määruse alusel koostatavatele käitumisjuhenditele. Kõiki sidusrühmi, sealhulgas tööstust, akadeemilisi ringkondi, kodanikuühiskonda ja standardiorganisatsioone, julgustatakse vabatahtlike parimate tavade ja standardite väljatöötamisel võtma vastavalt vajadusele arvesse eetikapõhimõtteid.
(27)
Chociaż podstawą proporcjonalnego i skutecznego zbioru wiążących przepisów jest podejście oparte na analizie ryzyka, należy przypomnieć Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji z 2019 r. opracowane przez niezależną grupę ekspertów wysokiego szczebla ds. AI powołaną przez Komisję. W tych wytycznych grupa ekspertów wysokiego szczebla ds. AI opracowała siedem niewiążących zasad etycznych dotyczących AI, które mają pomóc zapewnić, aby AI była godna zaufania i zgodna z normami etycznymi. Te siedem zasad to: przewodnia i nadzorcza rola człowieka; solidność techniczna i bezpieczeństwo; ochrona prywatności i zarządzanie danymi; przejrzystość; różnorodność, niedyskryminacja i sprawiedliwość; dobrostan społeczny i środowiskowy oraz odpowiedzialność. Bez uszczerbku dla prawnie wiążących wymogów niniejszego rozporządzenia i wszelkich innych mających zastosowanie przepisów prawa Unii, wytyczne te przyczyniają się do zaprojektowania spójnej, wiarygodnej i zorientowanej na człowieka AI, zgodnie z Kartą i wartościami, na których opiera się Unia. Zgodnie z wytycznymi grupy ekspertów wysokiego szczebla ds. AI przewodnia i nadzorcza rola człowieka oznacza, że systemy AI rozwija się i wykorzystuje jako narzędzia służące ludziom, szanujące godność ludzką i autonomię osobistą oraz działające w sposób, który może być odpowiednio kontrolowany i nadzorowany przez człowieka. Solidność techniczna i bezpieczeństwo oznaczają, że systemy AI rozwija się i wykorzystuje w taki sposób, by okazały się wytrzymałe w przypadku wystąpienia problemów oraz odporne na próby zmiany ich wykorzystania lub skuteczności działania, co pozwoli zapobiec bezprawnemu wykorzystaniu przez osoby trzecie i zminimalizować niezamierzone szkody. Ochrona prywatności i zarządzanie danymi oznaczają, że systemy AI rozwija się i wykorzystuje zgodnie z przepisami dotyczącymi prywatności i ochrony danych, przy czym przetwarzanie danych spełnia wysokie standardy pod względem jakości i integralności. Przejrzystość oznacza, że systemy AI rozwija się i wykorzystuje w sposób umożliwiający odpowiednią identyfikowalność i wytłumaczalność, jednocześnie informując ludzi o tym, że komunikują się z systemem AI lub podejmują z nim interakcję, a także należycie informując podmioty stosujące o zdolnościach i ograniczeniach tego systemu AI, a osoby, na które AI ma wpływ, o przysługujących im prawach. Różnorodność, niedyskryminacja i sprawiedliwość oznaczają, że systemy AI rozwija się i wykorzystuje w sposób, który angażuje różne podmioty i propaguje równy dostęp, równouprawnienie płci i różnorodność kulturową, jednocześnie unikając dyskryminujących skutków i niesprawiedliwej stronniczości, których zakazują prawo Unii lub prawo krajowe. Dobrostan społeczny i środowiskowy oznacza, że systemy AI rozwija się i wykorzystuje w sposób zrównoważony, przyjazny dla środowiska i przynoszący korzyści wszystkim ludziom, jednocześnie monitorując i oceniając długoterminowy wpływ tych systemów na osoby fizyczne, społeczeństwo i demokrację. Stosowanie tych zasad powinno w miarę możliwości znaleźć odzwierciedlenie w projektowaniu i wykorzystywaniu modeli AI. Zasady te powinny w każdym przypadku stanowić fundament przy opracowywaniu kodeksów postępowania na podstawie niniejszego rozporządzenia. Wszystkie zainteresowane strony, w tym przedstawicieli przemysłu, środowisko akademickie, społeczeństwo obywatelskie i organizacje normalizacyjne, zachęca się, by przy opracowywaniu dobrowolnych najlepszych praktyk i norm uwzględniali odpowiednio przedmiotowe zasady etyczne.
(28)
Lisaks sellele, et tehisintellektil on mitmeid kasulikke rakendusvõimalusi, on seda võimalik ka väärkasutada ning luua uudseid ja võimsaid manipuleerimise, ärakasutamise ja sotsiaalse kontrolli vahendeid. Sellised kasutusviisid on eriti kahjulikud ja kuritarvituslikud ning tuleks keelata, sest need on vastuolus selliste liidu väärtustega nagu inimväärikuse austamine, vabadus, võrdsus, demokraatia ja õigusriik ning põhiõiguste hartas sätestatud põhiõigustega, kaasa arvatud õigusega mittediskrimineerimisele, andmekaitsele ja privaatsusele, aga ka lapse õigustega.
(28)
Oprócz wielu korzystnych zastosowań AI może ona być również wykorzystywana niewłaściwie i może dostarczać nowych i potężnych narzędzi do praktyk manipulacji, wyzyskiwania i kontroli społecznej. Takie praktyki są szczególnie szkodliwe i stanowią nadużycie i powinny być zakazane, ponieważ są sprzeczne z unijnymi wartościami dotyczącymi poszanowania godności ludzkiej, wolności, równości, demokracji i praworządności oraz z prawami podstawowymi zapisanymi w Karcie, w tym z prawem do niedyskryminacji, ochrony danych i prywatności oraz z prawami dziecka.
(29)
Tehisintellektil põhinevaid manipuleerimistehnikaid saab kasutada selleks, et veenda inimesi käituma soovimatult ja neid petta, suunates neid tegema otsuseid, mis pärsivad ja kahjustavad nende sõltumatust, otsuste tegemist ja valikuvabadust. Teatavad tehisintellektisüsteemid, mille eesmärk või tagajärg on inimeste käitumise suurel määral moonutamine, mis võib tõenäoliselt tekitada olulist kahju, eelkõige sellist, millel on piisavalt oluline kahjulik mõju füüsilisele ja psühholoogilisele tervisele või finantshuvidele, on eriti ohtlikud ja seetõttu tuleks nende turule laskmine, kasutusele võtmine ja kasutamine keelata. Sellistes tehisintellektisüsteemides kasutatakse alalävisele tajule suunatud elemente, nagu audio-, pildi- ja videostiimuleid, mida inimesed ei suuda tajuda, sest need stiimulid jäävad inimese tajust väljapoole, või muid manipuleerivaid või petlikke võtteid, mis vähendavad või kahjustavad isiku sõltumatust, otsuste tegemist või vaba valikut viisil, mille puhul inimesed ei ole nendest võtetest teadlikud, või isegi kui nad on teadlikud, on võimalik nad ikka eksiteele viia või nad ei ole võimelised neid kontrollima või nendele vastu seisma. Selleks võidakse kasutada näiteks aju-arvuti liideseid või virtuaalreaalsust, kuna need võimaldavad suuremat kontrolli selle üle, milliseid stiimuleid inimestele esitatakse, kuivõrd need võivad oluliselt moonutada nende käitumist märkimisväärselt kahjulikul viisil. Lisaks võivad tehisintellektisüsteemid muul viisil kasutada ära konkreetse isiku või isikute rühma haavatavusi, mis tulenevad nende vanusest, puudest Euroopa Parlamendi ja nõukogu direktiivi (EL) 2019/882 (16) tähenduses või konkreetsest sotsiaalsest või majanduslikust olukorrast, mis tõenäoliselt muudab need isikud ärakasutamise suhtes kaitsetumaks, näiteks äärmises vaesuses elavad isikud, etnilised või usuvähemused. Selliseid süsteeme võidakse turule lasta, kasutusele võtta või kasutada selliselt, et nende eesmärk või tagajärg on isiku käitumise oluline moonutamine viisil, mis põhjustab või mõistliku tõenäosusega põhjustab olulist kahju sellele või mõnele teisele isikule või isikute rühmale, sealhulgas kahju, mis võib tekkida aja jooksul, ning seetõttu peaksid sellised süsteemid olema keelatud. Käitumise moonutamise kavatsust ei pruugi olla võimalik eeldada, kui moonutus tuleneb tehisintellektisüsteemi välistest teguritest, mis ei ole pakkuja või juurutaja kontrolli all, nimelt teguritest, mis ei pruugi olla mõistlikult prognoositavad ja seetõttu ei ole tehisintellektisüsteemi pakkujal või juurutajal võimalik neid leevendada. Igal juhul ei pruugi pakkujal või juurutajal olla kavatsust põhjustada olulist kahju, kui selline kahju tuleneb manipuleerivatest või ekspluateerivatest tehisintellektil põhinevatest kasutusviisidest. Selliseid tehisintellekti kasutusviise käsitlevad keelud täiendavad Euroopa Parlamendi ja nõukogu direktiivi 2005/29/EÜ (17) sätteid, eelkõige seda, et ebaausad kaubandustavad, mis põhjustavad tarbijatele majanduslikku või rahalist kahju, on igal juhul keelatud, olenemata sellest, kas need on võetud kasutusele tehisintellektisüsteemide abil või muul viisil. Käesolevas määruses sätestatud manipuleerivate ja ekspluateerivate kasutusviiside keeld ei tohiks mõjutada õiguspärast ravi, näiteks psüühikahäire psühholoogiline ravi või füüsiline rehabilitatsioon, kui see toimub kooskõlas kohaldatava õiguse ja meditsiinistandarditega, näiteks üksikisikute või nende seaduslike esindajate selgesõnalisel nõusolekul. Samuti ei tohiks tavapäraseid ja õiguspäraseid kaubandustavasid, näiteks reklaami valdkonnas, mis on kooskõlas kohaldatava õigusega, pidada iseenesest kahjulikeks manipuleerivateks tehisintellektil põhinevateks kasutusviisideks.
(29)
Techniki manipulacyjne oparte na AI mogą być wykorzystywane w celu nakłaniania osób do niepożądanych zachowań lub w celu wprowadzania ich w błąd poprzez skłanianie ich do podejmowania decyzji w sposób, który podważa i ogranicza ich autonomię, decyzyjność i swobodę wyboru. Wprowadzanie do obrotu, oddawanie do użytku lub wykorzystywanie niektórych systemów AI, których celem lub skutkiem jest znacząca zmiana ludzkiego zachowania, w związku z czym mogą wystąpić poważne szkody, w szczególności mające wystarczająco istotny niepożądany wpływ na zdrowie fizyczne, psychiczne lub na interesy finansowe, są szczególnie niebezpieczne i w związku z tym powinny być zakazane. Takie systemy AI wykorzystują elementy działające podprogowo, takie jak bodźce dźwiękowe, bodźce będące obrazami lub materiałami wideo, których nie można dostrzec, ponieważ bodźce takie wykraczają poza świadomą ludzką percepcję, lub stosują inne techniki manipulacyjne lub wprowadzające w błąd, które podważają lub ograniczają autonomię człowieka, decyzyjność lub swobodę wyboru w taki sposób, że osoby nie są świadome takich technik lub nawet jeśli są ich świadome, mogą zostać wprowadzone w błąd lub nie są w stanie sprawować nad nimi kontroli ani im się sprzeciwić. Przyczyniać się do tego mogą na przykład interfejsy maszyna-mózg lub rzeczywistość wirtualna, ponieważ pozwalają one na większą kontrolę nad tym, jakim bodźcom są poddawane osoby, do tego stopnia, że mogą one znacząco zmieniać zachowanie tych osób w sposób znacząco szkodliwy. Ponadto systemy AI mogą również w inny sposób wykorzystywać słabości danej osoby lub określonej grupy osób ze względu na ich wiek, niepełnosprawność w rozumieniu dyrektywy Parlamentu Europejskiego i Rady (UE) 2019/882 (16) lub szczególną sytuację społeczną lub ekonomiczną, która może sprawić, że osoby te, takie jak osoby żyjące w skrajnym ubóstwie, osoby z mniejszości etnicznych lub religijnych, będą bardziej narażone na ich wykorzystanie. Takie systemy AI mogą być wprowadzane do obrotu, oddawane do użytku lub wykorzystywane w celu lub ze skutkiem znaczącej zmiany zachowania danej osoby, oraz w sposób, który wyrządza lub może z uzasadnionym prawdopodobieństwem wyrządzić poważną szkodę tej osoby lub innej osoby lub grupy osób, w tym szkody kumulujące się z biegiem czasu, i w związku z tym powinny być zakazane. Nie można zakładać, że zaistniał zamiar dokonania zmiany zachowania, jeżeli zmiana ta wynika z czynników, które mają charakter zewnętrzny w stosunku do systemu AI i które są poza kontrolą dostawcy lub podmiotu stosującego, a zatem ani dostawca ani podmiot stosujący AI nie mogą ich racjonalnie przewidzieć ani im przeciwdziałać. W każdym razie nie ma znaczenia, czy dostawca lub podmiot stosujący mieli zamiar wyrządzić poważną szkodę, istotny jest fakt, że szkoda wynika z praktyk manipulacyjnych opartych na AI lub ich wykorzystywania. Zakazy dotyczące takich praktyk w zakresie AI stanowią uzupełnienie przepisów zawartych w dyrektywie Parlamentu Europejskiego i Rady 2005/29/WE (17), w szczególności przepisu zakazującego stosowania we wszelkich okolicznościach nieuczciwych praktyk handlowych powodujących dla konsumentów szkody ekonomiczne lub finansowe, niezależnie od tego, czy praktyki te stosuje się za pomocą systemów AI czy w innym kontekście. Zawarty w niniejszym rozporządzeniu zakaz praktyk polegających na manipulacji lub wykorzystywaniu nie powinien mieć wpływu na zgodne z prawem praktyki w kontekście leczenia, takie jak terapia psychologiczna w związku z chorobą psychiczną lub rehabilitacja fizyczna, gdy praktyki te są prowadzone zgodnie z mającymi zastosowanie prawem i normami medycznymi, na przykład za wyraźną zgodą danej osoby fizycznej lub jej przedstawiciela prawnego. Ponadto powszechne i zasadne praktyki handlowe, na przykład w dziedzinie reklamy, które są zgodne z mającym zastosowanie prawem, nie powinny być same w sobie uznawane za szkodliwe praktyki manipulacyjne oparte na AI.
(30)
Biomeetrilise liigitamise süsteemid, mis põhinevad füüsiliste isikute biomeetrilistel andmetel, näiteks isiku näol või sõrmejälgedel, et tuletada või järeldada isikute poliitilisi vaateid, kuulumist ametiühingusse, usulisi või filosoofilisi veendumusi, rassi, seksuaalelu või seksuaalset sättumust, tuleks keelata. See keeld ei tohiks hõlmata selliste biomeetriliste andmestike seaduslikku märgistamist, filtreerimist või liigitamist vastavalt biomeetrilistele andmetele, mis on saadud kooskõlas liidu või liikmesriigi õigusega, nagu kujutiste sorteerimist vastavalt juuksevärvile või silmavärvile, mida saab kasutada näiteks õiguskaitse valdkonnas.
(30)
Należy zakazać stosowania systemów kategoryzacji biometrycznej, które opierają się na danych biometrycznych osób fizycznych, takich jak twarz lub odciski palców danej osoby, w celu wydedukowania lub wywnioskowania informacji na temat opinii politycznych, przynależności do związków zawodowych, przekonań religijnych lub filozoficznych, rasy, życia seksualnego lub orientacji seksualnej danej osoby. Zakaz ten nie powinien obejmować zgodnego z prawem etykietowania, filtrowania lub kategoryzacji zbiorów danych biometrycznych, pozyskanych zgodnie z prawem Unii lub prawem krajowym, według danych biometrycznych, takiego jak sortowanie obrazów według koloru włosów lub koloru oczu, które można na przykład wykorzystać w obszarze ścigania przestępstw.
(31)
Tehisintellektisüsteemid, mida kasutatakse avaliku või erasektori osalejate poolt füüsilistele isikutele sotsiaalpunktide andmiseks, võivad tuua kaasa diskrimineerimise ja teatavate rühmade kõrvalejätmise. Need süsteemid võivad rikkuda õigust väärikusele ja mittediskrimineerimisele ning olla vastuolus võrdsuse ja õigluse väärtustega. Sellised tehisintellektisüsteemid hindavad või liigitavad füüsilisi isikuid või nende rühmi, tuginedes paljudele andmepunktidele, mis on seotud nende sotsiaalse käitumisega eri kontekstides, või teadaolevatele, tuletatavatele või prognoositavatele isiku- või iseloomuomadustele teatava aja jooksul. Selliste tehisintellektisüsteemide antud sotsiaalpunktid võivad tuua kaasa füüsilisi isikuid või terveid inimrühmi kahjustavat või nende ebasoodsat kohtlemist sotsiaalses kontekstis, mis ei ole seotud kontekstiga, kus andmed algselt loodi või koguti, või kahjustavat kohtlemist, mis ei ole nende sotsiaalse käitumise problemaatilisusega võrreldes proportsionaalne või põhjendatud. Tehisintellektisüsteemid, millega kaasnevad sellised vastuvõetamatud punktide andmise tavad ja mis viivad selliste kahjustavate või ebasoodsate tulemusteni, tuleks seetõttu keelata. See keeld ei tohiks mõjutada füüsiliste isikute seaduslikku hindamist, mida tehakse konkreetsel eesmärgil kooskõlas liidu või liikmesriigi õigusega.
(31)
Systemy AI, które umożliwiają prowadzenie przez podmioty publiczne lub prywatne scoringu społecznego, mogą prowadzić do wyników stanowiących dyskryminację i do wykluczenia pewnych grup. Mogą one naruszać prawo do godności i niedyskryminacji oraz wartości, jakimi są równość i sprawiedliwość. Takie systemy AI oceniają lub klasyfikują osoby fizyczne lub grupy osób fizycznych na podstawie wielu punktów danych dotyczących ich zachowań społecznych w wielu kontekstach lub na podstawie znanych, wywnioskowanych lub przewidywanych cech osobistych lub cech osobowości w określonych przedziałach czasowych. Scoring społeczny uzyskany w rezultacie działania takich systemów AI może prowadzić do krzywdzącego lub niekorzystnego traktowania osób fizycznych lub całych grup osób fizycznych w kontekstach społecznych, które nie są związane z kontekstem, w którym pierwotnie wygenerowano lub zgromadzono dane, lub do krzywdzącego traktowania, które jest nieproporcjonalne lub nieuzasadnione w stosunku do wagi ich zachowań społecznych. Należy zatem zakazać systemów AI, w których stosuje się takie niedopuszczalne praktyki scoringu, które przynoszą takie krzywdzące lub niekorzystne wyniki. Zakaz ten nie powinien mieć wpływu na zgodne z prawem praktyki oceny osób fizycznych, które są stosowane w konkretnym celu zgodnie z prawem Unii i prawem krajowym.
(32)
Tehisintellektisüsteemide kasutamine avalikult juurdepääsetavas ruumis õiguskaitse eesmärgil reaalajas toimuva füüsiliste isikute biomeetrilise kaugtuvastamise jaoks on eriti tõsine sekkumine asjaomaste isikute õigustesse ja vabadustesse, sest see võib mõjutada suure osa elanikkonna eraelu, tekitada pideva jälgimise tunde ning kaudselt veenda loobuma kogunemisvabaduse ja muude põhiõiguste kasutamisest. Füüsiliste isikute biomeetrilise kaugtuvastamise jaoks mõeldud tehisintellektisüsteemide tehniline ebatäpsus võib kaasa tuua tulemuste kallutatuse ja põhjustada diskrimineerimist. Sellised võimalikud kallutatud tulemused ja diskrimineeriv mõju on eriti olulised vanuse, etnilise päritolu, rassi, soo või puuete puhul. Kuna selliste reaalajas töötavate süsteemide kasutamise mõju on vahetu ja täiendava kontrolli või parandamise võimalused piiratud, seab selliste süsteemide kasutamine suuremasse ohtu õiguskaitsetoimingute mõjuvälja jäävate isikute õigused ja vabadused.
(32)
Wykorzystanie systemów AI do zdalnej identyfikacji biometrycznej osób fizycznych w czasie rzeczywistym w przestrzeni publicznej w celu ścigania przestępstw szczególnie ingeruje w prawa i wolności zainteresowanych osób, do tego stopnia że może ono wpływać na życie prywatne dużej części społeczeństwa, wywoływać poczucie stałego nadzoru i pośrednio zniechęcać do korzystania z wolności zgromadzeń i innych praw podstawowych. Techniczne niedokładności systemów AI przeznaczonych do zdalnej identyfikacji biometrycznej osób fizycznych mogą prowadzić do nieobiektywnych wyników i wywoływać skutki w postaci dyskryminacji. Takie ewentualne nieobiektywne wyniki i skutki w postaci dyskryminacji są szczególnie istotne w odniesieniu do wieku, pochodzenia etnicznego, rasy, płci lub niepełnosprawności. Ponadto bezpośredniość oddziaływania i ograniczone możliwości późniejszej kontroli lub korekty wykorzystania takich systemów działających w czasie rzeczywistym niosą ze sobą zwiększone ryzyko dla praw i wolności osób zainteresowanych w związku z działaniami organów ścigania lub na które działania te miały wpływ.
(33)
Seepärast peaks selliste süsteemide kasutamine õiguskaitse eesmärgil olema keelatud, välja arvatud ammendavalt loetletud ja kitsalt määratletud olukordades, kus nende süsteemide kasutamine on rangelt vajalik selleks, et saavutada olulise avaliku huvi eesmärk, mille tähtsus kaalub riskid üles. Selliste olukordade hulka kuuluvad teatavate kuriteoohvrite, kaasa arvatud kadunud isikute otsimine, teatavad füüsiliste isikute elu või füüsilist turvalisust ähvardavad ohud või terrorirünnaku oht ning käesoleva määruse lisas loetletud kuritegude toimepanijate või sellistes kuritegudes kahtlustatavate asukoha kindlaks tegemine või nende tuvastamine, kui sellise kuriteo eest karistatakse asjaomases liikmesriigis vabadusekaotuse või vabadust piirava julgeolekumeetmega, mille maksimaalne pikkus on vähemalt neli aastat ning vastavalt kõnealuse kuriteo määratlusele selle liikmesriigi õiguses. Sellise ajalise piiri seadmine riigisisese õiguse kohasele vabadusekaotusele või vabadust piiravale julgeolekumeetmele aitab tagada, et reaalajas toimuva biomeetrilise kaugtuvastamise süsteemide kasutamine oleks õigustatud vaid piisavalt raskete rikkumiste korral. Peale selle põhineb käesoleva määruse lisas esitatud kuritegude loetelu 32 kuriteoliigil, mis on loetletud nõukogu raamotsuses 2002/584/JSK, (18) võttes arvesse, et mõned neist kuritegudest on praktikas tõenäoliselt teistest asjakohasemad, sest reaalajas toimuva biomeetrilise kaugtuvastamise kasutamise eeldatav vajalikkus ja proportsionaalsus võivad märkimisväärselt varieeruda, kui tegemist on loetelus nimetatud kuriteo toimepanija või sellises kuriteos kahtlustatava asukoha kindlaks tegemise või tema tuvastamisega ja kui võetakse arvesse võimalike negatiivsete tagajärgede raskusastme, tõenäosuse ja ulatuse tõenäolisi erinevusi. Vahetu oht füüsiliste isikute elule või füüsilisele turvalisusele võib tuleneda ka Euroopa Parlamendi ja nõukogu direktiivi (EL) 2022/2557 (19) artikli 2 punktis 4 määratletud elutähtsa taristu tõsisest kahjustada saamisest, kui sellise elutähtsa taristu kahjustada saamine või hävimine ohustaks vahetult isiku elu või füüsilist turvalisust, sealhulgas elanikkonna esmatarbekaupadega varustamise või riigi põhiülesannete täitmise tõsise kahjustamise kaudu. Lisaks tuleks käesoleva määrusega säilitada õiguskaitse-, piirivalve-, rände- ja varjupaigaasutuste suutlikkus kontrollida isikusamasust asjaomase isiku juuresolekul vastavalt liidu ja liikmesriigi õiguses sellise kontrolli jaoks sätestatud tingimustele. Eelkõige peaks õiguskaitse-, piirivalve-, rände- ja varjupaigaasutustel olema võimalik kasutada liidu või liikmesriigi õiguse kohaselt infosüsteeme, et tuvastada isikud, kes isikusamasuse kontrolli käigus kas keelduvad isiku tuvastamisest või ei suuda oma isikut avaldada või tõendada, ilma et neilt nõutaks käesoleva määruse kohaselt eelneva loa saamist. Tegemist võib olla näiteks kuriteoga seotud isikuga, isikuga, kes ei soovi või kes õnnetuse või tervisliku seisundi tõttu ei suuda avaldada oma isikut õiguskaitseasutustele.
(33)
Wykorzystanie tych systemów w celu ścigania przestępstw powinno zatem być zabronione, z wyjątkiem wyczerpującej listy wąsko zdefiniowanych sytuacji, w których wykorzystanie to jest bezwzględnie konieczne do realizacji istotnego interesu publicznego, którego waga przeważa nad ryzykiem. Sytuacje te obejmują poszukiwanie określonych ofiar przestępstw, w tym osób zaginionych; zapobieganie niektórym zagrożeniom życia lub bezpieczeństwa fizycznego osób fizycznych lub atakowi terrorystycznemu; oraz lokalizowanie lub identyfikowanie sprawców przestępstw lub podejrzanych o popełnienie przestępstw wymienionych w załączniku do niniejszego rozporządzenia, w przypadku gdy przestępstwa te podlegają w danym państwie członkowskim karze pozbawienia wolności lub środkowi polegającemu na pozbawieniu wolności przez okres, którego górna granica wynosi co najmniej cztery lata, zgodnie z ich definicją w prawie tego państwa członkowskiego. Taki próg kary pozbawienia wolności lub środka polegającego na pozbawieniu wolności zgodnie z prawem krajowym pozwala zapewnić, aby przestępstwo było na tyle poważne, by potencjalnie uzasadniać wykorzystanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym. Ponadto wykaz przestępstw przedstawiony w załączniku do niniejszego rozporządzenia opiera się na 32 przestępstwach wymienionych w decyzji ramowej Rady 2002/584/WSiSW (18), biorąc pod uwagę, że niektóre z tych przestępstw mogą w praktyce mieć większe znaczenie niż inne, ponieważ można przewidzieć, że korzystanie ze zdalnej identyfikacji biometrycznej w czasie rzeczywistym może być w bardzo różnym stopniu konieczne i proporcjonalne do praktycznych celów lokalizowania lub identyfikowania sprawcy poszczególnych wymienionych przestępstw lub podejrzanego o popełnienie tych przestępstw, przy uwzględnieniu prawdopodobnych różnic w odniesieniu do powagi, prawdopodobieństwa i skali szkody lub ewentualnych negatywnych konsekwencji. Bezpośrednie zagrożenie życia lub bezpieczeństwa fizycznego osób fizycznych może również wynikać z poważnego zakłócenia funkcjonowania infrastruktury krytycznej zdefiniowanej w art. 2 pkt 4 dyrektywy Parlamentu Europejskiego i Rady (UE) 2022/2557 (19), w przypadku gdy zakłócenie lub zniszczenie takiej infrastruktury krytycznej spowodowałoby bezpośrednie zagrożenie życia lub bezpieczeństwa fizycznego osoby, w tym poprzez poważną szkodę w dostarczaniu podstawowych dostaw dla ludności lub w wykonywaniu podstawowych funkcji państwa. Ponadto niniejsze rozporządzenie powinno utrzymać możliwość przeprowadzania przez organy ścigania, organy kontroli granicznej, organy imigracyjne lub organy azylowe kontroli tożsamości w obecności danej osoby zgodnie z warunkami określonymi w prawie Unii i prawie krajowym w odniesieniu do takich kontroli. W szczególności organy ścigania, organy kontroli granicznej, organy imigracyjne lub organy azylowe powinny mieć możliwość korzystania z systemów informacyjnych, zgodnie z prawem Unii lub prawem krajowym, w celu zidentyfikowania osób, które podczas kontroli tożsamości odmawiają identyfikacji lub nie są w stanie podać lub dowieść swojej tożsamości – bez konieczności uzyskiwania uprzedniego zezwolenia na podstawie niniejszego rozporządzenia. Może to na przykład dotyczyć osoby mającej związek z przestępstwem, która nie chce lub – w wyniku wypadku lub z powodu stanu zdrowia – nie jest w stanie ujawnić swojej tożsamości organom ścigania.
(34)
Lisaks sellele on nende süsteemide vastutustundliku ja proportsionaalse kasutamise tagamiseks oluline panna paika, et igaühes neist ammendavalt loetletud ja kitsalt määratletud olukorrast tuleks arvesse võtta teatavaid elemente, eeskätt mis puudutab taotluse aluseks oleva olukorra olemust ja kasutamise tagajärgi kõigi asjaomaste isikute õigustele ja vabadustele ning kasutamise korral ettenähtud kaitsemeetmeid ja tingimusi. Peale selle tuleks reaalajas toimuva biomeetrilise kaugtuvastamise süsteeme kasutada avalikult juurdepääsetavas ruumis õiguskaitse eesmärgil üksnes selleks, et kinnitada konkreetselt sihtmärgiks oleva isiku isikusamasust, ning see peaks piirduma sellega, mis on rangelt vajalik seoses ajavahemiku ning geograafilise ja isikulise kohaldamisalaga, võttes eelkõige arvesse tõendeid või viiteid ohu, ohvrite või toimepanija kohta. Reaalajas toimuva biomeetrilise kaugtuvastamise süsteemi kasutamine avalikult juurdepääsetavas ruumis peaks olema lubatud üksnes juhul, kui asjaomane õiguskaitseasutus on viinud lõpule põhiõigustele avalduva mõju hindamise, ja kui käesolevas määruses ei ole sätestatud teisiti, on ta süsteemi andmebaasis registreerinud, nagu on sätestatud käesolevas määruses. Isikute võrdlusandmebaas peaks olema igas eespool nimetatud olukorras iga kasutusmalli jaoks sobiv.
(34)
W celu zapewnienia, aby systemy te były wykorzystywane w sposób odpowiedzialny i proporcjonalny, należy również zastrzec, że w każdej z tych wąsko zdefiniowanych sytuacji z wyczerpującej listy należy uwzględniać pewne elementy, w szczególności charakter sytuacji, która skutkowała złożeniem wniosku, wpływ wykorzystania takich systemów na prawa i wolności wszystkich zainteresowanych osób, a także zabezpieczenia i warunki przewidziane na potrzeby wykorzystania takich systemów. Ponadto wykorzystanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej w celu ścigania przestępstw powinno mieć miejsce jedynie, by potwierdzić tożsamość konkretnej poszukiwanej osoby, i nie powinno wykraczać poza to, co jest bezwzględnie konieczne w odniesieniu do przedziału czasowego, a także zakresu geograficznego i podmiotowego, z uwzględnieniem w szczególności dowodów lub wskazówek dotyczących zagrożeń, ofiar lub sprawcy. Wykorzystanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej powinno być dozwolone tylko wtedy, gdy odpowiedni organ ścigania przeprowadził ocenę skutków dla praw podstawowych oraz, o ile niniejsze rozporządzenie nie stanowi inaczej, zarejestrował system w bazie danych, jak określono w niniejszym rozporządzeniu. Referencyjna baza danych osób powinna być odpowiednia dla każdego przypadku wykorzystania w każdej z wyżej wymienionych sytuacji.
(35)
Iga kord, kui reaalajas toimuva biomeetrilise kaugtuvastamise süsteemi kasutatakse avalikult juurdepääsetavas ruumis õiguskaitse eesmärgil, peaks liikmesriigi õigusasutus või sõltumatu haldusasutus, kelle otsus on siduv, andma selleks selge ja konkreetse loa. Põhimõtteliselt tuleks selline luba saada enne tehisintellektisüsteemi kasutamist isiku või isikute tuvastamiseks. Erandeid sellest reeglist tuleks lubada põhjendatud kiireloomulistes olukordades, see tähendab olukordades, kus vajadus asjaomaste süsteemide kasutamise järele on selline, et enne tehisintellektisüsteemi kasutamise algust ei ole reaalselt ega objektiivselt võimalik luba saada. Sellistes kiireloomulistes olukordades peaks tehisintellektisüsteemi kasutamine piirduma hädavajaliku miinimumiga ning selle suhtes peaksid kehtima asjakohased kaitsemeetmed ja tingimused, mis on kindlaks määratud riigisiseses õiguses ja mida õiguskaitseasutus iga individuaalse kiireloomulise kasutusjuhtumi korral täpsustab. Lisaks sellele peaks õiguskaitseasutus sellistel juhtudel kõnealust luba taotlema, põhjendades, miks ta ei saanud seda varem, põhjendamatu viivituseta ja hiljemalt 24 tunni jooksul taotleda. Kui selline luba lükatakse tagasi, tuleks selle loaga seotud reaalajas biomeetrilise tuvastamise süsteemide kasutamine viivitamata lõpetada ning kõik sellise kasutamisega seotud andmed tuleks kõrvale jätta ja kustutada. Sellised andmed hõlmavad sisendandmeid, mille tehisintellektisüsteem on sellise süsteemi kasutamise käigus vahetult saanud, ning selle loaga seotud kasutamise tulemusi ja väljundeid. See ei tohiks hõlmata sisendit, mis on saadud seaduslikult muu liidu või riigisisese õiguse kohaselt. Ühelgi juhul ei tohiks isiku suhtes kahjulikke õiguslikke tagajärgi põhjustavat otsust teha üksnes biomeetrilise kaugtuvastamise süsteemi tulemuste põhjal.
(35)
Każde wykorzystanie systemu zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej w celu ścigania przestępstw powinno wymagać wyraźnego i szczególnego zezwolenia wydanego przez organ wymiaru sprawiedliwości lub niezależny organ administracyjny państwa członkowskiego, którego decyzje są wiążące. Takie zezwolenie należy co do zasady uzyskać przed wykorzystaniem systemu AI w celu zidentyfikowania osoby lub osób. Wyjątki od tej zasady powinny być dozwolone w należycie uzasadnionych sytuacjach nadzwyczajnych, to znaczy w sytuacjach, w których potrzeba wykorzystania danego systemu jest na tyle duża, że uzyskanie zezwolenia przed rozpoczęciem korzystania z tego systemu AI jest faktycznie i obiektywnie niemożliwe. W takich sytuacjach nadzwyczajnych wykorzystanie systemu AI powinno być ograniczone do bezwzględnie niezbędnego minimum i powinno podlegać odpowiednim zabezpieczeniom i warunkom określonym w prawie krajowym i sprecyzowanym przez sam organ ścigania w kontekście każdego przypadku nadzwyczajnego wykorzystania. Ponadto organ ścigania powinien w takich sytuacjach wystąpić o takie zezwolenie, podając powody, dla których nie był w stanie wystąpić o nie wcześniej, bez zbędnej zwłoki i nie później niż w ciągu 24 godzin. W przypadku odmowy udzielenia takiego zezwolenia wykorzystywanie systemów identyfikacji biometrycznej w czasie rzeczywistym powiązanych z tym zezwoleniem powinno zostać wstrzymane ze skutkiem natychmiastowym, a wszystkie dane związane z takim wykorzystaniem powinny zostać odrzucone i usunięte. Dane takie obejmują dane wejściowe uzyskane bezpośrednio przez system AI w trakcie korzystania z takiego systemu, a także związane z tym zezwoleniem rezultaty i wyniki uzyskane podczas tego wykorzystania. Powyższe nie powinno mieć zastosowania do danych wejściowych uzyskanych legalnie zgodnie z innymi przepisami prawa Unii lub prawa krajowego. W każdym przypadku żadnej decyzji wywołującej niepożądane skutki prawne dla osoby nie należy podejmować wyłącznie na podstawie wyników uzyskanych z systemu zdalnej identyfikacji biometrycznej.
(36)
Selleks et täita oma ülesandeid kooskõlas käesolevas määruses ja riigisiseses õigusnormides sätestatud nõuetega, tuleks asjaomast turujärelevalveasutust ja riiklikku andmekaitseasutust teavitada igast reaalajas toimuva biomeetrilise tuvastamise süsteemi kasutamisest. Teavitatud turujärelevalveasutused ja riiklikud andmekaitseasutused peaksid esitama komisjonile igal aastal aruande reaalajas toimunud biomeetrilise tuvastamise süsteemide kasutamise kohta.
(36)
Aby umożliwić odpowiednim organom nadzoru rynku i krajowym organom ochrony danych wykonywanie ich zadań zgodnie z wymogami ustanowionymi w niniejszym rozporządzeniu oraz w przepisach krajowych, należy powiadamiać je o każdym wykorzystaniu systemu identyfikacji biometrycznej w czasie rzeczywistym. Organy nadzoru rynku i krajowe organy ochrony danych, które otrzymały powiadomienie, powinny przedkładać Komisji roczne sprawozdanie na temat wykorzystania systemów identyfikacji biometrycznej w czasie rzeczywistym.
(37)
Ühtlasi on käesoleva määrusega kehtestatavas ammendavas raamistikus otstarbekas ette näha, et selline kasutamine liikmesriigi territooriumil kooskõlas käesoleva määrusega peaks olema võimalik üksnes siis ja niivõrd, kuivõrd asjaomane liikmesriik on otsustanud oma riigisisese õiguse üksikasjalikes õigusnormides selgelt sätestada võimaluse sellist kasutamist lubada. Seega jääb liikmesriikidele käesoleva määruse alusel vabadus sellist võimalust üldse mitte ette näha või näha selline võimalus ette üksnes mõne eesmärgi jaoks, mille puhul on käesolevas määruses kirjeldatud lubatud kasutamine õigustatud. Sellistest riigisisestest õigusnormidest tuleks komisjonile teatada 30 päeva jooksul pärast nende vastuvõtmist.
(37)
Ponadto należy zapewnić, z zastosowaniem wyczerpujących ram określonych w niniejszym rozporządzeniu, aby takie wykorzystanie na terytorium państwa członkowskiego zgodnie z niniejszym rozporządzeniem było możliwe tylko wówczas, gdy – i w zakresie, w jakim – dane państwo członkowskie postanowiło wyraźnie przewidzieć możliwość zezwolenia na takie wykorzystanie w swoich szczegółowych przepisach prawa krajowego. W związku z tym państwa członkowskie mogą na mocy niniejszego rozporządzenia w ogóle nie przewidywać takiej możliwości lub przewidzieć ją jedynie w odniesieniu do niektórych celów mogących uzasadniać dozwolone wykorzystanie, określonych w niniejszym rozporządzeniu. Komisja powinna zostać powiadomiona o takich przepisach krajowych w terminie 30 dni od ich przyjęcia.
(38)
Tehisintellektisüsteemide kasutamine avalikult juurdepääsetavas ruumis õiguskaitse eesmärgil reaalajas toimuva füüsiliste isikute biomeetrilise kaugtuvastamise jaoks eeldab igal juhul biomeetriliste andmete töötlemist. Käesoleva määruse kohaseid õigusnorme, millega keelatakse selline kasutamine teatavate eranditega ja mis põhinevad ELi toimimise lepingu artiklil 16, tuleks kohaldada direktiivi (EL) 2016/680 artiklis 10 sätestatud biomeetriliste andmete töötlemist käsitlevate õigusnormide suhtes erinormina (lex specialis), nii et selline kasutamine ja sellega kaasnev biomeetriliste andmete töötlemine oleksid ammendavalt reguleeritud. Seega peaks selline kasutamine ja töötlemine olema võimalik üksnes siis, kui see on kooskõlas käesoleva määrusega kehtestatud raamistikuga, ning väljaspool seda raamistikku ei tohiks pädevatel asutustel olla võimalik õiguskaitse eesmärgil tegutsedes kasutada selliseid süsteeme ja töödelda sellega seoses selliseid andmeid direktiivi (EL) 2016/680 artiklis 10 loetletud põhjustel. Seoses sellega ei ole käesoleva määruse eesmärk anda õiguslikku alust isikuandmete töötlemiseks direktiivi (EL) 2016/680 artikli 8 alusel. Käesolevas määruses sätestatud eriraamistik, mis käsitleb sellist kasutamist õiguskaitse eesmärgil, ei peaks siiski hõlmama reaalajas toimuva biomeetrilise kaugtuvastamise süsteemide kasutamist avalikult juurdepääsetavas ruumis muul otstarbel kui õiguskaitse eesmärgil, ka siis, kui seda teevad pädevad asutused. Seega ei peaks sellise muul otstarbel kui õiguskaitse eesmärgil kasutamise puhul nõudma käesoleva määruse kohast luba ega selle loa rakendamiseks sätestatud üksikasjalike riigisiseste õigusnormide kohaldamist.
(38)
Wykorzystanie systemów AI do zdalnej identyfikacji biometrycznej osób fizycznych w czasie rzeczywistym w przestrzeni publicznej w celu ścigania przestępstw nieuchronnie wiąże się z przetwarzaniem danych biometrycznych. Przepisy niniejszego rozporządzenia zakazujące, z zastrzeżeniem pewnych wyjątków, takiego wykorzystywania, a których podstawę stanowi art. 16 TFUE, powinny mieć zastosowanie jako lex specialis w odniesieniu do przepisów dotyczących przetwarzania danych biometrycznych zawartych w art. 10 dyrektywy (UE) 2016/680, regulując tym samym w sposób wyczerpujący takie wykorzystywanie i przetwarzanie wspomnianych danych biometrycznych. W związku z tym takie wykorzystywanie i przetwarzanie powinno być możliwe wyłącznie w zakresie, w jakim jest zgodne z ramami określonymi w niniejszym rozporządzeniu, przy czym wykorzystywanie takich systemów i przetwarzanie takich danych przez właściwe organy – gdy działają w celu ścigania przestępstw – w oparciu o przesłanki wymienione w art. 10 dyrektywy (UE) 2016/680 może mieć miejsce wyłącznie w granicach wyznaczonych przez te ramy. W tym kontekście niniejsze rozporządzenie nie ma na celu ustanowienia podstawy prawnej do przetwarzania danych osobowych na podstawie art. 8 dyrektywy (UE) 2016/680. Wykorzystywanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów innych niż ściganie przestępstw, w tym przez właściwe organy, nie powinno być jednak objęte szczególnymi ramami dotyczącymi takiego wykorzystywania w celu ścigania przestępstw, określonymi w niniejszym rozporządzeniu. Takie wykorzystywanie do celów innych niż ściganie przestępstw nie powinno zatem podlegać wymogowi uzyskania zezwolenia na mocy niniejszego rozporządzenia ani obowiązującym szczegółowym przepisom prawa krajowego, które mogą stanowić podstawę ubiegania się o takie zezwolenie.
(39)
Igasugune biomeetriliste ja muude isikuandmete töötlemine, mis on seotud tehisintellektisüsteemide kasutamisega biomeetrilise tuvastamise jaoks, välja arvatud juhul, kui see toimub seoses käesoleva määrusega reguleeritud reaalajas toimuva biomeetrilise kaugtuvastamise süsteemide kasutamisega avalikult juurdepääsetavas ruumis õiguskaitse eesmärgil, peaks ka edaspidi vastama kõigile direktiivi (EL) 2016/680 artiklist 10 tulenevatele nõuetele. Muul otstarbel kui õiguskaitse eesmärgil kasutamise puhul on määruse (EL) 2016/679 artikli 9 lõike 1 ja määruse (EL) 2018/1725 artikli 10 lõikega 1 andmesubjekti biomeetriliste andmete töötlemine keelatud, välja arvatud nendes artiklites sätestatud piiratud eranditega. Määruse (EL) 2016/679 artikli 9 lõike 1 kohaldamisel on riiklikud andmekaitseasutused juba teinud keelava otsuse biomeetrilise kaugtuvastamise kasutamise kohta muudel kui õiguskaitse eesmärkidel.
(39)
Wszelkie przetwarzanie danych biometrycznych i innych danych osobowych związane z wykorzystaniem systemów AI do identyfikacji biometrycznej, inne niż w związku z wykorzystywaniem systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej w celu ścigania przestępstw zgodnie z przepisami niniejszego rozporządzenia, powinno pozostawać zgodne z wymogami wynikającymi z art. 10 dyrektywy (UE) 2016/680. Do celów innych niż ściganie przestępstw art. 9 ust. 1 rozporządzenia (UE) 2016/679 i art. 10 ust. 1 rozporządzenia (UE) 2018/1725 zakazują przetwarzania danych biometrycznych z uwzględnieniem ograniczonej liczby wyjątków określonych w tych artykułach. W ramach stosowania art. 9 ust. 1 rozporządzenia (UE) 2016/679 wykorzystywanie zdalnej identyfikacji biometrycznej do celów innych niż ściganie przestępstw było już przedmiotem decyzji zakazujących takiego wykorzystywania, wydawanych przez krajowe organy ochrony danych.
(40)
ELi lepingule ja ELi toimimise lepingule lisatud protokolli nr 21 (Ühendkuningriigi ja Iirimaa seisukoha kohta vabadusel, turvalisusel ja õigusel rajaneva ala suhtes) artikli 6a kohaselt ei ole käesoleva määruse artikli 5 lõike 1 esimese lõigu punktis g sätestatud normid niivõrd, kuivõrd neid kohaldatakse biomeetrilise liigitamise süsteemide kasutamise suhtes politseikoostöö ja kriminaalasjades tehtava õigusalase koostöö valdkonna tegevustes, artikli 5 lõike 1 esimese lõigu punktis d sätestatud normid niivõrd, kuivõrd neid kohaldatakse selle sättega hõlmatud tehisintellektisüsteemide kasutamise suhtes, artikli 5 lõike 1 esimese lõigu punktis h ja lõigetes 2–6 ning artikli 26 lõikes 10 kehtestatud normid, mis võeti vastu ELi toimimise lepingu artikli 16 alusel, mis käsitlevad isikuandmete töötlemist liikmesriikide poolt ELi toimimise lepingu kolmanda osa V jaotise 4. või 5. peatüki kohaldamisalasse kuuluva tegevuse puhul, kui Iirimaa suhtes ei ole siduvad normid, mis käsitlevad õigusalast koostööd kriminaalasjades või politseikoostööd, mille raames tuleb järgida ELi toimimise lepingu artikli 16 alusel kehtestatud sätteid, Iirimaa suhtes siduvad.
(40)
Zgodnie z art. 6a Protokołu nr 21 w sprawie stanowiska Zjednoczonego Królestwa i Irlandii w odniesieniu do przestrzeni wolności, bezpieczeństwa i sprawiedliwości, załączonego do TUE i TFUE, Irlandia nie jest związana przepisami ustanowionymi w art. 5 ust. 1 akapit pierwszy lit. g) – w takim zakresie, w jakim dotyczy on wykorzystania systemów kategoryzacji biometrycznej w odniesieniu do działań w obszarze współpracy policyjnej i współpracy wymiarów sprawiedliwości w sprawach karnych, w art. 5 ust. 1 akapit pierwszy lit. d) – w takim zakresie, w jakim dotyczy on wykorzystania systemów AI objętych tym przepisem, w art. 5 ust. 1 akapit pierwszy lit. h), art. 5 ust. 2–6 i art. 26 ust. 10 niniejszego rozporządzenia przyjętymi na podstawie art. 16 TFUE, dotyczącymi przetwarzania danych osobowych przez państwa członkowskie w wykonywaniu działań wchodzących w zakres stosowania części trzeciej tytuł V rozdziały 4 lub 5 TFUE, jeśli Irlandia nie jest związana przepisami Unii w dziedzinie współpracy wymiarów sprawiedliwości w sprawach karnych lub współpracy policyjnej, w ramach której należy zapewnić zgodność z przepisami ustanowionymi na podstawie art. 16 TFUE.
(41)
ELi lepingule ja ELi toimimise lepingule lisatud protokolli nr 22 (Taani seisukoha kohta) artiklite 2 ja 2a kohaselt ei ole käesoleva määruse artikli 5 lõike 1 esimese lõigu punktis g sätestatud normid niivõrd, kuivõrd neid kohaldatakse biomeetrilise liigitamise süsteemide kasutamise suhtes politseikoostöö ja kriminaalasjades tehtava õigusalase koostöö valdkonna tegevustes, artikli 5 lõike 1 esimese lõigu punktis d sätestatud normid niivõrd, kuivõrd neid kohaldatakse selle sättega hõlmatud tehisintellektisüsteemide kasutamise suhtes, artikli 5 lõike 1 esimese lõigu punktis h ja lõigetes 2–6 ning artikli 26 lõikes 10 kehtestatud normid, mis võeti vastu ELi toimimise lepingu artikli 16 alusel ja mis käsitlevad isikuandmete töötlemist liikmesriikide poolt ELi toimimise lepingu kolmanda osa V jaotise 4. või 5. peatüki kohaldamisalasse kuuluva tegevuse puhul, Taani suhtes siduvad ega kohaldatavad.
(41)
Zgodnie z art. 2 i 2a Protokołu nr 22 w sprawie stanowiska Danii, załączonego do TUE i TFUE, Dania nie jest związana przepisami określonymi w art. 5 ust. 1 akapit pierwszy lit. g) – w takim zakresie, w jakim dotyczy on wykorzystania systemów kategoryzacji biometrycznej w odniesieniu do działań w obszarze współpracy policyjnej i współpracy wymiarów sprawiedliwości w sprawach karnych, w art. 5 ust. 1 akapit pierwszy lit. d) – w takim zakresie, w jakim dotyczy on wykorzystania systemów AI objętych tym przepisem, w art. 5 ust. 1 lit. h), art. 5 ust. 2–6 i art. 26 ust. 10 niniejszego rozporządzenia przyjętymi na podstawie art. 16 TFUE, które dotyczą przetwarzania danych osobowych przez państwa członkowskie w wykonywaniu działań wchodzących w zakres zastosowania części trzeciej tytuł V rozdziały 4 lub 5 TFUE, ani przepisy te nie mają do niej zastosowania.
(42)
Kooskõlas süütuse presumptsiooniga tuleks füüsilisi isikuid liidus alati hinnata nende tegeliku käitumise põhjal. Füüsilisi isikuid ei tohiks kunagi hinnata tehisintellekti prognoosil põhineva käitumise alusel, tuginedes üksnes nende profiilianalüüsile, isikuomadustele või erijoontele, nagu rahvus, sünnikoht, elukoht, laste arv, võlatase või automark, ilma et oleks olemas põhjendatud kahtlus, et see isik on seotud kuritegeliku tegevusega, mis tugineb objektiivsetele kontrollitavatele faktidele, ja ilma inimhinnanguta. Seetõttu tuleks keelata sellised füüsiliste isikutega seotud riskihindamised, mille eesmärk on hinnata nende rikkumise tõenäosust või prognoosida tegelikku või potentsiaalset kuriteo toimepanemist üksnes nende profiilianalüüsi või tema isikuomaduste ja erijoonte hindamise alusel. Ühelgi juhul ei taheta nimetatud keeluga osutada sellisele riskianalüüsile või puudutada sellist riskianalüüsi, mis ei põhine üksikisikute profiilianalüüsil või üksikisikute isikuomadustel ja erijoontel, näiteks tehisintellektisüsteemide puhul, mis kasutavad riskianalüüsi, et hinnata ettevõtjate finantspettuse tõenäosust kahtlaste tehingute või riskianalüüsivahendite alusel, et prognoosida uimastite või ebaseaduslike kaupade tõenäolist asukohta tolli poolt, näiteks teadaolevatel salakaubaveo marsruutidel.
(42)
Zgodnie z domniemaniem niewinności osoby fizyczne w Unii powinny być zawsze oceniane na podstawie ich faktycznego zachowania. Osoby fizyczne nigdy nie powinny być oceniane na podstawie zachowań prognozowanych przez AI wyłącznie na podstawie poddania ich profilowaniu, na podstawie ich cech osobowości lub cech charakterystycznych, takich jak narodowość, miejsce urodzenia, miejsce zamieszkania, liczba dzieci, poziom zadłużenia lub rodzaj samochodu, bez uzasadnionego podejrzenia, że osoba ta uczestniczy w działalności przestępczej w oparciu o obiektywne możliwe do zweryfikowania fakty i bez ich oceny przez człowieka. W związku z tym należy zakazać ocen ryzyka przeprowadzanych w odniesieniu do osób fizycznych w celu oceny prawdopodobieństwa popełnienia przez te osoby przestępstwa lub przewidywania wystąpienia faktycznego lub potencjalnego przestępstwa wyłącznie na podstawie przeprowadzonego wobec nich profilowania lub oceny ich cech osobistych i charakterystycznych. W każdym razie zakaz ten nie odnosi się do ani nie dotyczy analizy ryzyka, która nie opiera się na profilowaniu osób fizycznych ani na cechach osobistych i charakterystycznych osób fizycznych, w takich przypadkach jak wykorzystywanie przez systemy AI analizy ryzyka w celu oceny prawdopodobieństwa nadużyć finansowych przez przedsiębiorstwa na podstawie podejrzanych transakcji lub narzędzi analizy ryzyka w celu przewidywania przez organy celne prawdopodobnej lokalizacji środków odurzających lub nielegalnych towarów, na przykład na podstawie znanych szlaków przemytu.
(43)
Keelata tuleks selliste tehisintellektisüsteemide turule laskmine, kasutusele võtmine või kasutamine, mis loovad või laiendavad näotuvastuse andmebaase internetist või videovalve salvestistest näokujutiste kindla suunitluseta ekstraheerimise kaudu, kuna see kasutusviis suurendab massilise jälgimise tunnet ja võib kaasa tuua põhiõiguste, sealhulgas eraelu puutumatuse õiguse ränga rikkumise.
(43)
Należy zakazać wprowadzania do obrotu, oddawania do użytku w tym konkretnym celu lub wykorzystywania systemów AI, które tworzą lub rozbudowują bazy danych służące rozpoznawaniu twarzy poprzez nieukierunkowane pozyskiwanie (ang. untargeted scraping) wizerunków twarzy z internetu lub nagrań z telewizji przemysłowej, ponieważ praktyka ta zwiększa poczucie masowego nadzoru i może prowadzić do poważnych naruszeń praw podstawowych, w tym prawa do prywatności.
(44)
Tõsist muret tekitab selliste tehisintellektisüsteemide teaduslik alus, mille eesmärk on tuvastada või tuletada emotsioone, eelkõige seetõttu, et emotsioonide väljendamine on kultuuride ja olukordade lõikes ning isegi ühe inimese puhul väga erinev. Selliste süsteemide peamisteks puudusteks on piiratud usaldusväärsus, spetsiifilisuse puudumine ja piiratud üldistatavus. Seetõttu võivad tehisintellektisüsteemid, mis tuvastavad või tuletavad füüsiliste isikute emotsioone või kavatsusi nende biomeetriliste andmete põhjal, viia diskrimineerivate tulemusteni ning sekkuda asjaomaste isikute õigustesse ja vabadustesse. Võttes arvesse võimu ebavõrdsust töö või hariduse kontekstis koos nende süsteemide sekkuva olemusega, võivad sellised süsteemid kaasa tuua füüsiliste isikute või nende rühmade kahjustava või ebasoodsa kohtlemise. Seetõttu tuleks keelata selliste tehisintellektisüsteemide turule laskmine, kasutusele võtmine või kasutamine, mis on ette nähtud üksikisikute emotsionaalse seisundi tuvastamiseks töökoha ja haridusega seotud olukordades. See keeld ei tohiks hõlmata tehisintellektisüsteeme, mis lastakse turule üksnes meditsiinilistel või ohutusega seotud põhjustel, näiteks terapeutiliseks kasutuseks mõeldud süsteeme.
(44)
Istnieją poważne obawy co do podstaw naukowych systemów AI mających na celu rozpoznawanie emocji lub wyciąganie wniosków na temat emocji, zwłaszcza że wyrażanie emocji znacznie się różni w zależności od kultur i sytuacji, a nawet w przypadku pojedynczej osoby. Wśród głównych wad takich systemów znajdują się ograniczona wiarygodność, nieprecyzyjność i ograniczona możliwość uogólnienia. W związku z tym systemy AI rozpoznające emocje lub zamiary osób fizycznych lub wyciągające wnioski na temat emocji lub zamiarów na podstawie danych biometrycznych tych osób mogą prowadzić do dyskryminacyjnych wyników i mogą naruszać prawa i wolności zainteresowanych osób. Biorąc pod uwagę brak równowagi sił w kontekście pracy lub edukacji, w połączeniu z inwazyjnym charakterem tych systemów, systemy takie mogą prowadzić do krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub całych ich grup. W związku z tym należy zakazać wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemów AI przeznaczonych do wykrywania stanu emocjonalnego osób fizycznych w sytuacjach związanych z miejscem pracy i edukacją. Zakaz ten nie powinien obejmować systemów AI wprowadzanych do obrotu wyłącznie ze względów medycznych lub bezpieczeństwa, takich jak systemy przeznaczone do użytku terapeutycznego.
(45)
Käesolev määrus ei tohiks mõjutada kasutusviise, mis on keelatud liidu õigusega, sealhulgas andmekaitseõiguse, diskrimineerimisvastase õiguse, tarbijakaitseõiguse ja konkurentsiõiguse alusel.
(45)
Niniejsze rozporządzenie nie powinno mieć wpływu na praktyki, które są zakazane na mocy prawa Unii, w tym prawa o ochronie danych, prawa o niedyskryminacji, prawa o ochronie konsumentów i prawa konkurencji.
(46)
Suure riskiga tehisintellektisüsteeme tohiks liidus turule lasta, kasutusele võtta või kasutada üksnes siis, kui see vastab teatavatele kohustuslikele nõuetele. Need nõuded peaksid tagama, et liidus kättesaadavad suure riskiga tehisintellektisüsteemid või tehisintellektisüsteemid, mille väljundit kasutatakse liidus muul viisil, ei kujuta endast vastuvõetamatut riski liidu õigusega tunnustatud ja kaitstud liidu oluliste avalike huvide suhtes. Uue õigusraamistiku alusel, mida on täpsustatud komisjoni 2022. aasta sinises raamatus ELi toote-eeskirjade rakendamise kohta, (20) on üldreegel, et ühe toote suhtes võib olla vaja kohaldada rohkem kui ühte liidu ühtlustamiõigusakti, näiteks Euroopa Parlamendi ja nõukogu määruseid (EL) 2017/745 (21) ja (EL) 2017/746 (22) või Euroopa Parlamendi ja nõukogu direktiivi 2006/42/EÜ, (23) kuna kättesaadavaks tegemine või kasutusele võtmine saab toimuda ainult siis, kui toode vastab kõigile kohaldatavatele liidu ühtlustamisõigusaktidele. Järjepidevuse tagamiseks ja tarbetu halduskoormuse või kulu ärahoidmiseks peaks üht või mitut suure riskiga tehisintellektisüsteemi sisaldava toote pakkujatel, mille suhtes kohaldatakse käesoleva määruse ja käesoleva määruse lisas loetletud liidu ühtlustamisõigusaktide nõudeid, olema paindlikkus operatiivsete otsuste tegemisel selle kohta, kuidas tagada üht või mitut tehisintellektisüsteemi sisaldava toote vastavus kõigile liidu ühtlustamisõigusaktidega kohaldatavatele nõuetele optimaalseimal viisil. Suure riskiga tehisintellektisüsteemideks tuleks pidada üksnes selliseid tehisintellektisüsteeme, millel on liidus oluline kahjulik mõju inimeste tervisele, turvalisusele ja põhiõigustele, ning selline piirang minimeeriks kõik võimalikud rahvusvahelise kaubanduse piirangud.
(46)
Systemy AI wysokiego ryzyka powinny być wprowadzane do obrotu w Unii, oddawane do użytku lub wykorzystywane wyłącznie wówczas, gdy są zgodne z określonymi obowiązkowymi wymogami. Wymogi te powinny zapewniać, aby systemy AI wysokiego ryzyka dostępne w Unii lub takie, których wyniki są w inny sposób wykorzystywane w Unii, nie stwarzały niedopuszczalnego ryzyka dla istotnych interesów publicznych Unii uznanych w prawie Unii i przez to prawo chronionych. W oparciu o nowe ramy prawne, jak wyjaśniono w zawiadomieniu Komisji „Niebieski przewodnik – wdrażanie unijnych przepisów dotyczących produktów 2022” (20), ogólna zasada stanowi, że do jednego produktu można stosować więcej niż jeden akt prawny unijnego prawodawstwa harmonizacyjnego, taki jak rozporządzenie Parlamentu Europejskiego i Rady (UE) 2017/745 (21), rozporządzenie Parlamentu Europejskiego i Rady (UE) 2017/746 (22) lub dyrektywa 2006/42/WE Parlamentu Europejskiego i Rady (23), ponieważ udostępnianie lub oddawanie do użytku może mieć miejsce tylko wtedy, gdy produkt jest zgodny z całością obowiązującego unijnego prawodawstwa harmonizacyjnego. Aby zapewnić spójność i uniknąć niepotrzebnych obciążeń administracyjnych lub kosztów, dostawcy produktu, który zawiera co najmniej jeden system AI wysokiego ryzyka, do którego stosuje się wymogi niniejszego rozporządzenia oraz unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku do niniejszego rozporządzenia, powinni mieć swobodę w zakresie decyzji operacyjnych dotyczących sposobu zapewnienia w optymalny sposób zgodności produktu zawierającego co najmniej jeden system AI ze wszystkimi mającymi zastosowanie wymogami unijnego prawodawstwa harmonizacyjnego. Jako systemy AI wysokiego ryzyka należy uznawać jedynie te systemy AI, które mają znaczący szkodliwy wpływ na zdrowie, bezpieczeństwo i prawa podstawowe osób w Unii, przy czym takie ograniczenie powinno minimalizować wszelkie potencjalne przeszkody w handlu międzynarodowym.
(47)
Tehisintellektisüsteemid võivad kahjustada inimeste tervist ja ohutust, eriti juhul, kui sellised süsteemid on toodete turvakomponendid. Kooskõlas liidu ühtlustamisõigusaktide eesmärkidega hõlbustada toodete vaba liikumist siseturul ja tagada, et siseturule saabuvad ainult ohutud ja muul viisil nõuetele vastavad tooted, on oluline igakülgselt ära hoida ja leevendada ohutusriske, mille toode kui tervik võib põhjustada oma digitaalsete komponentide, sealhulgas tehisintellektisüsteemide tõttu. Näiteks üha autonoomsemad robotid peaksid suutma ohutult töötada ja täita oma ülesandeid keerukates keskkondades, seda nii tootmise kui ka isikliku abi ja hoolduse valdkonnas. Samamoodi peaksid usaldusväärsed ja täpsed olema üha keerulisemad diagnostikasüsteemid ja inimeste otsuseid toetavad süsteemid tervishoiusektoris, kus on tegemist elu ja tervise seisukohast eriti oluliste otsustega.
(47)
Systemy AI mogą mieć niepożądany wpływ na zdrowie i bezpieczeństwo osób, w szczególności w przypadku gdy takie systemy funkcjonują jako związane z bezpieczeństwem elementy produktów. Zgodnie z celami unijnego prawodawstwa harmonizacyjnego, polegającymi na ułatwieniu swobodnego przepływu produktów na rynku wewnętrznym oraz zapewnieniu, aby na rynek trafiały wyłącznie produkty bezpieczne i zgodne w pozostałym zakresie, istotne jest odpowiednie zapobieganie ryzyku dla bezpieczeństwa, które mogą być powodowane przez produkt jako całość ze względu na jego elementy cyfrowe, w tym systemy AI, a także ograniczanie tych zagrożeń. Na przykład coraz bardziej autonomiczne roboty, zarówno w kontekście działalności produkcyjnej, jak i świadczenia pomocy oraz opieki osobistej, powinny być w stanie bezpiecznie funkcjonować i wykonywać swoje funkcje w złożonych środowiskach. Podobnie w sektorze opieki zdrowotnej, w którym chodzi o szczególnie wysoką stawkę, jaką jest życie i zdrowie, coraz bardziej zaawansowane systemy diagnostyczne i systemy wspomagające decyzje podejmowane przez człowieka powinny być niezawodne i dokładne.
(48)
Tehisintellektisüsteemi liigitamisel suure riskiga tehisintellektisüsteemiks on eriti oluline see, kui ulatuslik on tehisintellektisüsteemi kahjulik mõju põhiõiguste hartaga kaitstud põhiõigustele. Nende õiguste hulka kuuluvad õigus inimväärikusele, era- ja perekonnaelu austamine, isikuandmete kaitse, väljendus- ja teabevabadus, kogunemis- ja ühinemisvabadus, õigus mittediskrimineerimisele, õigus haridusele, tarbijakaitse, töötajate õigused, puuetega inimeste õigused, sooline võrdõiguslikkus, intellektuaalomandiõigus, õigus tõhusale õiguskaitsevahendile ja õiglasele kohtulikule arutamisele, õigus kaitsele, süütuse presumptsioon ja õigus heale haldusele. Lisaks nimetatud õigustele on oluline rõhutada asjaolu, et lastel on eriõigusi, mis on sätestatud põhiõiguste harta artiklis 24 ja ÜRO lapse õiguste konventsioonis, mida on põhjalikumalt käsitletud ÜRO lapse õiguste komitee üldises märkuses nr 25 digikeskkonna kohta, kusjuures mõlema dokumendi kohaselt tuleb arvesse võtta laste haavatavust ja näha ette nende heaoluks vajalik kaitse ja hoolitsus. Hinnates, kui tõsist kahju võib tehisintellektisüsteem põhjustada, muu hulgas inimeste tervise ja ohutuse vallas, tuleks kaaluda ka põhiõiguste hartas sätestatud ja liidu poliitikameetmetega rakendatud põhiõigust kõrgetasemelisele keskkonnakaitsele.
(48)
Przy klasyfikowaniu systemu AI jako systemu wysokiego ryzyka zasadnicze znaczenie ma to, w jakim stopniu system AI wywiera niepożądany wpływ na prawa podstawowe chronione na mocy Karty. Do praw tych należą prawo do godności człowieka, poszanowanie życia prywatnego i rodzinnego, ochrona danych osobowych, wolność wypowiedzi i informacji, wolność zgromadzania się i stowarzyszania się oraz prawo do niedyskryminacji, prawo do edukacji, ochrona konsumentów, prawa pracownicze, prawa osób z niepełnosprawnościami, równość płci, prawa własności intelektualnej, prawo do skutecznego środka prawnego i dostępu do bezstronnego sądu, prawo do obrony i domniemania niewinności, a także prawo do dobrej administracji. Oprócz tych praw należy podkreślić, że dzieciom przysługują szczególne prawa zapisane w art. 24 Karty oraz w Konwencji ONZ o prawach dziecka, szerzej rozwinięte w komentarzu ogólnym nr 25 w sprawie praw dziecka w środowisku cyfrowym zamieszczony w Konwencji ONZ o prawach dziecka, które to prawa wymagają uwzględnienia szczególnej wrażliwości dzieci oraz zapewnienia im takiej ochrony i opieki, jaka jest konieczna dla ich dobra. Podstawowe prawo do wysokiego poziomu ochrony środowiska zapisane w Karcie i wdrażane w strategiach politycznych Unii również należy uwzględnić w ocenie dotkliwości szkody, jaką może wyrządzić system AI, w tym w odniesieniu do zdrowia i bezpieczeństwa osób.
(49)
Mis puudutab suure riskiga tehisintellektisüsteeme, mis on toodete või süsteemide turvakomponendid või mis on ise tooted või süsteemid, mis kuuluvad Euroopa Parlamendi ja nõukogu määruse (EÜ) nr 300/2008, (24) Euroopa Parlamendi ja nõukogu määruse (EL) nr 167/2013, (25) Euroopa Parlamendi ja nõukogu määruse (EL) nr 168/2013, (26) Euroopa Parlamendi ja nõukogu direktiivi 2014/90/EL, (27) Euroopa Parlamendi ja nõukogu direktiivi (EL) 2016/797 (28), Euroopa Parlamendi ja nõukogu määruse (EL) 2018/858, (29) Euroopa Parlamendi ja nõukogu määruse (EL) 2018/1139 (30) ja Euroopa Parlamendi ja nõukogu määruse (EL) 2019/2144 (31) kohaldamisalasse, siis on asjakohane muuta kõnealuseid õigusakte tagamaks, et kui komisjon võtab nimetatud õigusaktide alusel vastu asjaomaseid delegeeritud või rakendusakte, võtab ta arvesse käesolevas määruses suure riskiga tehisintellektisüsteemide kohta sätestatud kohustuslikke nõudeid, tuginedes iga sektori tehnilistele ja regulatiivsetele iseärasustele ja ilma, et ta sekkuks nende õigusaktidega kehtestatud olemasolevatesse juhtimis-, vastavushindamis- ja jõustamismehhanismidesse või -asutustesse.
(49)
W odniesieniu do systemów AI wysokiego ryzyka, które są związanymi z bezpieczeństwem elementami produktów lub systemów objętych zakresem stosowania rozporządzenia Parlamentu Europejskiego i Rady (WE) nr 300/2008 (24), rozporządzenia Parlamentu Europejskiego i Rady (UE) nr 167/2013 (25), rozporządzenia Parlamentu Europejskiego i Rady (UE) nr 168/2013 (26), dyrektywy Parlamentu Europejskiego i Rady 2014/90/UE (27), dyrektywy Parlamentu Europejskiego i Rady (UE) 2016/797 (28), rozporządzenia Parlamentu Europejskiego i Rady (UE) 2018/858 (29), rozporządzenia Parlamentu Europejskiego i Rady (UE) 2018/1139 (30) oraz rozporządzenia Parlamentu Europejskiego i Rady (UE) 2019/2144 (31) lub które same są takimi produktami lub systemami, wskazane jest dokonanie zmian tych aktów w celu zapewnienia, aby Komisja, przyjmując wszelkie stosowne akty delegowane lub wykonawcze na podstawie wspomnianych aktów, uwzględniła – w oparciu o techniczną i regulacyjną charakterystykę każdego sektora oraz bez ingerowania w istniejące mechanizmy zarządzania, oceny zgodności i egzekwowania oraz w powołane na mocy tych aktów organy – obowiązkowe wymogi dotyczące systemów AI wysokiego ryzyka ustanowione w niniejszym rozporządzeniu.
(50)
Tehisintellektisüsteemid, mis on toodete turvakomponendid või mis on ise tooted, mis kuuluvad teatavate käesoleva määruse lisas loetletud liidu ühtlustamisõigusaktide kohaldamisalasse, on asjakohane liigitada käesoleva määruse alusel suure riskiga tehisintellektisüsteemideks, kui asjaomane toode läbib vastavushindamismenetluse kolmandast isikust vastavushindamisasutuses vastavalt asjaomastele liidu ühtlustamisõigusaktidele. Sellised tooted on eeskätt masinad, mänguasjad, liftid, plahvatusohtlikus keskkonnas kasutatavad seadmed ja kaitsesüsteemid, raadioseadmed, surveseadmed, lõbusõidulaevade varustus, köisteed, küttegaasiseadmed, meditsiiniseadmed, in vitro diagnostika meditsiiniseadmed, lennundus ja autotööstus.
(50)
W przypadku systemów AI, które są związanymi z bezpieczeństwem elementami produktów objętych zakresem stosowania niektórych przepisów unijnego prawodawstwa harmonizacyjnego wymienionych w załączniku do niemniejszego rozporządzenia lub które same są takimi produktami, systemy te należy klasyfikować jako systemy wysokiego ryzyka zgodnie z niniejszym rozporządzeniem, jeżeli dany produkt jest poddawany procedurze oceny zgodności przez jednostkę oceniającą zgodność będącą stroną trzecią na podstawie tych stosownych przepisów unijnego prawodawstwa harmonizacyjnego. W szczególności produktami takimi są maszyny, zabawki, dźwigi, urządzenia i systemy ochronne przeznaczone do użytku w atmosferze potencjalnie wybuchowej, urządzenia radiowe, urządzenia ciśnieniowe, wyposażenie rekreacyjnych jednostek pływających, urządzenia kolei linowych, urządzenia spalające paliwa gazowe, wyroby medyczne, wyroby medyczne do diagnostyki in vitro, motoryzacja i lotnictwo.
(51)
See, kui tehisintellektisüsteem liigitatakse käesoleva määruse alusel suure riskiga tehisintellektisüsteemiks, ei peaks ilmtingimata tähendama, et toodet, mille turvakomponent see tehisintellektisüsteem on, või tehisintellektisüsteemi ennast kui toodet peetakse suure riskiga tooteks vastavalt selle toote suhtes kohaldatavate asjaomaste liidu ühtlustamisõigusaktidega kehtestatud kriteeriumidele. Esmajoones puudutab see määruseid (EL) 2017/745 ja (EL) 2017/746, kui keskmise ja suure riskiga toodete puhul on ette nähtud kolmanda isiku tehtav vastavushindamine.
(51)
Klasyfikacja systemu AI jako systemu wysokiego ryzyka na podstawie niniejszego rozporządzenia nie powinna koniecznie oznaczać, że produkt, którego związanym z bezpieczeństwem elementem jest system AI, lub sam system AI jako produkt uznaje się za produkt „wysokiego ryzyka” zgodnie z kryteriami ustanowionymi w stosownym unijnym prawodawstwie harmonizacyjnym, które stosuje się do tego produktu. Dotyczy to w szczególności rozporządzeń (UE) 2017/745 i (UE) 2017/746, w przypadku gdy ocenę zgodności przeprowadza strona trzecia w odniesieniu do produktów średniego i wysokiego ryzyka.
(52)
Autonoomsed tehisintellektisüsteemid, nimelt suure riskiga tehisintellektisüsteemid, mis ei ole toodete turvakomponendid või mis on ise tooted, on asjakohane liigitada suure riskiga tehisintellektisüsteemideks, kui need põhjustavad oma sihtotstarbe tõttu suure riski inimeste tervisele ja ohutusele või põhiõigustele, võttes arvesse nii võimaliku kahju raskusastet kui ka selle tekkimise tõenäosust, ja kui neid kasutatakse käesolevas määruses eelnevalt täpselt kindlaks määratud valdkondades. Nende süsteemide kindlakstegemine põhineb samadel meetoditel ja kriteeriumidel, mida on kavas kohaldada suure riskiga tehisintellektisüsteemide loetelu tulevaste võimalike muudatuste suhtes, mida komisjonil peaks olema õigus delegeeritud õigusaktidega vastu võtta, et arvestada tehnoloogia kiire arengu ja võimalikke muutustega tehisintellektisüsteemide kasutamises.
(52)
W odniesieniu do samodzielnych systemów AI, a mianowicie systemów AI wysokiego ryzyka inne niż te, które są związanymi z bezpieczeństwem elementami produktów lub które same są produktami, należy je klasyfikować jako systemy wysokiego ryzyka, jeżeli w związku z ich przeznaczeniem stwarzają one wysokie ryzyko szkody dla zdrowia i bezpieczeństwa lub praw podstawowych osób, biorąc pod uwagę zarówno dotkliwość potencjalnych szkód, jak i prawdopodobieństwo ich wystąpienia, oraz jeżeli są one wykorzystywane w szeregu ściśle określonych z góry obszarów wskazanych w niniejszym rozporządzeniu. Identyfikacja tych systemów opiera się na tej samej metodyce i kryteriach przewidzianych również w odniesieniu do wszelkich przyszłych zmian w wykazie systemów AI wysokiego ryzyka, do przyjmowania których – w drodze aktów delegowanych – powinna być uprawniona Komisja, aby uwzględniać szybkie tempo rozwoju technologicznego, a także potencjalne zmiany w wykorzystaniu systemów AI.
(53)
Samuti on oluline selgitada, et võib esineda konkreetseid juhtumeid, kus käesolevas määruses eelnevalt kindlaksmääratud valdkondades kasutatavad tehisintellektisüsteemid ei too kaasa olulist riski nendes valdkondades kaitstavatele õiguslikele huvidele, sest need ei mõjuta oluliselt otsuste tegemist ega kahjusta neid huve oluliselt. Käesoleva määruse kohaldamisel tuleks tehisintellektisüsteemi, mis ei mõjuta oluliselt otsuste tegemise tulemust, käsitada tehisintellektisüsteemina, mis ei mõjuta inim- ega automatiseeritud otsuste tegemise sisu ja seega ka tulemust. Tehisintellektisüsteem, mis ei mõjuta oluliselt otsuste tegemise tulemust, võib hõlmata olukordi, kus on täidetud üks või mitu järgmistest tingimustest. Esimene selline tingimus peaks olema see, et tehisintellektisüsteem on ette nähtud kitsa protseduurilise ülesande täitmiseks, näiteks selline tehisintellektisüsteem, mis muudab struktureerimata andmed struktureeritud andmeteks, tehisintellektisüsteem, mis liigitab sissetulevad dokumendid kategooriatesse, või tehisintellektisüsteem, mida kasutatakse duplikaatide avastamiseks paljude avalduste seas. Need ülesanded on nii kitsad ja piiratud iseloomuga, et nendega kaasnevad vaid piiratud riskid, mida ei suurenda tehisintellektisüsteemi kasutamine kontekstis, mis on loetletud käesoleva määruse lisas suure riskiga kasutusena. Teine tingimus peaks olema see, et tehisintellektisüsteemi täidetava ülesande eesmärk on parandada varem lõpule viidud inimtegevuse tulemusi, mis võivad olla käesoleva määruse lisas loetletud suure riskiga kasutuse seisukohalt asjakohased. Kui neid omadusi silmas pidada, siis lisab tehisintellektisüsteem inimtegevusele üksnes täiendava kihi, mistõttu on risk väiksem. Seda tingimust kohaldataks näiteks tehisintellektisüsteemide suhtes, mille eesmärk on parandada varem koostatud dokumentides kasutatavat keelt, näiteks seoses tooni ametlikkuse, akadeemilise keelestiiliga või teksti vastavusse viimisega teatava kaubamärgisõnumiga. Kolmas tingimus peaks olema see, et tehisintellektisüsteem on ette nähtud otsuste tegemise mustrite või varasematest otsustusmustritest kõrvalekallete tuvastamiseks. Risk väheneks, sest tehisintellektisüsteemi kasutamine järgneb varem lõpule viidud inimhindamisele, mida ei kavatseta asendada ega mõjutada ilma nõuetekohase inimkontrollita. Sellise tehisintellektisüsteemi alla käib näiteks see, kui õpetaja teatavat hindamismustrit arvesse võttes saab tagantjärele kontrollida, kas õpetaja võis hindamismustrist kõrvale kalduda, et võimalikele vastuoludele või kõrvalekalletele tähelepanu juhtida. Neljas tingimus peaks olema, et tehisintellektisüsteem on ette nähtud täitma ülesannet, mis üksnes valmistab ette käesoleva määruse lisas loetletud tehisintellektisüsteemidega seotud hindamist, mistõttu on süsteemi väljundi võimalik mõju seoses järgneva hindamisega seotud riskiga väga madal. See tingimus hõlmab muu hulgas arukaid lahendusi dokumentide käitlemiseks, mille seas on mitmesugused funktsioonid alates indekseerimisest, otsingust, teksti- ja kõnetöötlusest või andmete sidumisest muude andmeallikatega, või tehisintellektisüsteeme, mida kasutatakse algdokumentide tõlkimiseks. Igal juhul tuleb silmas pidada, et risk, et käesoleva määruse lisas loetletud suure riskiga kasutusega tehisintellektisüsteemid põhjustavad tervisele, turvalisusele või põhiõigustele kahju, on oluline, kui tehisintellektisüsteem hõlmab profiilianalüüsi määruse (EL) 2016/679 artikli 4 punkti 4 või direktiivi (EL) 2016/680 artikli 3 punkti 4 või määruse (EL) 2018/1725 artikli 3 punkti 5 tähenduses. Jälgitavuse ja läbipaistvuse tagamiseks peaks pakkuja, kes leiab, et tehisintellektisüsteem ei ole eespool osutatud tingimuste alusel suure riskiga, koostama enne süsteemi turule laskmist või kasutusele võtmist hindamise dokumentatsiooni ning esitama kõnealuse nõudmise korral riikide pädevatele asutustele. Selline pakkuja peaks olema kohustatud registreerima tehisintellektisüsteemi käesoleva määruse alusel loodud ELi andmebaasis. Selleks et anda täiendavaid suuniseid selliste tingimuste praktiliseks rakendamiseks, mille alusel käesoleva määruse lisas loetletud suure riskiga tehisintellektisüsteemid ei ole erandjuhul suure riskiga, peaks komisjon pärast nõukojaga konsulteerimist esitama suunised, milles täpsustatakse, et praktilisele rakendamisele lisatakse nii suure riskiga tehisintellektisüsteemide kasutusjuhtumite praktiliste näidete põhjalik loetelu kui ka selliste tehisintellektisüsteemide, mis ei ole suure riskiga, kasutusjuhtumite praktiliste näidete põhjalik loetelu.
(53)
Ważne jest również wyjaśnienie, że mogą istnieć szczególne przypadki, w których systemy AI odnoszące się do z góry określonych obszarów wskazanych w niniejszym rozporządzeniu nie prowadzą do znaczącego ryzyka szkody dla interesów prawnych chronionych w tych obszarach, ponieważ nie mają istotnego wpływu na proces decyzyjny lub nie szkodzą tym interesom w istotny sposób. Do celów niniejszego rozporządzenia system AI, który nie ma istotnego wpływu na wynik procesu decyzyjnego, należy rozumieć jako system AI, który nie ma wpływu na istotę, a tym samym na wynik procesu decyzyjnego, zarówno przeprowadzanego przez człowieka, jak i w sposób zautomatyzowany. System AI, który nie ma istotnego wpływu na wynik procesu decyzyjnego, może obejmować sytuacje, w których spełniony jest co najmniej jeden z poniższych warunków. Pierwszym takim warunkiem powinno być to, aby system AI miał na celu wykonywanie wąsko określonych zadań proceduralnych – jak np. system AI, który przekształca nieustrukturyzowane dane w dane ustrukturyzowane, system AI kategoryzujący przychodzące dokumenty lub system AI wykorzystywany do wykrywania duplikatów w dużej liczbie zastosowań. Zadania te mają tak wąski i ograniczony charakter, że stwarzają jedynie ograniczone ryzyko, które nie wzrasta w wyniku wykorzystania systemu AI w kontekście wymienionym w wykazie przypadków wykorzystania wysokiego ryzyka zamieszczonym w załączniku do niniejszego rozporządzenia. Drugim warunkiem powinno być to, aby zadanie wykonywane przez system AI miało na celu poprawę wyników już zakończonego działania przeprowadzonego przez człowieka, które może być istotne w kontekście celów przypadków wykorzystania wysokiego ryzyka, wymienionych w załączniku do niniejszego rozporządzenia. Biorąc pod uwagę te cechy, system AI uzupełnia jedynie działanie człowieka, co w konsekwencji wiąże się z niższym ryzykiem. Warunek ten miałby zastosowanie na przykład do systemów AI, które mają na celu językową korektę przygotowanych wcześniej dokumentów, na przykład by wprowadzić profesjonalny ton, styl akademicki lub by dostosować tekst do określonego przekazu marki. Trzecim warunkiem powinno być to, aby system AI miał na celu wykrywanie wzorców podejmowania decyzji lub odstępstw od wzorców podjętych uprzednio decyzji. W tym przypadku ryzyko byłoby mniejsze, ponieważ system AI wykorzystuje się po przeprowadzeniu oceny przez człowieka i nie służy on temu, by ją zastąpić lub na nią wpłynąć bez przeprowadzenia właściwej weryfikacji przez człowieka. Takie systemy AI obejmują na przykład te, które – uwzględniając określony wzorzec oceniania stosowany przez nauczyciela – mogą być wykorzystywane ex post, by sprawdzić, czy nauczyciel nie odszedł od stosowanego wzorca, i w ten sposób wskazać potencjalne niespójności lub nieprawidłowości. Czwartym warunkiem powinno być to, by system AI był przeznaczony jedynie do wykonywania zadań przygotowawczych w kontekście oceny istotnej z punktu widzenia systemów AI wymienionych w załączniku do niniejszego rozporządzenia, co sprawi, że podczas mającej nastąpić oceny prawdopodobieństwo stwierdzenia ryzyka w kontekście wyników systemu będzie bardzo niskie. Mowa tu między innymi o inteligentnych rozwiązaniach w zakresie zarządzania plikami, które obejmują różne funkcje, takie jak indeksowanie, przeszukiwanie, przetwarzanie tekstów i mowy lub łączenie danych z innymi źródłami danych, lub o systemach AI wykorzystywanych do tłumaczenia dokumentów wstępnych. W każdym przypadku systemy AI wykorzystywane w przypadkach wykorzystania wysokiego ryzyka, wymienionych w załączniku do niniejszego rozporządzenia, należy uznać za stwarzające znaczące ryzyko szkody dla zdrowia, bezpieczeństwa lub praw podstawowych, jeżeli dany system AI wiąże się z profilowaniem w rozumieniu art. 4 pkt 4 rozporządzenia (UE) 2016/679 lub art. 3 pkt 4 dyrektywy (UE) 2016/680 lub art. 3 pkt 5 rozporządzenia (UE) 2018/1725. Aby zapewnić identyfikowalność i przejrzystość, dostawca, który na podstawie warunków, o których mowa powyżej, uważa, że system AI nie jest systemem wysokiego ryzyka, powinien sporządzić dokumentację oceny przed wprowadzeniem tego systemu do obrotu lub oddaniem go do użytku i przekazać tę dokumentację na wniosek właściwym organom krajowym. Taki dostawca powinien być zobowiązany do zarejestrowania systemu AI w bazie danych UE ustanowionej na mocy niniejszego rozporządzenia. By zapewnić dalsze wskazówki dotyczące praktycznego wdrażania warunków, na jakich systemy AI wymienione w załączniku do niniejszego rozporządzenia są, w drodze wyjątku, uznawane za niebędące systemami wysokiego ryzyka, Komisja powinna, po konsultacji z Radą ds. AI, przedstawić wytyczne w sprawie tego praktycznego wdrażania, uzupełnione wyczerpującym wykazem praktycznych przypadków wykorzystania systemów AI, które stanowią przypadki wykorzystania wysokiego ryzyka oraz które nie stanowią przypadków takiego wykorzystania.
(54)
Kuna biomeetrilised andmed on isikuandmete eriliik, on asjakohane liigitada mitmed biomeetriliste süsteemide kriitilised kasutusjuhtumid kõrge riskiga kategooriateks, kui nende kasutamine on asjaomase liidu ja riigisisese õigusega lubatud. Füüsiliste isikute biomeetrilise kaugtuvastamise jaoks mõeldud tehisintellektisüsteemide tehniline ebatäpsus võib kaasa tuua tulemuste kallutatuse ja põhjustada diskrimineerimist. Kallutatud tulemuste ja diskrimineeriva mõju risk on eriti arvestatav seoses vanuse, etnilise päritolu, rassi, soo või puuetega. Võttes arvesse riske, mida biomeetrilise kaugtuvastamise süsteemid põhjustavad, tuleks need sellest lähtuvalt liigitada suure riskiga süsteemideks. Selline klassifikatsioon ei hõlma tehisintellektisüsteeme, mis on ette nähtud biomeetriliseks kontrolliks, kaasa arvatud autentimiseks, mille ainus eesmärk on kinnitada, et konkreetne füüsiline isik on isik, kes ta väidab end olevat, ning kinnitada füüsilise isiku isikusamasust üksnes selleks, et saada juurdepääs teenusele, avada seade või saada juurdepääsuluba ruumidesse sisenemiseks. Lisaks tuleks suure riskiga tehisintellektisüsteemideks liigitada tehisintellektisüsteemid, mis on ette nähtud biomeetriliseks liigitamiseks määruse (EL) 2016/679 artikli 9 lõikega 1 kaitstud tundlike atribuutide või erijoonte alusel, mis põhinevad biomeetrilistel andmetel, kui need ei ole käesoleva määrusega keelatud, ja emotsioonituvastussüsteemid, mis ei ole käesoleva määrusega keelatud. Biomeetrilisi süsteeme, mis on ette nähtud üksnes küberturvalisuse ja isikuandmete kaitse meetmete võimaldamiseks, ei tohiks pidada suure riskiga tehisintellektisüsteemideks.
(54)
Ponieważ dane biometryczne stanowią szczególną kategorię danych osobowych, kilka krytycznych przypadków wykorzystania systemów biometrycznych należy zaklasyfikować jako obarczone wysokim ryzykiem, o ile ich wykorzystywanie jest dozwolone na mocy odpowiednich przepisów prawa Unii i prawa krajowego. Techniczne niedokładności systemów AI przeznaczonych do zdalnej identyfikacji biometrycznej osób fizycznych mogą prowadzić do nieobiektywnych wyników i wywoływać skutki w postaci dyskryminacji. Ryzyko wystąpienia takich nieobiektywnych wyników i skutków w postaci dyskryminacji jest szczególnie istotne w odniesieniu do wieku, pochodzenia etnicznego, rasy, płci lub niepełnosprawności. Systemy zdalnej identyfikacji biometrycznej należy zatem zaklasyfikować jako systemy wysokiego ryzyka ze względu na ryzyko, jakie stwarzają. Do tej kategorii nie należą systemy AI przeznaczone do weryfikacji biometrycznej, w tym uwierzytelniania, prowadzonej jedynie w celu potwierdzenia, że dana osoba fizyczna jest tą osobą, za którą się podaje, oraz potwierdzenia tożsamości osoby fizycznej wyłącznie w celu uzyskania dostępu do usługi, uruchomienia urządzenia lub uzyskania bezpiecznego dostępu do pomieszczeń. Ponadto jako systemy wysokiego ryzyka należy zaklasyfikować systemy AI przeznaczone do kategoryzacji biometrycznej na podstawie danych biometrycznych według wrażliwych atrybutów lub cech chronionych na podstawie art. 9 ust. 1 rozporządzenia (UE) 2016/679, o ile nie są one zakazane na mocy niniejszego rozporządzenia, oraz systemy rozpoznawania emocji, które nie są zakazane na mocy niniejszego rozporządzenia. Za systemy AI wysokiego ryzyka nie należy uznawać systemów biometrycznych, które są przeznaczone wyłącznie do tego, by umożliwić stosowanie środków na rzecz cyberbezpieczeństwa i ochrony danych osobowych.
(55)
Elutähtsa taristu juhtimise ja käitamise osas on otstarbekas liigitada suure riskiga tehisintellektisüsteemiks need tehisintellektisüsteemid, mis on mõeldud kasutamiseks direktiivi(EL) 2022/2557 lisa punktis 8 loetletud elutähtsa digitaristu, maanteeliikluse ning vee, gaasi, kütteenergia ja elektri tarnimise korraldamise ja käitamise turvakomponentidena, sest nende rike või talitlushäire võib seada ohtu paljude inimeste elu ja tervise ning põhjustada märgatavaid häireid tavapärases sotsiaalses ja majandustegevuses. Elutähtsa taristu, sealhulgas elutähtsa digitaristu turvakomponendid on süsteemid, mida kasutatakse elutähtsa taristu füüsilise puutumatuse või inimeste tervise ja ohutuse ning vara otseseks kaitsmiseks, kuid mis ei ole süsteemi toimimiseks vajalikud. Selliste komponentide rike või talitlushäire võib otseselt ohustada elutähtsa taristu füüsilist puutumatust ning võib seega kujutada ohtu inimeste tervisele ja ohutusele ning varale. Üksnes küberturvalisuse tagamiseks mõeldud komponente ei tohiks käsitada turvakomponentidena. Sellise elutähtsa taristu turvakomponendid on näiteks veesurve seiresüsteemid või tulekahjuhäire juhtimissüsteemid pilvandmetöötluse keskustes.
(55)
W odniesieniu do zarządzania infrastrukturą krytyczną i jej działania jako systemy wysokiego ryzyka należy klasyfikować systemy AI, które są przeznaczone do wykorzystania jako związane z bezpieczeństwem elementy procesów zarządzania i działania w przypadku krytycznej infrastruktury cyfrowej wymienionej w pkt 8 załącznika do dyrektywy (UE) 2022/2557, ruchu drogowego i zaopatrzenia w wodę, gaz, ciepło i energię elektryczną, ponieważ ich awaria lub nieprawidłowe działanie mogą stworzyć ryzyko dla życia i zdrowia osób na dużą skalę i prowadzić do znacznych zakłóceń w zwykłym prowadzeniu działalności społecznej i gospodarczej. Związane z bezpieczeństwem elementy infrastruktury krytycznej, w tym krytycznej infrastruktury cyfrowej, to systemy, które są wykorzystywane do bezpośredniej ochrony fizycznej integralności infrastruktury krytycznej lub zdrowia i bezpieczeństwa osób i mienia, ale które nie są konieczne do funkcjonowania systemu. Awaria lub nieprawidłowe działanie takich elementów mogą bezpośrednio prowadzić do ryzyka dla fizycznej integralności infrastruktury krytycznej, a co za tym idzie, do ryzyka dla zdrowia i bezpieczeństwa osób i mienia. Elementów przeznaczonych wyłącznie do celów cyberbezpieczeństwa nie należy kwalifikować jako związanych z bezpieczeństwem elementów. Przykładami związanych z bezpieczeństwem elementów takiej infrastruktury krytycznej są systemy monitorowania ciśnienia wody lub systemy sterowania alarmem przeciwpożarowym w centrach przetwarzania danych w chmurze (ang. cloud computing centres).
(56)
Tähtis on juurutada tehisintellektisüsteeme hariduses, et edendada kvaliteetset digiõpet ja -koolitust ning võimaldada kõigil õppijatel ja õpetajatel omandada ja jagada vajalikke digioskusi ja -pädevusi, sealhulgas meediapädevust ja kriitilist mõtlemist, et osaleda aktiivselt majanduses, ühiskonnas ja demokraatlikes protsessides. Kuid tehisintellektisüsteemid, mida kasutatakse hariduses või kutseõppes, eelkõige selleks, et otsustada juurdepääs või vastuvõtmine, isikute määramine haridus- ja kutseõppeasutustesse või -programmidesse kõikidel tasanditel, hinnata isikute õpitulemusi, hinnata üksikisiku asjakohast haridustaset ja oluliselt mõjutada haridus- ja koolitustaset, mida inimestele pakutakse või millele nad saavad juurde pääseda, või jälgida ja avastada õpilaste keelatud käitumist katsete ajal, tuleks liigitada suure riskiga tehisintellektisüsteemideks, sest need võivad otsustada inimese haridusliku ja kutsealase käekäigu ning mõjutada seega selle inimese toimetulekut. Kui sellised süsteemid ei ole korrektselt projekteeritud või kui neid ei kasutata korrektselt, võivad need olla eriti sekkuvad ja rikkuda õigust haridusele ja koolitusele, aga ka õigust mitte olla diskrimineeritud, ning põlistada aegade jooksul välja kujunenud diskrimineerimismustreid, näiteks naiste, teatavate vanuserühmade, puuetega inimeste või teatava rassilise või etnilise päritoluga või seksuaalse sättumusega inimeste vastu.
(56)
Wdrażanie systemów AI w edukacji jest ważne, by promować wysokiej jakości kształcenie i szkolenie cyfrowe oraz by umożliwić wszystkim osobom uczącym się i nauczycielom zdobywanie niezbędnych umiejętności i kompetencji cyfrowych, w tym umiejętności korzystania z mediów, i krytycznego myślenia oraz dzielenie się tymi umiejętnościami i kompetencjami, z myślą o aktywnym udziale w gospodarce, społeczeństwie i procesach demokratycznych. Jako systemy AI wysokiego ryzyka należy natomiast zaklasyfikować systemy AI wykorzystywane w obszarze edukacji lub szkolenia zawodowego – w szczególności przeznaczone do celów podejmowania decyzji o dostępie lub przyjęciu do instytucji edukacyjnych i instytucji szkolenia zawodowego lub programów edukacyjnych lub szkolenia zawodowego na wszystkich poziomach lub do przydzielania osób do tych instytucji lub programów, do oceniania wyników nauki osób, do oceniania odpowiedniego poziomu wykształcenia i istotnego oddziaływania na poziom wykształcenia i szkolenia, jaki dana osoba fizyczna otrzyma lub do jakiego będzie mogła mieć dostęp, lub do monitorowania i wykrywania zabronionego zachowania uczniów podczas testów – ponieważ systemy te mogą decydować o przebiegu kształcenia i kariery zawodowej danej osoby, a tym samym mogą wpływać na jej zdolność do zapewnienia sobie źródła utrzymania. Takie systemy, jeżeli są niewłaściwie zaprojektowane i wykorzystywane, mogą być szczególnie inwazyjne i naruszać prawo do kształcenia i szkolenia, a także prawo do niedyskryminacji oraz mogą utrwalać historyczne wzorce dyskryminacji, na przykład wobec kobiet, niektórych grup wiekowych, osób z niepełnosprawnościami lub osób o określonym pochodzeniu rasowym lub etnicznym bądź określonej orientacji seksualnej.
(57)
Suure riskiga tehisintellektisüsteemideks tuleks liigitada ka tehisintellektisüsteemid, mida kasutatakse tööhõive, töötajate juhtimise ja iseenda tööandjana tegutsemise võimaluste valdkonnas, eeskätt inimeste töölevõtmiseks ja väljavalimiseks, tööalase suhte edendamise ja tööga seotud lepingulise suhte lõpetamise tingimusi mõjutavate otsuste tegemiseks, ülesannete jagamiseks isiku käitumise või isikuomaduste või erijoonte põhjal ning tööga seotud lepingulistes suhetes olevate isikute jälgimiseks või hindamiseks, sest need süsteemid võivad märkimisväärselt mõjutada nende isikute tulevasi karjääriväljavaateid, toimetulekut ja töötajate õigusi. Asjaomased tööga seotud lepingulised suhted peaksid sisuliselt käima ka selliste töötajate ja isikute kohta, kes osutavad teenuseid platvormide kaudu, nagu on nimetatud komisjoni 2021. aasta tööprogrammis. Töölevõtmisprotsessi käigus ning tööga seotud lepingulistes suhetes olevate isikute hindamisel, edutamisel või töösuhte jätkamisel võivad sellised süsteemid põlistada aegade jooksul välja kujunenud diskrimineerimismustreid, mis on suunatud näiteks naiste, teatavate vanuserühmade, puuetega inimeste või teatava rassilise või etnilise päritolu või seksuaalse sättumusega isikute vastu. Tehisintellektisüsteemid, mida kasutatakse selliste isikute töötulemuste ja käitumise jälgimiseks, võivad kahjustada ka nende põhiõigusi andmekaitsele ja privaatsusele.
(57)
Systemy AI wykorzystywane w obszarze zatrudnienia, zarządzania pracownikami i dostępu do samozatrudnienia, w szczególności do rekrutacji i wyboru kandydatów, do podejmowania decyzji mających wpływ na warunki stosunków pracy, decyzji o awansie i rozwiązaniu umownego stosunku pracy, do spersonalizowanego przydzielania zadań w oparciu o indywidualne zachowania, cechy osobowości lub charakter i do monitorowania lub oceny osób pozostających w umownych stosunkach pracy, należy również zaklasyfikować jako systemy wysokiego ryzyka, ponieważ systemy te mogą w znacznym stopniu wpływać na przyszłe perspektywy zawodowe, źródła utrzymania tych osób i prawa pracownicze. Odpowiednie umowne stosunki pracy powinny w znaczący sposób obejmować pracowników i osoby pracujące za pośrednictwem platform internetowych, o czym mowa w programie prac Komisji na 2021 r. W całym procesie rekrutacji oraz w ramach oceniania, awansowania lub utrzymywania na stanowisku osób pozostających w umownych stosunkach pracy systemy takie mogą utrwalać historyczne wzorce dyskryminacji, na przykład wobec kobiet, niektórych grup wiekowych, osób z niepełnosprawnościami lub osób o określonym pochodzeniu rasowym lub etnicznym lub o określonej orientacji seksualnej. Systemy AI wykorzystywane do monitorowania wydajności i zachowania takich osób mogą również podważać ich prawa podstawowe w zakresie ochrony danych i prywatności.
(58)
Veel üks valdkond, milles tuleks tehisintellektisüsteemide kasutamisele erilist tähelepanu pöörata, on teatavate selliste oluliste era- ja avalike teenuste ja hüvede kättesaadavus ja kasutamine, mida inimesed vajavad, et ühiskonnas täielikult osaleda või oma elatustaset parandada. Eelkõige sõltuvad kõnealustest hüvitistest ja teenustest tavaliselt füüsilised isikud, kes taotlevad või saavad ametiasutustelt esmatähtsaid avalikke hüvesid ja teenuseid, nimelt tervishoiuteenuseid, sotsiaalkindlustushüvitisi, sotsiaalteenuseid, mis pakuvad kaitset raseduse ja sünnituse, haiguse, tööõnnetuste, vanaduse ja töökaotuse korral, ning sotsiaal- ja eluasemetoetust, ning kes on vastutavate asutuste suhtes kaitsetus olukorras. Kui tehisintellektisüsteeme kasutatakse selleks, et teha kindlaks, kas ametiasutus peaks sellist toetust andma või sellist teenust osutama, sellest keelduma, seda vähendama, selle tühistama või tagasi nõudma, sealhulgas selleks, et teha kindlaks, kas abisaajatel on sellistele toetustele või teenustele seaduslik õigus, võib neil süsteemidel olla märkimisväärne mõju inimese toimetulekule ning need süsteemid võivad rikkuda inimeste põhiõigusi, näiteks õigust sotsiaalkaitsele, mittediskrimineerimisele, inimväärikusele või tõhusale õiguskaitsevahendile ning seetõttu tuleks need liigitada suure riskiga süsteemideks. Samas ei tohiks käesolev määrus takistada uuenduslike lähenemisviiside väljatöötamist ja kasutamist avalikus halduses, kus oleks nõuetekohaste ja ohutute tehisintellektisüsteemide laialdasemast kasutamisest kasu tingimusel, et need süsteemid ei põhjusta juriidilistele ja füüsilistele isikutele suuri riske. Lisaks tuleks suure riskiga tehisintellektisüsteemideks liigitada tehisintellektisüsteemid, mida kasutatakse füüsilistele isikutele krediidihinnangu andmiseks või nende krediidivõimelisuse hindamiseks, sest need määravad kindlaks inimese võimaluse saada finantsvahendeid või elutähtsaid teenuseid, nagu eluaseme-, elektri- ja telekommunikatsiooniteenused. Sel otstarbel kasutatavad tehisintellektisüsteemid võivad põhjustada inimeste või rühmade vahelist diskrimineerimist ja võivad põlistada aegade jooksul välja kujunenud diskrimineerimismustreid, mille aluseks on näiteks rassiline või etniline päritolu, sugu, puue, vanus või seksuaalne sättumus, või võivad luua uut liiki diskrimineerivat mõju. Liidu õigusega ette nähtud tehisintellektisüsteeme, mille eesmärk on avastada pettusi finantsteenuste pakkumisel või mida kasutatakse usaldatavusnõuete täitmiseks, et arvutada krediidiasutuste ja kindlustusandjate kapitalinõudeid, ei tohiks käesoleva määruse alusel siiski pidada suure riskiga süsteemideks. Lisaks võivad tehisintellektisüsteemid, mis on ette nähtud kasutamiseks füüsiliste isikutega seotud riskihindamiseks ja hinnakujunduseks tervise- ja elukindlustuses, avaldada märkimisväärset mõju inimeste toimetulekule ning see võib, kui nende projekteerimine, arendamine ja kasutamine ei ole nõuetekohane, rikkuda inimeste põhiõigusi ning põhjustada tõsiseid tagajärgi nende elule ja tervisele, sealhulgas majanduslikku tõrjutust ja diskrimineerimist. Lisaks tuleks suure riskiga tehisintellektisüsteemideks liigitada ka tehisintellektisüsteemid, mida kasutatakse füüsiliste isikute hädaabikõnede hindamiseks ja liigitamiseks või kiirabi ja päästeteenistuse, sealhulgas politsei, tuletõrje ja arstiabi väljasaatmiseks ja väljakutsete prioriseerimiseks, ning erakorralise arstiabi patsientide triaažiks, sest sellised süsteemid teevad otsuseid olukordades, mis on inimeste elu, tervise ja vara seisukohast väga kriitilised.
(58)
Innym obszarem, w którym wykorzystanie systemów AI wymaga szczególnej uwagi, jest dostęp do niektórych podstawowych usług i świadczeń prywatnych i publicznych niezbędnych ludziom do pełnego uczestnictwa w życiu społecznym lub do poprawy poziomu życia oraz korzystanie z tych usług i świadczeń. W szczególności osoby fizyczne ubiegające się o podstawowe świadczenia i usługi w ramach pomocy publicznej lub korzystające z takich świadczeń i usług zapewnianych przez organy publiczne, a mianowicie usług opieki zdrowotnej, świadczeń z zabezpieczenia społecznego, usług społecznych zapewniających ochronę w przypadkach takich jak macierzyństwo, choroba, wypadki przy pracy, zależność lub podeszły wiek oraz utrata zatrudnienia, a także z pomocy społecznej i mieszkaniowej, są zazwyczaj zależne od tych świadczeń i usług oraz znajdują się w słabszym położeniu względem odpowiedzialnych organów. Jeżeli systemy AI są wykorzystywane do ustalenia, czy organy powinny przyznać takie świadczenia i usługi, odmówić ich, ograniczyć je, cofnąć lub odzyskać, w tym do stwierdzenia, czy świadczeniobiorcy są w świetle prawa uprawnieni do takich świadczeń lub usług, systemy te mogą mieć znaczący wpływ na źródła utrzymania osób i mogą naruszać ich prawa podstawowe, takie jak prawo do ochrony socjalnej, niedyskryminacji, godności człowieka lub skutecznego środka prawnego i w związku z tym systemy te należy zaklasyfikować jako systemy wysokiego ryzyka. Niniejsze rozporządzenie nie powinno jednak utrudniać rozwoju i stosowania innowacyjnych rozwiązań w administracji publicznej, która może odnieść korzyści z powszechniejszego wykorzystywania zgodnych i bezpiecznych systemów AI, pod warunkiem że systemy te nie stwarzają wysokiego ryzyka dla osób prawnych i fizycznych. Ponadto jako systemy wysokiego ryzyka należy zaklasyfikować systemy AI wykorzystywane do przeprowadzania scoringu kredytowego lub oceny zdolności kredytowej osób fizycznych, ponieważ systemy te decydują o dostępie tych osób do zasobów finansowych lub podstawowych usług, takich jak mieszkalnictwo, energia elektryczna i usługi telekomunikacyjne. Systemy AI wykorzystywane do tych celów mogą prowadzić do dyskryminacji osób lub grup i mogą utrwalać historyczne wzorce dyskryminacji, takie jak dyskryminacja ze względu na pochodzenie rasowe lub etniczne, płeć, niepełnosprawność, wiek, orientację seksualną, lub mogą powodować powstawanie nowych rodzajów dyskryminacji. Za systemy wysokiego ryzyka na mocy niniejszego rozporządzenia nie należy jednak uznawać systemów AI przewidzianych w prawie Unii do celów wykrywania oszustw w ramach oferowania usług finansowych oraz do celów ostrożnościowych do obliczania wymogów kapitałowych instytucji kredytowych i zakładów ubezpieczeń. Ponadto systemy AI przeznaczone do przeprowadzania oceny ryzyka w przypadku ubezpieczenia zdrowotnego i na życie dla osób fizycznych i ustalania cen tych ubezpieczeń mogą mieć również znaczący wpływ na źródła utrzymania osób, a jeżeli nie są odpowiednio zaprojektowane, rozwinięte i wykorzystywane, mogą naruszać ich prawa podstawowe i prowadzić do poważnych konsekwencji dla życia i zdrowia ludzi, w tym wykluczenia finansowego i dyskryminacji. Wreszcie systemy AI przeznaczone do przeprowadzania oceny i klasyfikowania zgłoszeń alarmowych dokonywanych przez osoby fizyczne lub do wysyłania lub ustalania priorytetów w wysyłaniu służb pierwszej pomocy, w tym policji, straży pożarnej i pomocy medycznej, a także w ramach systemów oceny stanu zdrowia pacjentów w nagłych wypadkach, należy zaklasyfikować jako systemy wysokiego ryzyka, ponieważ służą one do podejmowania decyzji o krytycznym znaczeniu dla życia i zdrowia osób oraz ich mienia.
(59)
Võttes arvesse õiguskaitseasutuste rolli ja vastutust, iseloomustab nende toiminguid, millega kaasneb tehisintellektisüsteemide teatav kasutamine, võimu väga ebavõrdne jaotumine ja selle tulemuseks võib olla füüsilise isiku jälgimine, kinnipidamine või temalt vabaduse võtmine, aga ka muu kahjulik mõju põhiõiguste hartaga tagatud põhiõigustele. Tehisintellektisüsteem võib olla inimeste valikul diskrimineeriv või muul moel ebatäpne või ebaõiglane, eriti juhul, kui selle treenimiseks ei ole kasutatud kvaliteetseid andmeid, kui süsteemi toimimine, täpsus või stabiilsus ei ole piisav või kui seda ei ole enne turule laskmist või muul moel kasutusele võtmist korralikult projekteeritud ja testitud. Kahjustatud võib saada ka võimalus kasutada selliseid olulisi menetluslikke põhiõigusi, nagu õigus tõhusale õiguskaitsevahendile ja õiglasele kohtulikule arutamisele, õigus kaitsele ja süütuse presumptsioon, seda eriti juhul, kui sellised tehisintellektisüsteemid ei ole piisavalt läbipaistvad, selgitatavad ja dokumenteeritud. Seepärast on asjakohane liigitada suure riskiga tehisintellektisüsteemiks hulk tehisintellektisüsteeme, niivõrd, kuivõrd nende kasutamine on asjaomase liidu ja riigisisese õiguse kohaselt lubatud, mis on mõeldud kasutamiseks õiguskaitses, kus täpsus, usaldusväärsus ja läbipaistvus on eriti olulised, et hoida ära kahjulikku mõju, säilitada üldsuse usaldus ning tagada aruandekohustus ja tõhus õiguskaitse. Arvestades nende toimingute olemust ja nendega seotud riske, peaksid selliste suure riskiga tehisintellektisüsteemide hulka kuuluma eeskätt need tehisintellektisüsteemid, mis on ette nähtud kasutamiseks õiguskaitseasutuste või liidu institutsioonide, organite või asutuste poolt või nimel õiguskaitseasutuste toetamiseks, et hinnata füüsilise isiku kuriteo ohvriks langemise riski, valedetektorite ja sarnaste vahenditena tõendite usaldusväärsuse hindamiseks kuritegude uurimise või nende eest vastutusele võtmise käigus; ning kui see ei ole käesoleva määrusega keelatud, siis sellise rikkumise või korduva rikkumise riski hindamiseks, mis ei põhine üksnes füüsiliste isikute profiilianalüüsil ega füüsiliste isikute või rühmade isikuomaduste, erijoonte või varasema kuritegeliku käitumise hindamisel, kuritegude avastamise, uurimise või nende eest vastutusele võtmise käigus tehtaval profiilianalüüsil. Tehisintellektisüsteeme, mis on mõeldud kasutamiseks spetsiaalselt maksuametile ja tollile haldusmenetlustes ning rahapesu andmebüroodele, kes täidavad liidu rahapesuvastase õiguse kohaseid teabe analüüsimises seisnevaid haldusülesandeid, ei tuleks liigitada suure riskiga tehisintellektisüsteemideks, mida õiguskaitseasutused kasutavad kuritegude tõkestamise, avastamise, uurimise ja nende eest vastutusele võtmise eesmärgil. Tehisintellekti vahendite kasutamine õiguskaitseasutuste ja muude asjakohaste asutuste poolt ei tohiks muutuda ebavõrdsuse või tõrjutuse teguriks. Tehisintellekti vahendite kasutamise mõju kahtlusaluste kaitseõigustele ei tohiks eirata, eelkõige raskusi sisulise teabe saamisel nende süsteemide toimimise kohta ja sellest tulenevaid raskusi nende tulemuste vaidlustamisel kohtus, eriti uurimise all olevate füüsiliste isikute poolt.
(59)
Ze względu na rolę i odpowiedzialność organów ścigania ich działania związane z niektórymi rodzajami wykorzystania systemów AI charakteryzują się znacznym brakiem równowagi sił i mogą prowadzić do objęcia osoby fizycznej nadzorem, do jej aresztowania lub pozbawienia wolności, jak również do zaistnienia innego niepożądanego wpływu na prawa podstawowe zagwarantowane w Karcie. W szczególności jeżeli system AI nie jest trenowany z wykorzystaniem danych wysokiej jakości, nie spełnia odpowiednich wymogów pod względem skuteczności jego działania, dokładności lub solidności lub nie został odpowiednio zaprojektowany i przetestowany przed wprowadzeniem do obrotu lub oddaniem do użytku w inny sposób, może on wskazywać osoby w sposób dyskryminacyjny lub w inny nieprawidłowy lub niesprawiedliwy sposób. Ponadto korzystanie z istotnych procesowych praw podstawowych, takich jak prawo do skutecznego środka prawnego i dostępu do bezstronnego sądu, jak również prawo do obrony i domniemania niewinności, może być utrudnione, w szczególności w przypadku gdy takie systemy AI nie są w wystarczającym stopniu przejrzyste, wyjaśnialne i udokumentowane. W związku z tym szereg systemów AI przeznaczonych do wykorzystania w kontekście ścigania przestępstw, w którym dokładność, wiarygodność i przejrzystość są szczególnie ważne dla uniknięcia niepożądanego wpływu, zachowania zaufania publicznego oraz zapewnienia odpowiedzialności i skutecznego dochodzenia roszczeń, należy klasyfikować jako systemy wysokiego ryzyka, o ile ich wykorzystanie jest dozwolone zgodnie z właściwymi przepisami prawa Unii i prawa krajowego. Ze względu na charakter działań i związane z nimi ryzyko do takich systemów AI wysokiego ryzyka należy zaliczyć w szczególności systemy AI przeznaczone do wykorzystywania przez organy ścigania lub w ich imieniu lub przez instytucje, organy i jednostki organizacyjne Unii w ramach wsparcia udzielanego organom ścigania w zakresie oceny ryzyka, że osoba fizyczna stanie się ofiarą przestępstwa, takie jak wariografy i podobne narzędzia, do oceny wiarygodności dowodów podczas prowadzenia postępowań przygotowawczych w sprawie przestępstw lub ich ścigania oraz, o ile nie jest to zakazane na mocy niniejszego rozporządzenia, do oceny ryzyka popełnienia przestępstwa lub ponownego popełnienia przestępstwa przez osobę fizyczną niewyłącznie na podstawie profilowania osób fizycznych lub oceny cech osobowości i charakteru lub wcześniejszego zachowania przestępnego osób fizycznych lub grup, do profilowania w trakcie wykrywania przestępstw, prowadzenia postępowań przygotowawczych w ich sprawie lub ich ścigania. Systemów AI przeznaczonych specjalnie do wykorzystania w postępowaniach administracyjnych prowadzonych przez organy podatkowe i celne, jak również przez jednostki analityki finansowej wykonujące zadania administracyjne dotyczące analizy informacji na podstawie przepisów prawa Unii dotyczących przeciwdziałania praniu pieniędzy, nie należy zaklasyfikować jako systemów AI wysokiego ryzyka wykorzystywanych przez organy ścigania do celów zapobiegania przestępstwom, ich wykrywania, prowadzenia postępowań przygotowawczych w ich sprawie i ich ścigania. Wykorzystanie narzędzi sztucznej inteligencji przez organy ścigania i inne odpowiednie organy nie powinno stać się czynnikiem powodującym nierówności lub wykluczenie. Nie należy ignorować wpływu wykorzystania narzędzi AI na prawo podejrzanych do obrony, w szczególności na trudności w uzyskaniu istotnych informacji na temat funkcjonowania tych systemów oraz wynikające z tego trudności w kwestionowaniu dostarczanych przez nie wyników przed sądem, w szczególności przez osoby fizyczne objęte postępowaniem przygotowawczym.
(60)
Rände- ja varjupaigavaldkonnas ning piirkontrollihalduses kasutatavad tehisintellektisüsteemid mõjutavad isikuid, kes on tihtipeale eriti kaitsetus olukorras ja sõltuvad pädevate ametiasutuste tegevuse tulemustest. Seepärast on sellises kontekstis kasutatavate tehisintellektisüsteemide täpsus, mittediskrimineeriv olemus ja läbipaistvus eriti oluline, et tagada mõjutatud isikute põhiõiguste austamine, eeskätt nende õigus vabale liikumisele, mittediskrimineerimisele, eraelu ja isikuandmete kaitsele, rahvusvahelisele kaitsele ja heale haldusele. Seepärast on otstarbekas liigitada suure riskiga tehisintellektisüsteemiks sellised tehisintellektisüsteemid, mis on ette nähtud kasutamiseks rände-, varjupaiga- ja piirikontrollihaldusega tegelevatele pädevatele asutustele või nende nimel, või liidu institutsioonidele, organitele või asutustele valedetektorite ja samalaadsete vahenditena, niivõrd, kuivõrd nende kasutamine on liidu ja liikmesriigi õiguse kohaselt lubatud, et hinnata teatavaid riske, mida kujutavad endast füüsilised isikud, kes sisenevad liikmesriigi territooriumile või taotlevad viisat või varjupaika; pädevate ametiasutuste abistamiseks varjupaiga-, viisa- ja elamisloataotluste ja nendega seotud kaebuste läbivaatamisel, sealhulgas tõendite usaldusväärsuse hindamisel seoses eesmärgiga teha kindlaks sellist staatust taotlevate füüsiliste isikute vastavus tingimustele; rände-, varjupaiga- ja piirikontrollihalduse kontekstis füüsiliste isikute avastamiseks, äratundmiseks või tuvastamiseks, välja arvatud reisidokumentide kontrollimine. Rände- ja varjupaigavaldkonna ning piirikontrollihalduse valdkonna tehisintellektisüsteemid, mis kuuluvad käesoleva määruse kohaldamisalasse, peaksid vastama Euroopa Parlamendi ja nõukogu määruses (EÜ) nr 810/2009, (32) Euroopa Parlamendi ja nõukogu direktiivis 2013/32/EL (33) ja muus liidu asjaomases õiguses sätestatud asjaomastele menetlusnõuetele. Liikmesriigid või liidu institutsioonid, organid ja asutused ei tohiks mingil juhul kasutada tehisintellektisüsteeme rände-, varjupaiga- ja piirikontrollihalduse valdkonnas selleks, et kõrvale hoida oma rahvusvahelistest kohustustest, mis nad on võtnud vastavalt 28. juulil 1951 Genfis alla kirjutatud ÜRO pagulasseisundi konventsioonile, mida on muudetud 31. jaanuari 1967. aasta protokolliga. Samuti ei tohi neid kasutada mingil viisil tagasi- ja väljasaatmise lubamatuse põhimõtte rikkumiseks ega liidu territooriumile sisenemise ohutute ja tõhusate seaduslike kanalite kasutamise, sealhulgas rahvusvahelise kaitse saamise õiguse keelamiseks.
(60)
Systemy AI wykorzystywane w zarządzaniu migracją, azylem i kontrolą graniczną mają wpływ na osoby, które często znajdują się w szczególnie trudnej sytuacji i które są zależne od rezultatów działań właściwych organów publicznych. Dokładność, niedyskryminujący charakter i przejrzystość systemów AI wykorzystywanych w tych kontekstach są zatem szczególnie istotne w celu zapewnienia poszanowania praw podstawowych osób, na które AI ma wpływ, w szczególności ich prawa do swobodnego przemieszczania się, niedyskryminacji, ochrony życia prywatnego i danych osobowych, ochrony międzynarodowej i dobrej administracji. O ile wykorzystanie systemów AI jest dozwolone zgodnie z właściwymi przepisami prawa Unii i prawa krajowego, za systemy wysokiego ryzyka należy zatem uznać systemy AI przeznaczone do wykorzystywania przez właściwe organy publiczne lub w ich imieniu lub przez instytucje, organy i jednostki organizacyjne Unii odpowiedzialne za wykonywanie zadań w dziedzinach zarządzania migracją, azylem i kontrolą graniczną, takie jak wariografy i podobne narzędzia, gdy systemy te stosuje się do oceny niektórych rodzajów ryzyka stwarzanych przez osoby fizyczne wjeżdżające na terytorium państwa członkowskiego lub ubiegające się o wizę lub azyl, do wspierania właściwych organów publicznych przy rozpatrywaniu wniosków o udzielenie azylu, o wydanie wizy i dokumentów pobytowych oraz związanych z nimi skarg w odniesieniu do celu, jakim jest ustalenie kwalifikowalności osób fizycznych ubiegających się o przyznanie określonego statusu, w tym przy powiązanej ocenie wiarygodności dowodów, do celów wykrywania, rozpoznawania lub identyfikacji osób fizycznych w kontekście zarządzania migracją, azylem i kontrolą graniczną, z wyjątkiem weryfikacji dokumentów podróży. Systemy AI w obszarze zarządzania migracją, azylem i kontrolą graniczną objęte niniejszym rozporządzeniem powinny być zgodne z odpowiednimi wymogami proceduralnymi określonymi w rozporządzeniu Parlamentu Europejskiego i Rady (WE) nr 810/2009 (32), dyrektywie Parlamentu Europejskiego i Rady 2013/32/UE (33) i w innych właściwych przepisach prawa Unii. Wykorzystanie systemów AI w zarządzaniu migracją, azylem i kontrolą graniczną nie powinno w żadnym wypadku być wykorzystywane przez państwa członkowskie lub instytucje, organy i jednostki organizacyjne Unii jako sposób na obejście ich międzynarodowych zobowiązań wynikających z Konwencji ONZ dotyczącej statusu uchodźców sporządzonej w Genewie dnia 28 lipca 1951 r., zmienionej protokołem z dnia 31 stycznia 1967 r. Nie powinny być one również wykorzystywane w żaden sposób do naruszania zasady non-refoulement ani do odmawiania bezpiecznych i skutecznych legalnych sposobów wjazdu na terytorium Unii, w tym prawa do ochrony międzynarodowej.
(61)
Teatavad õigusemõistmise ja demokraatlike protsesside jaoks mõeldud tehisintellektisüsteemid tuleks liigitada suure riskiga tehisintellektisüsteemideks, arvestades nende võimalikku märkimisväärset mõju demokraatiale, õigusriigile, üksikisiku vabadustele ning õigusele tõhusale õiguskaitsevahendile ja õiglasele kohtulikule arutamisele. Eeskätt võimalikust kallutatusest, vigadest ja läbipaistmatusest tulenevate riskidega tegelemiseks on asjakohane liigitada suure riskiga tehisintellektisüsteemideks need tehisintellektisüsteemid, mis on ette nähtud kasutamiseks õigusasutusele või selle nimel, et abistada õigusasutusi faktide ja seadustega tutvumisel ja nende tõlgendamisel ning õiguse kohaldamisel konkreetse faktide kogumi suhtes. Tehisintellektisüsteeme, mis on ette nähtud kasutamiseks vaidluste kohtuvälise lahendamise üksustele kõnealuse menetluse jaoks, tuleks samuti pidada suure riskiga süsteemideks, kui vaidluste kohtuvälise lahendamise menetluse tulemustel on pooltele õiguslikud tagajärjed. Tehisintellekti vahendite kasutamine võib kohtunike otsustusõigust või kohtute sõltumatust toetada, kuid ei tohiks neid asendada, sest lõppotsuste tegemine peab jääma inimestele. Tehisintellektisüsteemi liigitamist suure riskiga süsteemiks ei tohiks siiski laiendada tehisintellektisüsteemidele, mis on mõeldud puhtalt halduslikeks abitegevusteks, mis ei mõjuta tegelikku õigusemõistmist konkreetsetel juhtudel, nagu kohtuotsuste, dokumentide või andmete anonüümimine või pseudonüümimine, töötajatevaheline suhtlus või haldusülesanded.
(61)
Niektóre systemy AI przeznaczone na potrzeby sprawowania wymiaru sprawiedliwości i procesów demokratycznych należy zaklasyfikować jako systemy wysokiego ryzyka, biorąc pod uwagę ich potencjalnie istotny wpływ na demokrację, praworządność, wolności osobiste, a także prawo do skutecznego środka prawnego i dostępu do bezstronnego sądu. W szczególności, aby wyeliminować potencjalne ryzyko stronniczości, błędów i efektu czarnej skrzynki, jako systemy wysokiego ryzyka należy zakwalifikować systemy AI przeznaczone do wykorzystania przez organy wymiaru sprawiedliwości lub w ich imieniu, aby pomóc tym organom w poszukiwaniu i interpretacji faktów i prawa oraz w stosowaniu przepisów prawa do konkretnego stanu faktycznego. Systemy AI przeznaczone do wykorzystania w tych celach przez organy alternatywnego rozstrzygania sporów również należy uznać za systemy wysokiego ryzyka, jeżeli wyniki postępowania w sprawie alternatywnego rozstrzygania sporów wywołują skutki prawne dla stron. Wykorzystanie narzędzi AI może wspierać uprawnienia decyzyjne sędziów lub niezależność sądownictwa, ale nie powinno ich zastępować; podejmowanie ostatecznej decyzji musi pozostać działaniem kierowanym przez człowieka. Kwalifikacja systemów AI jako systemów AI wysokiego ryzyka nie powinna jednak rozciągać się na systemy AI przeznaczone do czysto pomocniczych czynności administracyjnych, które nie mają wpływu na faktyczne sprawowanie wymiaru sprawiedliwości w poszczególnych przypadkach, takich jak anonimizacja lub pseudonimizacja orzeczeń sądowych, dokumentów lub danych, komunikacja między członkami personelu, zadania administracyjne.
(62)
Ilma et see piiraks Euroopa Parlamendi ja nõukogu määruses (EL) 2024/900 (34) sätestatud õigusnormide kohaldamist ning selleks, et käsitleda riske, mis tulenevad põhjendamatust välisest sekkumisest põhiõiguste harta artiklis 39 sätestatud hääletamisõigusesse ning kahjulikust mõjust demokraatiale ja õigusriigile, tuleks tehisintellektisüsteemid, mis on mõeldud kasutamiseks selleks, et mõjutada valimiste või referendumite tulemusi või füüsiliste isikute hääletamiskäitumist nende hääletamisel valimistel või referendumitel, liigitada suure riskiga tehisintellektisüsteemideks, välja arvatud tehisintellektisüsteemid, mille väljundiga füüsilised isikud otseselt kokku ei puutu, näiteks vahendid, mida kasutatakse poliitiliste kampaaniate korraldamiseks, optimeerimiseks ja struktureerimiseks halduslikust ja logistilisest seisukohast.
(62)
Bez uszczerbku dla przepisów ustanowionych w rozporządzeniu Parlamentu Europejskiego i Rady (UE) 2024/900 (34) oraz aby zapobiec ryzyku nadmiernej zewnętrznej ingerencji w prawo do głosowania zapisane w art. 39 Karty oraz niepożądanemu wpływowi na demokrację i praworządność, systemy AI przeznaczone do wykorzystania, by wpływać na wynik wyborów lub referendum lub na zachowania wyborcze osób fizycznych podczas głosowania w wyborach lub referendach, należy zaklasyfikować jako systemy AI wysokiego ryzyka, z wyjątkiem systemów AI, na których wyniki osoby fizyczne nie są bezpośrednio narażone, takich jak narzędzia wykorzystywane do organizowania, optymalizacji i strukturyzowania kampanii politycznych z administracyjnego i logistycznego punktu widzenia.
(63)
Asjaolu, et tehisintellektisüsteem on käesoleva määruse alusel liigitatud suure riskiga tehisintellektisüsteemiks, ei tohiks tõlgendada nii, et selle kasutamine on seaduslik muude liidu õigusaktide või liidu õigusega kooskõlas oleva riigisisese õiguse alusel, mis käsitlevad näiteks isikuandmete kaitset, valedetektorite või samalaadsete vahendite kasutamist või muude süsteemide kasutamist füüsiliste isikute emotsionaalse seisundi tuvastamiseks. Edaspidi peaks igasugune selline kasutamine toimuma üksnes kooskõlas kohaldatavate nõuetega, mis tulenevad põhiõiguste hartast ja kohaldatavatest liidu teisese õiguse aktidest ja riigisisesest õigusest. Käesolevat määrust ei tohiks käsitada isikuandmete, sealhulgas asjakohasel juhul isikuandmete eriliikide töötlemise õigusliku alusena, kui käesolevas määruses ei ole sõnaselgelt ette nähtud teisiti.
(63)
Faktu, że dany system AI został zaklasyfikowany jako system AI wysokiego ryzyka zgodnie z niniejszym rozporządzeniem, nie należy interpretować jako wskazującego na to, że korzystanie z tego systemu jest zgodne z prawem na podstawie innych aktów prawa Unii lub prawa krajowego zgodnego z prawem Unii, na przykład w zakresie ochrony danych osobowych, stosowania wariografów i podobnych narzędzi lub innych systemów służących wykrywaniu stanu emocjonalnego osób fizycznych. Każde takie wykorzystanie można kontynuować wyłącznie w sposób zgodny z mającymi zastosowanie wymogami wynikającymi z Karty oraz z mającymi zastosowanie aktami prawa wtórnego Unii i prawa krajowego. Niniejszego rozporządzenia nie należy rozumieć jako ustanawiającego podstawę prawną przetwarzania danych osobowych, w tym w stosownych przypadkach szczególnych kategorii danych osobowych, o ile niniejsze rozporządzenie nie stanowi wyraźnie inaczej.
(64)
Et maandada riske, mida põhjustavad turule lastud või kasutusele võetud suure riskiga tehisintellektisüsteemid, ning tagada kõrge usaldusväärsus, tuleks suure riskiga tehisintellektisüsteemide suhtes kohaldada teatavaid kohustuslikke nõudeid, võttes arvesse tehisintellektisüsteemi sihtotstarvet ja kasutuskonteksti ning järgides pakkuja kehtestatud riskijuhtimissüsteemi. Meetmed, mida pakkujad võtavad käesoleva määruse kohustuslike nõuete täitmiseks, peaksid võtma arvesse tehisintellekti valdkonna tehnika üldtunnustatud taset ning olema käesoleva määruse eesmärkide saavutamiseks proportsionaalsed ja tõhusad. Uue õigusraamistiku alusel, mida on täpsustatud komisjoni 2022. aasta sinises raamatus ELi toote-eeskirjade rakendamise kohta, on üldreegel, et üks või mitu liidu ühtlustamisõigusakti võivad olla kohaldatavad ühele tootele, kuna kättesaadavaks tegemine või kasutusele võtmine saab toimuda ainult siis, kui toode vastab kõigile kohaldatavatele liidu ühtlustamisõigusaktidele. Käesoleva määruse nõuete kohaldamisalasse kuuluvate tehisintellektisüsteemide ohud on seotud kehtivatest liidu ühtlustamisõigusaktidest erinevate aspektidega ning seetõttu täiendavad käesoleva määruse nõuded olemasolevaid liidu ühtlustamisõigusakte. Näiteks võivad tehisintellektisüsteemi sisaldavad masinad või meditsiiniseadmed kujutada endast riske, mida asjakohastes liidu ühtlustamisõigusaktides sätestatud olulistes tervisekaitse- ja ohutusnõuetes ei käsitleta, kuna see valdkondlik õigus ei puuduta tehisintellektisüsteemidele omaseid riske. Seega on korraga vaja kohaldada mitut ja üksteist täiendavat õigusakti. Järjepidevuse tagamiseks ning tarbetu halduskoormuse ja tarbetute kulude ärahoidmiseks peaks üht või mitut suure riskiga tehisintellektisüsteemi sisaldava toote pakkujatel, mille suhtes kohaldatakse käesoleva määruse ja uuel õigusraamistikul põhinevate ja käesoleva määruse lisas loetletud liidu ühtlustamisõigusaktide nõudeid, olema operatiivsete otsuste tegemisel paindlikkus selles osas, kuidas tagada üht või mitut tehisintellektisüsteemi sisaldava toote vastavus kõigile liidu ühtlustamisõigusaktide kohaldatavatele nõuetele optimaalseimal viisil. Selline paindlikkus võib tähendada näiteks pakkuja otsust integreerida osa käesoleva määruse kohaselt nõutavast testimis- ja aruandlusprotsessist, teabest ja dokumentatsioonist juba olemasolevatesse dokumentidesse ja menetlustesse, mida nõutakse käesoleva määruse lisas loetletud uuel õigusraamistikul põhinevate kehtivate liidu ühtlustamisõigusaktide alusel. See ei tohiks mingil viisil kahjustada pakkuja kohustust täita kõiki kohaldatavaid nõudeid.
(64)
Aby ograniczyć ryzyko stwarzane przez systemy AI wysokiego ryzyka wprowadzone do obrotu lub oddawane do użytku oraz aby zapewnić wysoki poziom wiarygodności, należy stosować pewne obowiązkowe wymogi do systemów AI wysokiego ryzyka, z uwzględnieniem przeznaczenia systemu AI i kontekstu jego wykorzystania oraz zgodnie z systemem zarządzania ryzykiem, który ma zostać ustanowiony przez dostawcę. Środki przyjęte przez dostawców w celu zapewnienia zgodności z obowiązkowymi wymogami niniejszego rozporządzenia powinny uwzględniać powszechnie uznany stan wiedzy technicznej w zakresie AI, być proporcjonalne i skuteczne do osiągnięcia celów niniejszego rozporządzenia. W oparciu o nowe ramy prawne, jak wyjaśniono w zawiadomieniu Komisji „Niebieski przewodnik – wdrażanie unijnych przepisów dotyczących produktów 2022”, ogólna zasada stanowi, że do jednego produktu można stosować więcej niż jedne akt prawny unijnego prawodawstwa harmonizacyjnego, ponieważ udostępnianie lub oddawanie do użytku może mieć miejsce tylko wtedy, gdy produkt jest zgodny z całością obowiązującego unijnego prawodawstwa harmonizacyjnego. Zagrożenia związane z systemami AI objętymi wymogami niniejszego rozporządzenia dotyczą innych aspektów niż obowiązujące unijne prawodawstwo harmonizacyjne, w związku z czym wymogi niniejszego rozporządzenia uzupełnią obowiązujące unijne prawodawstwo harmonizacyjne. Na przykład maszyny lub wyroby medyczne zawierające system AI mogą stwarzać ryzyko, które nie zostało uwzględnione w zasadniczych wymogach w zakresie zdrowia i bezpieczeństwa ustanowionych w odpowiednim unijnym prawodawstwie harmonizacyjnym, ponieważ to prawo sektorowe nie reguluje ryzyka specyficznego dla systemów AI. Wymaga to jednoczesnego i komplementarnego stosowania różnych aktów ustawodawczych. Aby zapewnić spójność i uniknąć niepotrzebnych obciążeń administracyjnych i niepotrzebnych kosztów, dostawcy produktu, który zawiera co najmniej jeden system AI wysokiego ryzyka, do którego stosuje się wymogi niniejszego rozporządzenia i unijnego prawodawstwa harmonizacyjnego opartego na nowych ramach prawnych, wymienionego w załączniku do niniejszego rozporządzenia, powinni mieć swobodę w zakresie decyzji operacyjnych dotyczących sposobu zapewnienia w optymalny sposób zgodności produktu zawierającego co najmniej jeden system AI ze wszystkimi mającymi zastosowanie wymogami unijnego prawodawstwa harmonizacyjnego. Swoboda ta może oznaczać na przykład decyzję dostawcy o włączeniu części niezbędnych procesów testowania i sprawozdawczości, informacji i dokumentacji wymaganych na mocy niniejszego rozporządzenia do już istniejącej dokumentacji i procedur wymaganych na mocy obowiązującego unijnego prawodawstwa harmonizacyjnego opartego na nowych ramach prawnych i wymienionego w załączniku do niniejszego rozporządzenia. Nie powinno to w żaden sposób podważać spoczywającego na dostawcy obowiązku zapewnienia zgodności z wszystkimi mającymi zastosowanie wymogami.
(65)
Riskijuhtimissüsteem peaks seisnema pidevalt korduvas protsessis, mida kavandatakse ja käitatakse suure riskiga tehisintellektisüsteemi kogu elutsükli jooksul. Kõnealuse protsessi eesmärk peaks olema teha kindlaks ja maandada tehisintellektisüsteemide asjakohaseid riske tervisele, turvalisusele ja põhiõigustele. Riskijuhtimissüsteem tuleks korrapäraselt läbi vaadata ja seda ajakohastada, et tagada selle jätkuv tõhusus, samuti käesoleva määruse alusel tehtud oluliste otsuste ja võetud meetmete põhjendused ja dokumentatsioon. See protsess peaks tagama, et pakkuja teeb kindlaks riskid või kahjuliku mõju ning rakendab maandamismeetmeid tehisintellektisüsteemide teadaolevate ja mõistlikult prognoositavate riskide suhtes tervisele, turvalisusele ja põhiõigustele, võttes arvesse nende sihtotstarvet ja mõistlikult prognoositavat väärkasutust, sealhulgas võimalikke riske, mis tulenevad tehisintellektisüsteemi ja selle töökeskkonna vastasmõjust. Riskijuhtimissüsteemis tuleks võtta tehisintellekti valdkonna tehnika taset silmas pidades kõige asjakohasemaid riskijuhtimismeetmeid. Kõige asjakohasemate riskijuhtimismeetmete kindlaksmääramisel peaks pakkuja tehtud valikud dokumenteerima ja neid selgitama ning vajaduse korral kaasama eksperte ja väliseid sidusrühmi. Suure riskiga tehisintellektisüsteemide mõistlikult prognoositava väärkasutamise kindlakstegemisel peaks pakkuja hõlmama tehisintellektisüsteemide kasutusviise, mis ei ole küll otseselt hõlmatud sihtotstarbega ega ette nähtud kasutusjuhendis, kuid mille puhul võib siiski põhjendatult eeldada, et see tuleneb kergesti prognoositavast inimkäitumisest konkreetse tehisintellektisüsteemi erijoonte ja kasutamise kontekstis. Kõik teadaolevad või prognoositavad asjaolud, mis on seotud suure riskiga tehisintellektisüsteemi kasutamisega vastavalt selle sihtotstarbele või mõistlikult prognoositava väärkasutamise tingimustes, mis võib seada ohtu tervise ja ohutuse või põhiõigused, peaksid olema lisatud kasutusjuhendisse, mille pakkuja koostab. Selle eesmärk on tagada, et juurutaja on suure riskiga tehisintellektisüsteemi kasutamisel neist teadlik ja võtab neid arvesse. Käesoleva määruse kohaste prognoositava väärkasutusega seotud riskimaandamismeetmete kindlakstegemine ja rakendamine ei tohiks nõuda pakkujalt spetsiaalseid täiendavaid suure riskiga tehisintellektisüsteemi jaoks mõeldud prognoositava väärkasutuse teemalisi treeninguid. Pakkujaid julgustatakse siiski kaaluma selliseid täiendavaid treenimismeetmeid mõistlikult prognoositava väärkasutamise leevendamiseks, kui see peaks olema vajalik ja asjakohane.
(65)
System zarządzania ryzykiem powinien obejmować ciągły, iteracyjny proces, który jest planowany i realizowany przez cały cykl życia systemu AI wysokiego ryzyka. Proces ten powinien mieć na celu identyfikację i ograniczenie istotnego ryzyka, jakie systemy AI stwarzają dla zdrowia, bezpieczeństwa i praw podstawowych. System zarządzania ryzykiem powinien podlegać regularnym przeglądom i aktualizacji, aby zapewnić jego stałą skuteczność oraz uzasadnienie i dokumentację wszelkich istotnych decyzji i działań podjętych zgodnie z niniejszym rozporządzeniem. Proces ten powinien zapewniać, aby dostawca identyfikował ryzyko lub niepożądany wpływ oraz wdrażał środki ograniczające znane i racjonalnie przewidywalne ryzyko dla zdrowia, bezpieczeństwa i praw podstawowych związane z systemami AI w świetle ich przeznaczenia i dającego się racjonalnie przewidzieć niewłaściwego wykorzystania, w tym możliwego ryzyka wynikającego z interakcji między systemem AI a środowiskiem, w którym ten system działa. W systemie zarządzania ryzykiem należy przyjąć najbardziej odpowiednie – w świetle aktualnego stanu wiedzy technicznej w dziedzinie AI – środki zarządzania ryzykiem. Przy określaniu najbardziej odpowiednich środków zarządzania ryzykiem dostawca powinien udokumentować i wyjaśnić dokonane wybory oraz, w stosownych przypadkach, zaangażować ekspertów i zewnętrzne zainteresowane strony. Identyfikując dające się racjonalnie przewidzieć niewłaściwe wykorzystanie systemów AI wysokiego ryzyka, dostawca powinien uwzględnić przypadki wykorzystania systemów AI, w odniesieniu do których można zasadnie oczekiwać, że będą one wynikać z łatwo przewidywalnego zachowania ludzkiego w kontekście szczególnych cech i wykorzystania danego systemu AI, chociaż takich przypadków wykorzystania nie przewidziano w przeznaczeniu danego systemu ani w jego instrukcji obsługi. Wszelkie znane lub dające się przewidzieć okoliczności związane z wykorzystaniem systemu AI wysokiego ryzyka zgodnie z jego przeznaczeniem lub w warunkach dającego się racjonalnie przewidzieć niewłaściwego wykorzystania, mogące powodować ryzyko dla zdrowia i bezpieczeństwa lub praw podstawowych, powinny zostać uwzględnione w instrukcji obsługi dostarczonej przez dostawcę. Ma to na celu zapewnienie, aby podmiot stosujący był ich świadomy i uwzględniał je przy korzystaniu z systemu AI wysokiego ryzyka. Określenie i wdrożenie – na podstawie niniejszego rozporządzenia – środków ograniczających ryzyko w odniesieniu dodającego się przewidzieć niewłaściwego wykorzystania nie powinno wymagać od dostawcy wprowadzenia szczególnego dodatkowego szkolenia, by zaradzić temu dającemu się przewidzieć niewłaściwemu wykorzystaniu. Zachęca się jednak dostawców do rozważenia takich dodatkowych środków szkoleniowych w celu ograniczenia dającego się racjonalnie przewidzieć niewłaściwego wykorzystania, o ile będzie to konieczne i stosowne.
(66)
Suure riskiga tehisintellektisüsteemide suhtes tuleks kohaldada riskijuhtimisega seotud nõudeid, mis puudutavad kasutatavate andmestike kvaliteeti ja asjakohasust, tehnilist dokumentatsiooni ja andmete säilitamist, läbipaistvust ja juurutajate teavitamist, inimjärelevalvet, töökindlust, täpsust ja küberturvalisust. Sellised nõuded on vajalikud, et tulemuslikult maandada riske tervisele, turvalisusele ja põhiõigustele. Kuna muud kaubandust vähem piiravad meetmed ei ole mõistlikult kättesaadavad, ei ole need piirangud põhjendamatud kaubanduspiirangud.
(66)
Do systemów AI wysokiego ryzyka należy stosować wymogi dotyczące zarządzania ryzykiem, jakości i istotności wykorzystywanych zbiorów danych, dokumentacji technicznej i rejestrowania zdarzeń, przejrzystości i przekazywania informacji podmiotom stosującym, nadzoru ze strony człowieka oraz solidności, dokładności i cyberbezpieczeństwa. Wymogi te są konieczne, aby skutecznie ograniczyć ryzyko dla zdrowia, bezpieczeństwa i praw podstawowych. Z uwagi na brak innych racjonalnie dostępnych środków, które powodowałyby mniejsze ograniczenia w handlu, wymogi te nie stanowią nieuzasadnionych ograniczeń w handlu.
(67)
Kvaliteetsed andmed ja juurdepääs kvaliteetsetele andmetele on struktuuri pakkumiseks ja paljude tehisintellektisüsteemide toimimise tagamiseks hädavajalik, eriti kui kasutatakse mudelite treenimise meetodeid, et tagada suure riskiga tehisintellektisüsteemide sihipärane ja ohutu töö ja see, et neist ei saa liidu õigusega keelatud diskrimineerimise allikas. Kvaliteetsed treenimis-, valideerimis- ja testimisandmestikud eeldavad asjakohaste andmehaldus- ja juhtimistavade rakendamist. Treenimis-, valideerimis- ja testimisandmestikud, sealhulgas märgistus, peaksid olema asjakohased, piisavalt representatiivsed ning võimalikult suurel määral vigadeta ja täielikud, pidades silmas süsteemi sihtotstarvet. Selleks et hõlbustada liidu andmekaitseõiguse, näiteks määruse (EL) 2016/679 järgimist, peaksid andmehaldus- ja -juhtimistavad sisaldama isikuandmete puhul andmete kogumise algse eesmärgi läbipaistvust. Neil andmestikel peaksid olema asjakohased statistilised omadused, sealhulgas mis puudutab selliseid isikuid või isikute rühmi, kellega seoses kavatsetakse suure riskiga tehisintellektisüsteemi kasutada, pöörates erilist tähelepanu andmestike võimalike kallutatuste leevendamisele, kuna need võivad mõjutada inimeste tervist ja ohutust, avaldada negatiivset mõju põhiõigustele või põhjustada liidu õigusega keelatud diskrimineerimist, eriti kui andmeväljundid mõjutavad tulevaste toimingute sisendeid (tagasisideahelad). Kallutatus võib tuleneda näiteks aluseks olevatest andmestikest, eriti kui kasutatakse varasemaid andmeid, või see võib tekkida süsteemide rakendamisel tegelikus keskkonnas. Tehisintellektisüsteemide abil saavutatud tulemusi võib mõjutada selline loomupärane kallutatus, mis kaldub järk-järgult suurenema ning sel viisil põlistama ja võimendama olemasolevat diskrimineerimist, eriti teatud kaitsetutesse rühmadesse, sealhulgas rassilistesse või etnilistesse rühmadesse kuuluvate isikute puhul. Nõue, et andmestikud peavad olema võimalikult suurel määral täielikud ja vigadeta, ei tohiks mõjutada eraelu puutumatuse säilitamise meetodite kasutamist tehisintellektisüsteemide arendamise ja testimise kontekstis. Eeskätt tuleks andmestikes sihtotstarbe jaoks nõutavas ulatuses võtta arvesse funktsioone, omadusi või elemente, mis iseloomustavad konkreetset geograafilist, kontekstuaalset, käitumuslikku või funktsionaalset keskkonda, kus kavatsetakse suure riskiga tehisintellektisüsteemi kasutada. Andmehaldusega seotud nõudeid saab täita, kasutades kolmandaid isikuid, kes pakuvad sertifitseeritud vastavusteenuseid, sealhulgas andmehalduse, andmestiku tervikluse ning andmete treenimise, valideerimise ja testimise tavade kontrollimist, kui on tagatud vastavus käesoleva määruse andmenõuetele.
(67)
Wysokiej jakości dane i dostęp do wysokiej jakości danych odgrywają kluczową rolę w ustanawianiu struktury i zapewnianiu skuteczności działania wielu systemów AI, w szczególności w przypadku stosowania technik obejmujących trenowanie modeli, w celu zapewnienia, aby system AI wysokiego ryzyka działał zgodnie z przeznaczeniem i bezpiecznie oraz aby nie stał się źródłem zakazanej przez prawo Unii dyskryminacji. Wysokiej jakości zbiory danych treningowych, walidacyjnych i testowych wymagają wdrożenia odpowiednich praktyk w zakresie administrowania i zarządzania danymi. Zbiory danych treningowych, walidacyjnych i testowych, w tym etykiety, powinny być adekwatne, wystarczająco reprezentatywne oraz w jak największym stopniu wolne od błędów i kompletne z punktu widzenia przeznaczenia systemu. Aby ułatwić zapewnienie zgodności z prawem Unii o ochronie danych, takim jak rozporządzenie (UE) 2016/679, praktyki w zakresie administrowania i zarządzania danymi powinny przewidywać, w przypadku danych osobowych, zapewnianie przejrzystości pierwotnego celu zbierania danych. Te zbiory danych powinny również charakteryzować się odpowiednimi właściwościami statystycznymi, w tym w odniesieniu do osób lub grup osób, wobec których system AI wysokiego ryzyka ma być wykorzystywany, ze szczególnym uwzględnieniem ograniczania ewentualnej stronniczości w zbiorach danych, która może mieć wpływ na zdrowie i bezpieczeństwo osób, negatywnie oddziaływać na prawa podstawowe lub prowadzić do dyskryminacji zakazanej na mocy prawa Unii, zwłaszcza w przypadku gdy dane wyjściowe wpływają na dane wejściowe wykorzystywane na potrzeby przyszłych operacji (sprzężenie zwrotne, ang. feedback loops). Stronniczość może być na przykład nieodłączną cechą źródłowych zbiorów danych, szczególnie jeżeli używa się danych historycznych lub wygenerowanych na etapie wdrażania systemów w warunkach rzeczywistych. Na wyniki generowane przez systemy AI może wpływać taka nieodłączna stronniczość, która z zasady stopniowo zwiększa się, a tym samym utrwala i pogłębia istniejącą dyskryminację, zwłaszcza w odniesieniu do osób należących do grup szczególnie wrażliwych, w tym grup rasowych lub etnicznych. Wymóg, aby zbiory danych były w jak największym stopniu kompletne i wolne od błędów, nie powinien wpływać na stosowanie technik ochrony prywatności w kontekście wdrażania i testowania systemów AI. W szczególności zbiory danych powinny uwzględniać – w zakresie wymaganym z uwagi na ich przeznaczenie – cechy, właściwości lub elementy, które są specyficzne dla określonego otoczenia geograficznego, kontekstualnego, behawioralnego lub funkcjonalnego, w którym dany system AI ma być wykorzystywany. Zgodność z wymogami związanymi z zarządzaniem danymi można zapewnić, korzystając z usług stron trzecich, które oferują certyfikowane usługi w zakresie zgodności, w tym weryfikację zarządzania danymi i integralności zbioru danych oraz praktyki w zakresie trenowania, walidacji i testowania danych, o ile zapewniona jest zgodność z wymogami dotyczącymi danych określonymi w niniejszym rozporządzeniu.
(68)
Suure riskiga tehisintellektisüsteemide arendamiseks ja hindamiseks peaks teatavatel osalejatel, näiteks pakkujatel, teada antud asutustel ja muudel asjaomastel üksustel, näiteks Euroopa digitaalse innovatsiooni keskustel, testimis- ja eksperimenteerimisrajatistel ja teadlastel, olema oma käesoleva määrusega seotud tegevusvaldkondades juurdepääs kvaliteetsetele andmestikele ja nad peaksid saama neid kasutada. Komisjoni loodud ühtsed Euroopa andmeruumid ning avaliku huvi nimel hõlpsam andmete jagamine ettevõtete vahel ja valitsusega on äärmiselt tähtis, et pakkuda tehisintellektisüsteemide treenimiseks, valideerimiseks ja testimiseks usaldusväärset, vastutustundlikku ja mittediskrimineerivat juurdepääsu kvaliteetsetele andmetele. Näiteks tervise valdkonnas hõlbustab Euroopa terviseandmeruum mittediskrimineerivat juurdepääsu terviseandmetele ja tehisintellekti algoritmide treenimist selliste andmestikega privaatsust tagaval, turvalisel, õigeaegsel, läbipaistval ja usaldusväärsel viisil ning asjakohase institutsioonilise juhtimise all. Asjaomased pädevad asutused, sealhulgas valdkondlikud asutused, kes pakuvad või toetavad juurdepääsu andmetele, võivad toetada ka kvaliteetsete andmete pakkumist tehisintellektisüsteemide treenimiseks, valideerimiseks ja testimiseks.
(68)
Przy wdrażaniu i ocenie systemów AI wysokiego ryzyka niektóre podmioty, takie jak dostawcy, jednostki notyfikowane i inne odpowiednie podmioty, takie jak europejskie centra innowacji cyfrowych, ośrodki testowo-doświadczalne i naukowcy, powinny mieć możliwość uzyskania dostępu do wysokiej jakości zbiorów danych i korzystania z nich w zakresie obszarów działalności tych podmiotów związanych z niniejszym rozporządzeniem. Wspólne europejskie przestrzenie danych ustanowione przez Komisję oraz ułatwienie wymiany danych między przedsiębiorstwami i udostępniania danych administracji publicznej w interesie publicznym będą miały zasadnicze znaczenie dla zapewnienia zaufanego, odpowiedzialnego i niedyskryminacyjnego dostępu do danych wysokiej jakości na potrzeby trenowania, walidacji i testowania systemów AI. Na przykład w dziedzinie zdrowia europejska przestrzeń danych dotyczących zdrowia ułatwi niedyskryminacyjny dostęp do danych dotyczących zdrowia oraz trenowanie algorytmów AI na tych zbiorach danych w sposób bezpieczny, terminowy, przejrzysty, wiarygodny i zapewniający ochronę prywatności oraz z odpowiednim zarządzaniem instytucjonalnym. Odpowiednie właściwe organy, w tym organy sektorowe, zapewniające dostęp do danych lub wspierające taki dostęp, mogą również wspierać dostarczanie wysokiej jakości danych na potrzeby trenowania, walidacji i testowania systemów AI.
(69)
Õigus eraelu puutumatusele ja isikuandmete kaitsele peab olema tagatud kogu tehisintellektisüsteemi elutsükli jooksul. Sellega seoses kohaldatakse isikuandmete töötlemisel võimalikult väheste andmete kogumise ning lõimitud ja vaikimisi andmekaitse põhimõtteid, mis on sätestatud liidu andmekaitseõiguses. Meetmed, mida pakkujad võtavad nende põhimõtete järgimise tagamiseks, võivad hõlmata mitte üksnes anonüümimist ja krüpteerimist, vaid ka sellise tehnoloogia kasutamist, mis võimaldab tuua andmetesse algoritme ja treenida tehisintellektisüsteeme ilma toor- või struktureeritud andmete pooltevahelise edastamise või kopeerimiseta, ilma et see piiraks käesolevas määruses sätestatud andmehalduse nõuete kohaldamist.
(69)
Prawo do prywatności i ochrony danych osobowych musi być zagwarantowane przez cały cykl życia systemu AI. W tym względzie, gdy przetwarzane są dane osobowe, zastosowanie mają zasady minimalizacji danych oraz uwzględnienia ochrony danych już w fazie projektowania i domyślnej ochrony danych, które określono w prawie Unii o ochronie danych. Środki podejmowane przez dostawców w celu zapewnienia zgodności z tymi zasadami mogą obejmować nie tylko anonimizację i szyfrowanie, ale również wykorzystanie technologii, która umożliwia wprowadzanie algorytmów do danych i umożliwia trenowanie systemów AI bez przekazywania między stronami lub kopiowania samych surowych lub ustrukturyzowanych danych, bez uszczerbku dla wymogów dotyczących zarządzania danymi przewidzianych w niniejszym rozporządzeniu.
(70)
Et kaitsta teiste õigust tehisintellektisüsteemide kallutatusest tuleneda võiva diskrimineerimise eest, peaksid pakkujad erandkorras ja ulatuses, mis on rangelt vajalik selleks, et tagada kallutatuse avastamine ja korrigeerimine seoses suure riskiga tehisintellektisüsteemidega, tingimusel et kohaldatakse asjakohaseid kaitsemeetmeid füüsiliste isikute põhiõiguste ja -vabaduste tagamiseks ning järgitakse kõiki käesolevas määruses sätestatud kohaldatavaid tingimusi lisaks määrustes (EL) 2016/679 ja (EL) 2018/1725 ning direktiivis (EL) 2016/680 sätestatud tingimustele, olema võimelised töötlema ka isikuandmete eriliike, mis pakuvad märkimisväärset avalikku huvi määruse (EL) 2016/679 artikli 9 lõike 2 punkti g ja määruse (EL) 2018/1725 artikli 10 lõike 2 punkti g tähenduses.
(70)
W celu ochrony praw innych osób przed dyskryminacją, która może wynikać ze stronniczości systemów AI, dostawcy powinni wyjątkowo, w zakresie, w jakim jest to bezwzględnie konieczne do celów zapewnienia wykrywania i korygowania stronniczości w odniesieniu do systemów AI wysokiego ryzyka – z zastrzeżeniem odpowiednich zabezpieczeń w zakresie podstawowych praw i wolności osób fizycznych oraz po spełnieniu wszystkich mających zastosowanie warunków ustanowionych w niniejszym rozporządzeniu, w uzupełnieniu warunków ustanowionych w rozporządzeniach (UE) 2016/679 i (UE) 2018/1725 oraz w dyrektywie (UE) 2016/680 – mieć możliwość przetwarzania również szczególnych kategorii danych osobowych w związku z istotnym interesem publicznym w rozumieniu art. 9 ust. 2 lit. g) rozporządzenia (UE) 2016/679 i art. 10 ust. 2 lit. g) rozporządzenia (UE) 2018/1725.
(71)
Arusaadav teave selle kohta, kuidas suure riskiga tehisintellektisüsteemid on välja töötatud ja kuidas need kogu oma eluea jooksul töötavad, on äärmiselt oluline, et võimaldada nende süsteemide jälgitavust, kontrollida vastavust käesoleva määruse kohastele nõuetele ning jälgida nende toiminguid ja teha turustamisjärgset seiret. Selleks on vaja säilitada andmeid ja tagada sellise tehnilise dokumentatsiooni kättesaadavus, mis sisaldab teavet, mida on vaja, et hinnata, kas tehisintellektisüsteem vastab asjakohastele nõuetele, ja hõlbustada turustamisjärgset seiret. Sellise teabe hulka peaksid kuuluma süsteemi üldised omadused, võimed ja piirid, algoritmid, andmed, kasutatud treenimis-, testimis- ja valideerimisprotsessid ning dokumentatsioon asjaomase riskijuhtimissüsteemi kohta ning see peaks olema koostatud selgel ja ammendaval viisil. Tehniline dokumentatsioon peaks olema nõuetekohaselt ajakohane kogu tehisintellektisüsteemi eluea jooksul. Lisaks peaksid suure riskiga tehisintellektisüsteemid võimaldama tehniliselt sündmuste automaatset registreerimist, kasutades selleks logisid, süsteemi kogu eluea jooksul.
(71)
Dysponowanie zrozumiałymi informacjami na temat tego, w jaki sposób rozwinięto systemy AI wysokiego ryzyka i jak działają one w całym cyklu życia, ma zasadnicze znaczenie dla umożliwienia identyfikowalności tych systemów, weryfikacji zgodności z wymogami określonymi w niniejszym rozporządzeniu, a także dla monitorowania ich działania i monitorowania po wprowadzeniu do obrotu. W tym celu konieczne jest prowadzenie rejestrów zdarzeń oraz zapewnienie dostępności dokumentacji technicznej zawierającej informacje niezbędne do oceny zgodności systemu AI z odpowiednimi wymogami i do ułatwienia monitorowania po wprowadzeniu do obrotu. Informacje takie powinny być podane w jasnej i kompleksowej formie i obejmować ogólne cechy, zdolności i ograniczenia systemu, algorytmy, dane, procesy związane z trenowaniem, testowaniem i walidacją, a także dokumentację dotyczącą odpowiedniego systemu zarządzania ryzykiem. Dokumentacja techniczna powinna podlegać odpowiedniej aktualizacji w całym cyklu życia systemu AI. Ponadto w systemach AI wysokiego ryzyka powinno być technicznie możliwe automatyczne rejestrowanie zdarzeń – za pomocą rejestrów zdarzeń – w całym cyklu życia systemu.
(72)
Selleks et lahendada probleeme, mis on seotud teatavate tehisintellektisüsteemide läbipaistmatuse ja keerukusega, ning aidata juurutajatel täita käesolevast määrusest tulenevaid kohustusi, tuleks suure riskiga tehisintellektisüsteemide puhul enne nende turule laskmist või kasutusele võtmist nõuda nende läbipaistvust. Suure riskiga tehisintellektisüsteemid tuleks projekteerida viisil, mis võimaldab juurutajatel mõista, kuidas tehisintellektisüsteem toimib, hinnata selle funktsionaalsust ning mõista selle tugevaid külgi ja piire. Suure riskiga tehisintellektisüsteemidega peaks kaasnema asjakohane teave kasutusjuhendi kujul. Selline teave peaks hõlmama tehisintellektisüsteemi omadusi, võimeid ja toimimispiire. Need peaksid hõlmama teavet suure riskiga tehisintellektisüsteemi kasutamisega seotud võimalike teadaolevate ja prognoositavate asjaolude kohta, sealhulgas juurutaja tegevuse kohta, mis võib mõjutada süsteemi käitumist ja toimimist, mille puhul tehisintellektisüsteem võib põhjustada riske tervisele, turvalisusele ja põhiõigustele, muutuste kohta, mille pakkuja on eelnevalt kindlaks määranud ja mille vastavust hinnanud, ning asjakohaste inimjärelevalve meetmete kohta, sealhulgas meetmete kohta, millega hõlbustatakse tehisintellektisüsteemi väljundite tõlgendamist juurutajate poolt. Läbipaistvus, sealhulgas lisatud kasutusjuhendid, peaks aitama juurutajaid süsteemi kasutamisel ja toetama nende teadlike otsuste tegemist. Juurutajad peaksid muu hulgas olema paremas olukorras, et teha õige valik süsteemi osas, mida nad kavatsevad kasutada, võttes arvesse nende suhtes kohaldatavaid kohustusi, olema teadlikud kavandatud ja välistatud kasutusviisidest ning kasutama tehisintellektisüsteemi õigesti ja vastavalt vajadusele. Selleks et parandada kasutusjuhendis sisalduva teabe loetavust ja kättesaadavust, tuleks vajaduse korral lisada selgitavad näited, näiteks tehisintellektisüsteemi piiride ning kavandatud ja välistatud kasutusviiside kohta. Pakkujad peaksid tagama, et kogu dokumentatsioon, sealhulgas kasutusjuhendid, sisaldab sisukat, põhjalikku, kättesaadavat ja arusaadavat teavet, võttes arvesse sihtjuurutajate vajadusi ja prognoositavaid teadmisi. Kasutusjuhendid tuleks teha kättesaadavaks asjaomase liikmesriigi poolt kindlaks määratud keeles, mis on sihtjuurutajatele kergesti arusaadav.
(72)
Aby zająć się kwestiami związanymi z efektem czarnej skrzynki i złożonością niektórych systemów AI i pomóc podmiotom stosującym w spełnianiu ich obowiązków ustanowionych w niniejszym rozporządzeniu, od systemów AI wysokiego ryzyka należy wymagać określonego stopnia przejrzystości przed wprowadzeniem ich do obrotu lub oddaniem ich do użytku. Systemy AI wysokiego ryzyka należy projektować w taki sposób, aby umożliwić podmiotom stosującym zrozumienie funkcjonowania systemu AI, ocenę jego funkcjonalności oraz zrozumienie jego mocnych stron i ograniczeń. Systemom AI wysokiego ryzyka powinny towarzyszyć odpowiednie informacje w formie instrukcji obsługi. Takie informacje powinny obejmować cechy, zdolności i ograniczenia skuteczności działania systemu AI. Obejmowałyby one informacje na temat ewentualnych znanych i dających się przewidzieć okoliczności związanych z wykorzystaniem systemu AI wysokiego ryzyka, w tym działań podmiotu stosującego, które mogą wpływać na zachowanie i skuteczność działania systemu, i w których to okolicznościach system AI może powodować ryzyko dla zdrowia, bezpieczeństwa i praw podstawowych; a także informacje na temat zmian, które zostały z góry zaplanowane i ocenione pod kątem zgodności przez dostawcę, oraz na temat odpowiednich środków nadzoru ze strony człowieka, w tym środków ułatwiających podmiotom stosującym AI interpretację wyników systemu AI. Przejrzystość, w tym towarzyszące instrukcje obsługi, powinny pomóc podmiotom stosującym w korzystaniu z systemu i wspierać podejmowanie przez te podmioty świadomych decyzji. Podmioty stosujące powinny, między innymi, być lepiej przygotowane, aby dokonać właściwego wyboru systemu, z którego zamierzają korzystać w świetle mających do nich zastosowanie obowiązków, mieć wiedzę na temat zamierzonych i wykluczonych sposobów wykorzystania oraz prawidłowo i odpowiednio korzystać z systemu AI. Aby zwiększyć czytelność i dostępność informacji zawartych w instrukcji obsługi, w stosownych przypadkach należy uwzględnić konkretne przykłady, takie jak przykłady ograniczeń czy zamierzonych i wykluczonych sposobów wykorzystania systemu AI. Dostawcy powinni zapewnić, aby wszelka dokumentacja, w tym instrukcje obsługi, zawierała istotne, wyczerpujące, dostępne i zrozumiałe informacje, z uwzględnieniem potrzeb docelowych podmiotów stosujących i prawdopodobnie posiadanej przez te podmioty wiedzy. Instrukcje obsługi powinny być udostępniane w języku łatwo zrozumiałym dla docelowych podmiotów stosujących, określonym przez zainteresowane państwo członkowskie.
(73)
Suure riskiga tehisintellektisüsteeme tuleks projekteerida ja arendada nii, et füüsilised isikud saaksid jälgida nende toimimist, tagada, et neid kasutatakse ettenähtud viisil ja et nende mõju käsitletakse süsteemi elutsükli jooksul. Selleks peaks süsteemi pakkuja tegema enne süsteemi turule laskmist või kasutusele võtmist kindlaks asjakohased inimjärelevalve meetmed. Kui see on asjakohane, tuleks selliste meetmetega eeskätt tagada, et süsteemi on sisse ehitatud tegevuspiirangud, mida süsteem ise ei saa eirata, et süsteem reageerib inimoperaatori käskudele ning et järelevalvega tegelema määratud füüsilistel isiktel on selle ülesande täitmiseks vajalik pädevus, väljaõpe ja volitused. Samuti on hädavajalik tagada, kui see on asjakohane, et suure riskiga tehisintellektisüsteemid sisaldavad mehhanisme, mille abil suunata ja teavitada füüsilist isikut, kellele on määratud inimjärelevalve ülesanne, tegema teadlikke otsuseid, kas, millal ja kuidas sekkuda, et hoida ära negatiivseid tagajärgi või riske või süsteem peatada, kui see ei toimi ettenähtud viisil. Võttes arvesse märkimisväärseid tagajärgi isikutele, kui teatavad biomeetrilise tuvastamise süsteemid annavad valesid tulemusi, on asjakohane näha nende süsteemide puhul ette tõhusama inimjärelevalve nõue, et juurutaja ei saaks süsteemist tuleneva tuvastamise põhjal midagi ette võtta ega otsust teha, kui tuvastamist ei ole eraldi kontrollinud ja kinnitanud vähemalt kaks füüsilist isikut. Need isikud võivad olla pärit ühest või mitmest üksusest ning nende hulka võib kuuluda süsteemi käitav või kasutav isik. See nõue ei tohiks põhjustada tarbetut koormust ega tarbetuid viivitusi ning piisata võib sellest, kui eri isikute tehtud eraldi kontrollid registreeritakse automaatselt süsteemi loodud logides. Võttes arvesse õiguskaitse, rände, piirikontrolli ja varjupaiga valdkonna eripära, ei tohiks seda nõuet kohaldada, kui liidu või liikmesriigi õiguses peetakse selle nõude kohaldamist ebaproportsionaalseks.
(73)
Systemy AI wysokiego ryzyka należy projektować i rozwijać w taki sposób, aby osoby fizyczne mogły nadzorować ich funkcjonowanie, zapewniać, by ich wykorzystanie było zgodne z przeznaczeniem oraz zapewniać, aby skutki ich wykorzystania były uwzględniane w całym cyklu życia systemu. W tym celu przed wprowadzeniem systemu do obrotu lub oddaniem go do użytku dostawca systemu powinien określić odpowiednie środki związane z nadzorem ze strony człowieka. W szczególności, w stosownych przypadkach, takie środki powinny gwarantować, że system podlega wbudowanym ograniczeniom operacyjnym, których sam nie jest w stanie obejść, i reaguje na działania człowieka – operatora systemu, oraz że osoby fizyczne, którym powierzono sprawowanie nadzoru ze strony człowieka, posiadają niezbędne kompetencje, przeszkolenie i uprawnienia do pełnienia tej funkcji. W stosownych przypadkach istotne jest także zapewnienie, aby systemy AI wysokiego ryzyka obejmowały mechanizmy udzielania wskazówek i informacji osobom fizycznym, którym powierzono nadzór ze strony człowieka, aby mogły one podejmować świadome decyzje, czy, kiedy i w jaki sposób należy interweniować w celu uniknięcia negatywnych konsekwencji lub ryzyka lub zatrzymać system, jeżeli nie działa on zgodnie z przeznaczeniem. Zważywszy na istotne konsekwencje dla osób w przypadku nieprawidłowego dopasowania przez niektóre systemy identyfikacji biometrycznej, należy wprowadzić wymóg sprawowania w odniesieniu do tych systemów wzmocnionego nadzoru ze strony człowieka, tak aby podmiot stosujący nie mógł podejmować żadnych działań ani decyzji na podstawie identyfikacji wynikającej z systemu, dopóki nie została ona odrębnie zweryfikowana i potwierdzona przez co najmniej dwie osoby fizyczne. Osoby te mogą pochodzić z różnych podmiotów i mogą to być osoby obsługujące system lub z niego korzystające. Wymóg ten nie powinien powodować niepotrzebnych obciążeń ani opóźnień i powinno wystarczyć, że odrębne weryfikacje dokonywane przez różne osoby będą automatycznie rejestrowane w wygenerowanych przez system rejestrach zdarzeń. Biorąc pod uwagę specyfikę obszarów ścigania przestępstw, migracji, kontroli granicznej i azylu, wymóg ten nie powinien mieć zastosowania, jeżeli na mocy prawa Unii lub prawa krajowego stosowanie tego wymogu uznaje się za nieproporcjonalne.
(74)
Suure riskiga tehisintellektisüsteemid peaksid toimima kogu oma elutsükli jooksul järjepidevalt ning nende täpsus, stabiilsus ja küberturvalisus peaks nende sihtotstarvet arvesse võttes olema asjakohasel tasemel vastavalt tehnika üldtunnustatud tasemele. Komisjoni ning asjaomaseid organisatsioone ja sidusrühmi julgustatakse võtma nõuetekohaselt arvesse tehisintellektisüsteemi riskide maandamist ja nende negatiivset mõju. Toimimise parameetrite eeldatav tase tuleks deklareerida süsteemiga kaasas olevas kasutusjuhendis. Pakkujaid kutsutakse üles edastama see teave juurutajatele selgel ja kergesti arusadaval viisil, hoidudes vääritimõistmistest ja eksitavatest väidetest. Legaalmetroloogiat käsitleva liidu õiguse, sealhulgas Euroopa Parlamendi ja nõukogu direktiivide 2014/31/EL (35) ja 2014/32/EL (36) eesmärk on tagada mõõtmiste täpsus ning aidata kaasa äritehingute läbipaistvusele ja aususele. Sellega seoses peaks komisjon koostöös asjaomaste sidusrühmade ja organisatsioonidega, nagu metroloogia- ja võrdlusuuringuasutused, soodustama, kui see on asjakohane, tehisintellektisüsteemide võrdlusaluste ja mõõtmismeetodite väljatöötamist. Seda tehes peaks komisjon võtma teadmiseks rahvusvahelised partnerid, kes tegelevad metroloogia ja tehisintellektiga seotud asjakohaste mõõtmisnäitajatega, ja tegema nendega koostööd.
(74)
Systemy AI wysokiego ryzyka powinny działać w sposób spójny w całym cyklu życia i charakteryzować się odpowiednim poziomem dokładności, solidności i cyberbezpieczeństwa – w świetle ich przeznaczenia i zgodnie z powszechnie uznawanym stanem wiedzy technicznej. Komisję oraz odpowiednie organizacje i zainteresowane strony zachęca się, by należycie uwzględniały ograniczanie ryzyka i negatywnych skutków związanych z systemem AI. Oczekiwany poziom wskaźników skuteczności działania należy zadeklarować w załączonej instrukcji obsługi. Dostawców wzywa się, by przekazywali te informacje podmiotom stosującym w jasny i łatwo zrozumiały sposób, wolny od dwuznaczności i stwierdzeń wprowadzających w błąd. Prawo Unii dotyczące metrologii prawnej, w tym dyrektywy Parlamentu Europejskiego i Rady 2014/31/UE (35) i 2014/32/UE (36), ma na celu zapewnienie dokładności pomiarów oraz wspieranie przejrzystości i uczciwości transakcji handlowych. W tym kontekście, we współpracy z odpowiednimi zainteresowanymi stronami i organizacjami, takimi jak organy ds. metrologii i organy ds. analizy porównawczej, Komisja powinna w stosownych przypadkach zachęcać do opracowywania poziomów odniesienia i metod pomiaru dotyczących systemów AI. Komisja powinna przy tym współpracować z partnerami międzynarodowymi pracującymi nad metrologią i odpowiednimi wskaźnikami pomiarowymi związanymi z AI oraz uwzględniać ich działania.
(75)
Suure riskiga tehisintellektisüsteemide üks peamisi nõudeid on tehniline stabiilsus. Sellised süsteemid peaksid olema vastupidavad kahjuliku või muul viisil soovimatu käitumise suhtes, mis võib tuleneda süsteemide või nende töökeskkonna piirangutest (näiteks vead, rikked, ebakõlad, ootamatud olukorrad). Seepärast tuleks võtta tehnilisi ja korralduslikke meetmeid, et tagada suure riskiga tehisintellektisüsteemide stabiilsus, näiteks projekteerides ja arendades asjakohaseid tehnilisi lahendusi kahjuliku või muul viisil soovimatu käitumise ennetamiseks või minimeerimiseks. Nende tehniliste lahenduste seas võivad näiteks olla mehhanismid, mis võimaldavad süsteemil oma töö ohutult katkestada (tõrkekindluse plaanid) teatavate kõrvalekallete esinemisel või juhul, kui käitamine toimub väljaspool teatavaid eelnevalt kindlaks määratud piire. Nende riskide eest kaitsmata jätmine võib mõjutada ohutust või kahjustada põhiõigusi näiteks ekslike otsuste või tehisintellektisüsteemi loodud ekslike või kallutatud väljundite tõttu.
(75)
Kluczowym wymogiem dotyczącym systemów AI wysokiego ryzyka jest solidność techniczna. Powinny one być odporne na szkodliwe lub w inny sposób niepożądane zachowania, które mogą wynikać z ograniczeń w systemach lub ze środowiska, w którym te systemy działają (np. błędy, usterki, niespójności, nieoczekiwane sytuacje). W związku z tym należy wprowadzić środki techniczne i organizacyjne, by zapewnić solidność systemów AI wysokiego ryzyka, na przykład poprzez projektowanie i rozwijanie odpowiednich rozwiązań technicznych w celu zapobiegania szkodliwym lub innym niepożądanym zachowaniom lub ich ograniczania. Takie rozwiązania techniczne mogą obejmować na przykład mechanizmy umożliwiające bezpieczne przerwanie działania systemu (przejście systemu w stan bezpieczny – tzw. „fail-safe”), jeśli zaistnieją pewne nieprawidłowości lub gdy działanie wykracza poza określone z góry granice. Brak ochrony przed tym ryzykiem może mieć konsekwencje dla bezpieczeństwa lub negatywnie wpłynąć na prawa podstawowe, na przykład z powodu błędnych decyzji lub nieprawidłowych lub stronniczych wyników generowanych przez system AI.
(76)
Küberturvalisusel on oluline roll, et tagada tehisintellektisüsteemide vastupanuvõime pahatahtlike kolmandate isikute katsetele muuta süsteemi nõrku kohti ära kasutades süsteemi kasutust, käitumist või toimimist või kahjustada selle turvaomadusi. Tehisintellektisüsteemide vastu suunatud küberrünnetes võidakse ära kasutada tehisintellektispetsiifilisi ressursse, näiteks treeningandmestikke (näiteks andmemürgitus) või treenitud mudeleid (näiteks vastandründed (adversarial attacks) või liikmesuse järeldamine), või tehisintellektisüsteemi digivarade või IKT alustaristu nõrkusi. Seega peaksid suure riskiga tehisintellektisüsteemide pakkujad võtma riskidele vastava küberturvalisuse taseme tagamiseks sobivaid meetmeid, näiteks kehtestama turvakontrollid, võttes samuti asjakohasel juhul arvesse IKT alustaristut.
(76)
Cyberbezpieczeństwo odgrywa kluczową rolę w zapewnianiu odporności systemów AI na próby modyfikacji ich wykorzystania, zachowania, skuteczności działania lub obejścia ich zabezpieczeń przez działające w złej wierze osoby trzecie wykorzystujące słabe punkty systemu. Cyberataki na systemy AI mogą polegać na wykorzystaniu konkretnych zasobów AI, takich jak zbiory danych treningowych (np. zatruwanie danych) lub trenowane modele (np. ataki kontradyktoryjne lub ataki wnioskowania o członkostwie), lub wykorzystaniu słabych punktów w zasobach cyfrowych systemu AI lub w bazowej infrastrukturze ICT. Aby zapewnić poziom cyberbezpieczeństwa odpowiedni do ryzyka, dostawcy systemów AI wysokiego ryzyka powinni zatem wdrożyć odpowiednie środki, takie jak mechanizmy kontroli bezpieczeństwa, uwzględniając również w stosownych przypadkach infrastrukturę ICT, na której opiera się dany system.
(77)
Ilma et see piiraks käesolevas määruses sätestatud stabiilsuse ja täpsuse nõuete kohaldamist, võivad suure riskiga tehisintellektisüsteemid, mis kuuluvad Euroopa Parlamendi ja nõukogu määruse, mis käsitleb digielemente sisaldavate toodete küberturvalisuse horisontaalseid nõudeid kohaldamisalasse, tõendada kooskõlas kõnealuse määrusega vastavust käesoleva määruse küberturvalisuse nõuetele, täites kõnealuses määruses sätestatud olulisi küberturvalisuse nõudeid. Kui suure riskiga tehisintellektisüsteemid vastavad Euroopa Parlamendi ja nõukogu määruse, mis käsitleb digielemente sisaldavate toodete küberturvalisuse horisontaalseid nõudeid olulistele nõuetele, tuleks neid käsitada käesolevas määruses sätestatud küberturvalisuse nõuetele vastavana, kui nende nõuete täitmist tõendatakse kõnealuse määruse alusel väljastatud ELi vastavusdeklaratsioonis või selle osades. Sel eesmärgil tuleks küberturvalisuse riskide hindamisel, mis on seotud digielemente sisaldava tootega, mis on käesoleva määruse kohaselt liigitatud suure riskiga tehisintellektisüsteemiks, ja mis viiakse läbi Euroopa Parlamendi ja nõukogu määruse, mis käsitleb digielemente sisaldavate toodete küberturvalisuse horisontaalseid nõudeid alusel, võtta arvesse riske tehisintellektisüsteemi kübervastupidavusvõimele seoses volitamata kolmandate isikute katsetega muuta selle kasutust, käitumist või toimimist, sealhulgas tehisintellektile iseloomulikku nõrkusi, nagu andmemürgitus või vastandründed, ning kui see on asjakohane, riske põhiõigustele, nagu on käesolevas määruses nõutud.
(77)
Bez uszczerbku dla wymogów związanych z solidnością i dokładnością określonych w niniejszym rozporządzeniu systemy AI wysokiego ryzyka, które wchodzą w zakres stosowania rozporządzenia Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi, zgodnie z tym rozporządzeniem mogą wykazać zgodność z wymogami w zakresie cyberbezpieczeństwa określonymi w niniejszym rozporządzeniu w drodze spełnienia zasadniczych wymogów w zakresie cyberbezpieczeństwa ustanowionych w tym rozporządzeniu. W przypadku gdy systemy AI wysokiego ryzyka spełniają zasadnicze wymogi rozporządzenia Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi, należy uznać, że wykazują zgodność z wymogami w zakresie cyberbezpieczeństwa ustanowionymi w niniejszym rozporządzeniu w zakresie, w jakim spełnienie tych wymogów wykazano w deklaracji zgodności UE lub w jej częściach wydanych zgodnie z tym rozporządzeniem. W tym celu ocena ryzyka dotyczącego cyberbezpieczeństwa związanego z produktem z elementami cyfrowymi, które zaklasyfikowano jako system AI wysokiego ryzyka zgodnie z niniejszym rozporządzeniem, przeprowadzana na podstawie rozporządzenia Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi, powinna uwzględniać ryzyko dla cyberodporności systemu AI w odniesieniu do podejmowanych przez nieupoważnione osoby trzecie prób zmiany jego wykorzystania, zachowania lub skuteczności działania, w tym uwzględniać charakterystyczne dla AI słabe punkty, takie jak ryzyko zatruwania danych lub ataki kontradyktoryjne, a także, w stosownych przypadkach, uwzględniać ryzyko dla praw podstawowych zgodnie z wymogami niniejszego rozporządzenia.
(78)
Käesolevas määruses sätestatud vastavushindamismenetlust tuleks kohaldada Euroopa Parlamendi ja nõukogu määruse, mis käsitleb digielemente sisaldavate toodete küberturvalisuse horisontaalseid nõudeid, kohaldamisalasse kuuluva ja käesoleva määruse alusel suure riskiga tehisintellektisüsteemiks liigitatud digielemente sisaldava toote oluliste küberturvalisuse nõuete suhtes. Sellise normi tagajärjel ei tohiks siiski väheneda Euroopa Parlamendi ja nõukogu määruse, mis käsitleb digielemente sisaldavate toodete küberturvalisuse horisontaalseid nõudeid, kohaldamisalasse kuuluvate digielemente sisaldavate kriitilise tähtsusega toodete usaldusväärsuse vajalik tase. Seepärast, erandina sellest normist, kohaldatakse suure riskiga tehisintellektisüsteemide suhtes, mis kuuluvad käesoleva määruse kohaldamisalasse ning mis on ühtlasi liigitatud Euroopa Parlamendi ja nõukogu määruse, mis käsitleb digielemente sisaldavate toodete küberturvalisuse horisontaalseid nõudeid, kohaselt olulisteks ja kriitilise tähtsusega digielemente sisaldavateks toodeteks ning mille suhtes kohaldatakse käesoleva määruse lisas sätestatud sisekontrollil põhinevat vastavushindamismenetlust, Euroopa Parlamendi ja nõukogu määruse, mis käsitleb digielemente sisaldavate toodete küberturvalisuse horisontaalseid nõudeid, vastavushindamist käsitlevaid sätteid niivõrd, kuivõrd see on seotud kõnealuse määruse oluliste küberturvalisuse nõuetega. Sellisel juhul tuleks kõigis muudes käesoleva määrusega hõlmatud aspektides kohaldada käesoleva määruse lisas sätestatud sisekontrollil põhineva vastavushindamismenetluse vastavaid sätteid. Tuginedes Euroopa Liidu Küberturvalisuse Ameti (ENISA) küberturvalisuse poliitikaga seotud teadmistele ja oskusteabele ning ENISA-le Euroopa Parlamendi ja nõukogu määrusega (EL) 2019/881 (37) antud ülesannetele, peaks komisjon tehisintellektisüsteemide küberturvalisusega seotud küsimustes ENISAga koostööd tegema.
(78)
Procedura oceny zgodności przewidziana w niniejszym rozporządzeniu powinna mieć zastosowanie do zasadniczych wymogów w zakresie cyberbezpieczeństwa produktu z elementami cyfrowymi objętego rozporządzeniem Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi i zaklasyfikowanego jako system AI wysokiego ryzyka na podstawie niniejszego rozporządzenia. Zasada ta nie powinna jednak powodować zmniejszenia niezbędnego poziomu ufności w odniesieniu do produktów krytycznych z elementami cyfrowymi objętych rozporządzeniem Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi. W związku z tym, na zasadzie odstępstwa od tej zasady, systemy AI wysokiego ryzyka, które wchodzą w zakres niniejszego rozporządzenia i są również kwalifikowane jako ważne i krytyczne produkty z elementami cyfrowymi zgodnie z rozporządzeniem Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi i do których ma zastosowanie procedura oceny zgodności oparta na kontroli wewnętrznej określona w załączniku do niniejszego rozporządzenia, podlegają przepisom dotyczącym oceny zgodności zawartym w rozporządzeniu Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi w zakresie, w jakim dotyczy to zasadniczych wymogów w zakresie cyberbezpieczeństwa określonych w tym rozporządzeniu. W tym przypadku do wszystkich pozostałych aspektów objętych niniejszym rozporządzeniem należy stosować odpowiednie przepisy dotyczące oceny zgodności opierającej się na kontroli wewnętrznej określone w załączniku do niniejszego rozporządzenia. By wykorzystać wiedzę teoretyczną i fachową ENISA w zakresie polityki cyberbezpieczeństwa i w oparciu o zadania powierzone ENISA na podstawie rozporządzenia Parlamentu Europejskiego i Rady (UE) 2019/881 (37), Komisja powinna współpracować z ENISA w kwestiach związanych z cyberbezpieczeństwem systemów AI.
(79)
On asjakohane, et suure riskiga tehisintellektisüsteemi turule laskmise või kasutusele võtmise eest võtab vastutuse konkreetne füüsiline või juriidiline isik, kes on määratletud kui pakkuja, olenemata sellest, kas see füüsiline või juriidiline isik on süsteemi projekteerija või arendaja.
(79)
Należy zapewnić, aby odpowiedzialność za wprowadzenie do obrotu lub oddanie do użytku systemu AI wysokiego ryzyka ponosiła konkretna osoba fizyczna lub prawna określona jako dostawca, niezależnie od tego, czy ta osoba fizyczna lub prawna jest osobą, która zaprojektowała lub rozwinęła system.
(80)
ÜRO puuetega inimeste õiguste konventsiooni allkirjastajatena on liit ja liikmesriigid seadusega kohustatud kaitsma puuetega inimesi diskrimineerimise eest ja edendama nende võrdõiguslikkust, tagama puuetega inimestele teistega võrdsetel alustel juurdepääsu info- ja kommunikatsioonitehnoloogiale ja -süsteemidele ning tagama puuetega inimeste eraelu puutumatuse austamise. Arvestades tehisintellektisüsteemide kasvavat tähtsust ja kasutamist, peaks universaaldisaini põhimõtete kohaldamine kõigi uute tehnoloogiate ja teenuste suhtes tagama täieliku ja võrdse juurdepääsu kõigile, keda tehisintellekti tehnoloogiad potentsiaalselt mõjutavad või kes neid kasutavad, sealhulgas puuetega inimestele, võttes täielikult arvesse nende loomupärast väärikust ja mitmekesisust. Seepärast on oluline, et pakkujad järgiksid täielikult ligipääsetavusnõudeid, sealhulgas Euroopa Parlamendi ja nõukogu direktiivi (EL) 2016/2102 (38) ja direktiivi (EL) 2019/882. Pakkujad peaksid tagama, et need nõuetelevastavuse kohustused on integreeritud. Seepärast tuleks vajalikud meetmed integreerida võimalikult suures ulatuses suure riskiga tehisintellektisüsteemi projekteerimisse.
(80)
Jako sygnatariusze Konwencji ONZ o prawach osób niepełnosprawnych Unia i państwa członkowskie są prawnie zobowiązane do ochrony osób z niepełnosprawnościami przed dyskryminacją i do propagowania ich równości, do zapewnienia im dostępu na równych zasadach z innymi osobami do technologii i systemów informacyjno-komunikacyjnych oraz do zapewnienia poszanowania ich prywatności. Z uwagi na rosnące znaczenie i wykorzystanie systemów sztucznej inteligencji stosowanie zasad projektowania uniwersalnego do wszystkich nowych technologii i usług powinno zapewniać pełny i równy dostęp dla wszystkich osób, których potencjalnie dotyczą technologie AI lub które je stosują, w tym osób z niepełnosprawnościami, w sposób uwzględniający w pełni ich przyrodzoną godność i różnorodność. Istotne jest zatem, aby dostawcy zapewniali pełną zgodność z wymogami dostępności, w tym z dyrektywą Parlamentu Europejskiego i Rady (UE) 2016/2102 (38) i dyrektywą (UE) 2019/882. Dostawcy powinni zapewnić zgodność z tymi wymogami już na etapie projektowania. W związku z tym w projektowaniu systemu AI wysokiego ryzyka należy w jak największym stopniu uwzględnić niezbędne środki.
(81)
Pakkuja peaks kehtestama usaldusväärse kvaliteedijuhtimissüsteemi, tagama nõutava vastavushindamismenetluse teostamise, koostama asjakohase dokumentatsiooni ja kehtestama stabiilse turustamisjärgse seire süsteemi. Suure riskiga tehisintellektisüsteemide pakkujatel, kelle suhtes kohaldatakse asjaomase valdkondliku liidu õiguse alusel kvaliteedijuhtimissüsteeme käsitlevaid kohustusi, peaks olema võimalus lisada käesoleva määrusega ette nähtud kvaliteedijuhtimissüsteemi elemendid juba kehtivasse kvaliteedijuhtimissüsteemi, mis oli ette nähtud kõnealuse muu valdkondliku liidu õigusega. Käesoleva määruse ja kehtiva liidu valdkondliku õiguse vastastikust täiendavust tuleks arvesse võtta ka tulevases standardimistegevuses või komisjoni vastuvõetavates suunistes. Ametiasutused, kes võtavad suure riskiga tehisintellektisüsteemi kasutusele oma tarbeks, võivad võtta vastu kvaliteedijuhtimissüsteemi reeglid ja neid rakendada olenevalt asjaoludest riigi või piirkonna tasemel vastuvõetud kvaliteedijuhtimissüsteemi osana, võttes arvesse sektori iseärasusi ning asjaomase ametiasutuse pädevust ja töökorraldust.
(81)
Dostawca powinien ustanowić solidny system zarządzania jakością, zapewnić przeprowadzenie wymaganej procedury oceny zgodności, sporządzić odpowiednią dokumentację i ustanowić solidny system monitorowania po wprowadzeniu do obrotu. Dostawcy systemów AI wysokiego ryzyka, którzy podlegają obowiązkom dotyczącym systemów zarządzania jakością na mocy odpowiednich sektorowych przepisów prawa Unii, powinni mieć możliwość włączenia elementów systemu zarządzania jakością przewidzianego w niniejszym rozporządzeniu do istniejącego systemu zarządzania jakością przewidzianego w innych sektorowych przepisach prawa Unii. Komplementarność między niniejszym rozporządzeniem a obowiązującymi sektorowymi przepisami prawa Unii powinna być również brana pod uwagę w przyszłych działaniach normalizacyjnych lub wytycznych przyjmowanych przez Komisję. Organy publiczne, które oddają do użytku systemy AI wysokiego ryzyka do celów własnych, mogą – w ramach przyjętego, odpowiednio, na poziomie krajowym lub regionalnym systemu zarządzania jakością – przyjąć i wdrożyć zasady dotyczące systemu zarządzania jakością, z uwzględnieniem specyfiki sektora oraz kompetencji i organizacji danego organu publicznego.
(82)
Et võimaldada käesoleva määruse täitmine ja luua operaatoritele võrdsed tingimused, võttes sealjuures arvesse digitoodete kättesaadavaks tegemise eri vorme, on oluline tagada, et liidus asutatud isik saab igas olukorras esitada ametiasutustele kogu vajaliku teabe tehisintellektisüsteemi nõuetele vastavuse kohta. Seepärast peaks kolmandas riigis asutatud pakkuja enne oma süsteemide liidu turul kättesaadavaks tegemist määrama kirjaliku volitusega liidus asutatud volitatud esindaja. Pakkujate puhul, kes ei ole asutatud liidus, on sellel volitatud esindajal esmatähtis roll selliste pakkujate poolt liidus turule lastud või kasutusele võetud suure riskiga tehisintellektisüsteemide nõuetele vastavuse tagamisel ja nende liidus asutatud kontaktisikuna tegutsemisel.
(82)
W celu umożliwienia egzekwowania przepisów niniejszego rozporządzenia i stworzenia równych warunków działania dla operatorów, a także uwzględniając różne formy udostępniania produktów cyfrowych, należy zapewnić, aby w każdych okolicznościach osoba, która ma miejsce zamieszkania lub siedzibę w Unii, była w stanie przekazać organom wszystkie niezbędne informacje dotyczące zgodności danego systemu AI. W związku z tym dostawcy mający miejsce zamieszkania lub siedzibę w państwach trzecich przed udostępnieniem swoich systemów AI w Unii powinni ustanowić – na podstawie pisemnego pełnomocnictwa – upoważnionego przedstawiciela mającego miejsce zamieszkania lub siedzibę w Unii. Ten upoważniony przedstawiciel odgrywa kluczową rolę w zapewnianiu zgodności systemów AI wysokiego ryzyka wprowadzanych do obrotu lub oddawanych do użytku w Unii przez dostawców, którzy nie mają miejsca zamieszkania lub siedziby w Unii, oraz w pełnieniu funkcji ich osoby kontaktowej mającej miejsce zamieszkania lub siedzibę w Unii.
(83)
Võttes arvesse tehisintellektisüsteemide väärtusahela laadi ja keerukust ning kooskõlas uue õigusraamistikuga, on oluline tagada õiguskindlus ja hõlbustada käesoleva määruse järgimist. Seepärast on vaja selgitada asjaomaste ettevõtjate, näiteks importijate ja turustajate, kes võivad aidata kaasa tehisintellektisüsteemide arendamisele, rolli ja konkreetseid kohustusi kogu selles väärtusahelas. Teatavates olukordades võivad need operaatorid tegutseda samal ajal rohkem kui ühes rollis ja peaksid seetõttu kumulatiivselt täitma kõik nende rollidega seotud asjakohased kohustused. Näiteks võib operaator tegutseda samal ajal turustaja ja importijana.
(83)
W świetle charakteru i złożoności łańcucha wartości systemów AI oraz zgodnie z nowymi ramami prawnymi konieczne jest zapewnienie pewności prawa i ułatwienie zgodności z niniejszym rozporządzeniem. W związku z tym konieczne jest wyjaśnienie roli i konkretnych obowiązków odpowiednich operatorów w całym łańcuchu wartości, takich jak importerzy i dystrybutorzy, którzy mogą przyczyniać się do rozwoju systemów AI. W niektórych sytuacjach operatorzy ci mogą odgrywać więcej niż jedną rolę jednocześnie i w związku z tym powinni łącznie spełniać wszystkie odpowiednie obowiązki związane z tymi rolami. Na przykład operator może występować jednocześnie jako dystrybutor i importer.
(84)
Õiguskindluse tagamiseks on oluline selgitada, et teatavatel konkreetsetel tingimustel tuleks iga turustajat, importijat, juurutajat või muud kolmandat isikut käsitada suure riskiga tehisintellektisüsteemi pakkujana ning tal peaksid seega olema kõik asjaomased kohustused. See hõlmaks selliseid juhtumeid, kui nimetatud isik lisab oma nime või kaubamärgi juba turule lastud või kasutusele võetud suure riskiga tehisintellektisüsteemile, ilma et see piiraks selliste lepinguliste kokkulepete kohaldamist, milles sätestatakse, et kohustused jaotatakse muul viisil. See hõlmaks ka selliseid juhtumeid, kui see isik muudab oluliselt suure riskiga tehisintellektisüsteemi, mis on juba turule lastud või juba kasutusele võetud, ja nii, et see jääb suure riskiga tehisintellektisüsteemiks kooskõlas käesoleva määrusega, või kui ta muudab sellise tehisintellektisüsteemi, sealhulgas üldotstarbelise tehisintellektisüsteemi sihtotstarvet, mida ei ole liigitatud suure riskiga süsteemiks ja mis on juba turule lastud või kasutusele võetud, viisil, mis muudab selle tehisintellektisüsteemi käesoleva määruse kohaselt suure riskiga tehisintellektisüsteemiks. Neid sätteid tuleks kohaldada, ilma et see piiraks selliste konkreetsemate sätete kohaldamist, mis on kehtestatud teatavates uuel õigusraamistikul põhinevates liidu ühtlustamisõigusaktides, millega koos tuleks käesolevat määrust kohaldada. Näiteks määruse (EL) 2017/745 artikli 16 lõiget 2, milles on sätestatud, et teatavaid muudatusi ei tohiks käsitada seadme muutmisena viisil, mis võib mõjutada selle vastavust kohaldatavatele nõuetele, tuleks jätkuvalt kohaldada suure riskiga tehisintellektisüsteemide suhtes, mis on kõnealuse määruse tähenduses meditsiiniseadmed.
(84)
Aby zapewnić pewność prawa, należy wyjaśnić, że w pewnych określonych warunkach każdego dystrybutora, importera, podmiot stosujący lub inną stronę trzecią należy uznać za dostawcę systemu AI wysokiego ryzyka i w związku z tym powinni oni przyjąć na siebie wszystkie związane z tym obowiązki. Miałoby to miejsce w przypadku, gdy strona ta umieszcza swoją nazwę lub znak towarowy w systemie AI wysokiego ryzyka, który został już wprowadzony do obrotu lub oddany do użytku, bez uszczerbku dla ustaleń umownych przewidujących odmienny podział obowiązków. Miałoby to miejsce również w przypadku, gdy strona ta dokonuje istotnej zmiany w systemie AI wysokiego ryzyka, który został już wprowadzony do obrotu lub oddany do użytku, w taki sposób, że pozostaje on systemem AI wysokiego ryzyka zgodnie z niniejszym rozporządzeniem, lub jeżeli zmieni przeznaczenie systemu AI, w tym systemu AI ogólnego przeznaczenia, który nie został zaklasyfikowany jako system wysokiego ryzyka i został już wprowadzony do obrotu lub oddany do użytku, w taki sposób, że ten system AI staje się systemem wysokiego ryzyka zgodnie z niniejszym rozporządzeniem. Przepisy te należy stosować bez uszczerbku dla bardziej szczegółowych przepisów ustanowionych w unijnym prawodawstwie harmonizacyjnym opartym o nowe ramy prawne, wraz z którymi należy stosować niniejsze rozporządzenie. Na przykład do systemów AI wysokiego ryzyka będących wyrobami medycznymi w rozumieniu rozporządzenia (UE) 2017/745, należy nadal stosować art. 16 ust. 2 tego rozporządzenia stanowiący, że niektórych zmian nie należy uznawać za modyfikację wyrobu mogącą wpłynąć na jego zgodność z obowiązującymi wymogami.
(85)
Üldotstarbelisi tehisintellektisüsteeme võib kasutada eraldi suure riskiga tehisintellektisüsteemidena või muude suure riskiga tehisintellektisüsteemide komponentidena. Seepärast peaksid selliste süsteemide pakkujad nende eripära tõttu ja selleks, et tagada vastutuse õiglane jagamine kogu tehisintellekti väärtusahelas, olenemata sellest, kas teised pakkujad võivad neid kasutada eraldi suure riskiga tehisintellektisüsteemidena või suure riskiga tehisintellektisüsteemide komponentidena, ning kui käesolevas määruses ei ole sätestatud teisiti, tegema asjakohasel juhul tihedat koostööd asjaomaste suure riskiga tehisintellektisüsteemide pakkujatega, et võimaldada neil täita käesolevast määrusest tulenevaid asjakohaseid kohustusi, ja käesoleva määruse alusel loodud pädevate asutustega.
(85)
Systemy AI ogólnego przeznaczenia mogą być wykorzystywane jako samodzielne systemy AI wysokiego ryzyka lub stanowić element innych systemów AI wysokiego ryzyka. W związku z tym z uwagi na ich szczególny charakter i aby zapewnić sprawiedliwy podział odpowiedzialności w całym łańcuchu wartości AI, dostawcy takich systemów, niezależnie od tego, czy ich mogą być one wykorzystywane jako systemy AI wysokiego ryzyka przez innych dostawców czy jako elementy systemów AI wysokiego ryzyka, powinni ściśle współpracować – o ile niniejsze rozporządzenie nie stanowi inaczej – z dostawcami odpowiednich systemów AI wysokiego ryzyka, aby umożliwić im spełnianie odpowiednich obowiązków ustanowionych w niniejszym rozporządzeniu, oraz z właściwymi organami ustanowionymi na podstawie niniejszego rozporządzenia.
(86)
Kui pakkujat, kes tehisintellektisüsteemi algselt turule laskis või kasutusele võttis, ei tuleks käesolevas määruses sätestatud tingimustel enam käsitada pakkujana käesoleva määruse tähenduses ja kui see pakkuja ei ole sõnaselgelt välistanud tehisintellektisüsteemi muutmise suure riskiga tehisintellektisüsteemiks, peaks see endine pakkuja siiski tegema tihedat koostööd ja tegema kättesaadavaks vajaliku teabe ning pakkuma mõistlikult eeldatavat tehnilist juurdepääsu ja muud abi, mida on vaja käesolevas määruses sätestatud kohustuste täitmiseks, eelkõige seoses suure riskiga tehisintellektisüsteemide vastavushindamise järgimisega.
(86)
W przypadku gdy zgodnie z warunkami ustanowionymi w niniejszym rozporządzeniu dostawcy, który pierwotnie wprowadził system AI do obrotu lub oddał go do użytku, nie należy już uznawać za dostawcę do celów niniejszego rozporządzenia, a dostawca ten nie wykluczył wyraźnie, że system AI może zostać zmieniony w system AI wysokiego ryzyka, ten pierwszy dostawca powinien nadal ściśle współpracować i udostępniać niezbędne informacje oraz zapewniać dostęp techniczny i inną pomoc, których można zasadnie oczekiwać i które są wymagane do spełnienia obowiązków ustanowionych w niniejszym rozporządzeniu, w szczególności w zakresie wymogów dotyczących oceny zgodności systemów AI wysokiego ryzyka.
(87)
Lisaks, kui suure riskiga tehisintellektisüsteemi, mis on toote turvakomponent, mis kuulub uuel õigusraamistikul põhinevate liidu ühtlustamisõigusaktide kohaldamisalasse, ei lasta turule ega võeta kasutusele tootest eraldi, peaks nendes õigusaktides määratletud toote valmistaja täitma käesolevas määruses pakkujale kehtestatud kohustusi ja eeskätt tagama selle, et lõpptootesse sisse ehitatud tehisintellektisüsteem vastab käesoleva määruse nõuetele.
(87)
Ponadto w przypadku gdy system AI wysokiego ryzyka będący związanym z bezpieczeństwem elementem produktu, który wchodzi w zakres stosowania unijnego prawodawstwa harmonizacyjnego opartego na nowych ramach prawnych, nie jest wprowadzany do obrotu ani oddawany do użytku niezależnie od tego produktu, producent produktu – w rozumieniu tego prawodawstwa – powinien spełniać obowiązki dostawcy ustanowione w niniejszym rozporządzeniu, a w szczególności zapewnić zgodność systemu AI wbudowanego w produkt końcowy z wymogami niniejszego rozporządzenia.
(88)
Tehisintellekti väärtusahelas pakuvad mitmed osalejad sageli tehisintellektisüsteeme, vahendeid ja teenuseid, aga ka komponente või protsesse, mille pakkuja inkorporeerib tehisintellektisüsteemi erinevatel eesmärkidel, sealhulgas mudelite treenimine ja ümbertreenimine, mudelite testimine ja hindamine, integreerimine tarkvarasse või muud mudeliarenduse aspektid. Nendel osalejatel on väärtusahelas oluline roll seoses pakkujaga, kes pakub suure riskiga tehisintellektisüsteemi, millesse nende tehisintellektisüsteemid, vahendid, teenused, komponendid või protsessid on integreeritud, ning nad peaksid kirjalikul kokkuleppel andma sellele pakkujale vajalikku teavet, võimeid, tehnilist juurdepääsu ja muud abi, tuginedes tehnika üldtunnustatud tasemele, et võimaldada pakkujal täielikult täita käesolevas määruses sätestatud kohustusi, ilma et see kahjustaks nende endi intellektuaalomandi õigusi või ärisaladusi.
(88)
W całym łańcuchu wartości AI wiele podmiotów często dostarcza systemy AI, narzędzia i usługi, ale również elementy lub procesy, które są włączane przez dostawcę do systemu AI w różnych celach, w tym trenowania modelu, retrenowania modelu, testowania i oceny modelu, integracji z oprogramowaniem lub innych aspektów rozwoju modelu. Podmioty te mają do odegrania ważną rolę w łańcuchu wartości w stosunku do dostawcy systemu AI wysokiego ryzyka, z którym to systemem zintegrowane są ich systemy AI, narzędzia, usługi, elementy lub procesy; podmioty te powinny zapewnić temu dostawcy na podstawie pisemnej umowy niezbędne informacje, zdolności, dostęp techniczny i inną pomoc w oparciu o powszechnie uznany stan wiedzy technicznej, aby umożliwić dostawcy pełne spełnienie obowiązków ustanowionych w niniejszym rozporządzeniu, bez uszczerbku dla ich własnych praw własności intelektualnej lub tajemnic przedsiębiorstwa.
(89)
Kolmandaid isikuid, kes teevad üldsusele kättesaadavaks vahendeid, teenuseid, protsesse või tehisintellektikomponente, mis on muud kui üldotstarbelised tehisintellektimudelid, ei peaks kohustama täitma kogu tehisintellekti väärtusahelat katvate kohustustega seotud nõudeid, eelkõige neid kasutanud või need integreerinud pakkuja puhul, kui need vahendid, teenused, protsessid või tehisintellekti komponendid tehakse kättesaadavaks vaba ja avatud lähtekoodi litsentsi alusel. Vaba ja avatud lähtekoodiga vahendite, teenuste, protsesside või tehisintellekti komponentide, mis ei ole üldotstarbelised tehisintellektimudelid, arendajaid tuleks julgustada rakendama laialdaselt kasutatavaid dokumenteerimistavasid, nagu mudeli- ja andmelehed, et kiirendada teabe jagamist tehisintellekti väärtusahelas, võimaldades liidus edendada usaldusväärseid tehisintellektisüsteeme.
(89)
Strony trzecie udostępniające publicznie narzędzia, usługi, procesy lub elementy AI, inne niż modele AI ogólnego przeznaczenia, nie powinny być zobowiązane do zapewnienia zgodności z wymogami dotyczącymi odpowiedzialności w całym łańcuchu wartości AI, w szczególności wobec dostawcy, który je wykorzystał lub zintegrował, jeżeli te narzędzia, usługi, procesy lub elementy AI są udostępniane na podstawie bezpłatnej licencji otwartego oprogramowania. Należy zachęcać twórców narzędzi, usług, procesów lub elementów AI, innych niż modele AI ogólnego przeznaczenia, które są udostępniane na bezpłatnej licencji otwartego oprogramowania, do wdrażania powszechnie przyjętych praktyk w zakresie dokumentacji, takich jak karta modelu i karta charakterystyki, jako sposobu na przyspieszenie wymiany informacji w całym łańcuchu wartości AI, co umożliwi promowanie godnych zaufania systemów AI w Unii.
(90)
Komisjon võiks välja töötada ja soovitada vabatahtlikke näidis-lepingutingimusi kasutamiseks suure riskiga tehisintellektisüsteemide pakkujate ja kolmandate isikute vahel, kes pakuvad suure riskiga tehisintellektisüsteemides kasutatavaid või integreeritud vahendeid, teenuseid, komponente või protsesse, et hõlbustada koostööd kogu väärtusahelas. Vabatahtlike näidis-lepingutingimuste väljatöötamisel peaks komisjon arvesse võtma konkreetsetes sektorites või ärimudelites kohaldatavaid võimalikke lepingulisi nõudeid.
(90)
Komisja mogłaby opracować dobrowolne wzorcowe postanowienia umowne między dostawcami systemów AI wysokiego ryzyka a stronami trzecimi dostarczającymi narzędzia, usługi, elementy lub procesy, które są wykorzystywane w systemach AI wysokiego ryzyka lub z nimi zintegrowane, i zalecać stosowanie tych modelowych postanowień, aby ułatwić współpracę w całym łańcuchu wartości. Przy opracowywaniu dobrowolnych wzorcowych postanowień umownych, Komisja powinna też brać pod uwagę wymogi umowne, które mogą mieć zastosowanie w szczególnych sektorach lub przypadkach biznesowych.
(91)
Arvestades tehisintellektisüsteemide olemust ning nende kasutamisega potentsiaalselt seotud riske ohutusele ja põhiõigustele, muu hulgas vajadust tagada reaalsetes oludes tehisintellektisüsteemi toimimise nõuetekohane seire, on otstarbekas näha juurutajatele ette konkreetsed kohustused. Esmajoones peaksid juurutajad võtma asjakohaseid tehnilisi ja organisatsioonilisi meetmeid tagamaks, et nad kasutavad suure riskiga tehisintellektisüsteeme kasutusjuhendi kohaselt, ning asjakohasel juhul tuleks kehtestada teatavad muud kohustused seoses tehisintellektisüsteemide töö seire ja andmete säilitamisega. Lisaks peaksid juurutajad tagama, et isikutel, kellele on antud ülesanne rakendada käesolevas määruses sätestatud kasutusjuhendeid ja inimjärelevalvet, on vajalik pädevus, eelkõige piisav tehisintellektipädevus, ning et neid on koolitatud ja neil on volitused nende ülesannete nõuetekohaseks täitmiseks. Nimetatud kohustused ei tohiks piirata juurutajate jaoks liidu või liikmesriikide õigusest tulenevaid muid suure riskiga tehisintellektisüsteemidega seotud kohustusi.
(91)
Ze względu na charakter systemów AI oraz ryzyko dla bezpieczeństwa i praw podstawowych, jakie może wiązać się z ich wykorzystywaniem, uwzględniając przy tym potrzebę zapewnienia właściwego monitorowania skuteczności działania systemu AI w warunkach rzeczywistych, należy określić szczególne obowiązki podmiotów stosujących. Podmioty stosujące powinny w szczególności wprowadzić odpowiednie środki techniczne i organizacyjne w celu zapewnienia, aby systemy AI wysokiego ryzyka były wykorzystywane przez nich zgodnie z instrukcjami obsługi, a w stosownych przypadkach należy przewidzieć określone inne obowiązki w odniesieniu do monitorowania funkcjonowania systemów AI oraz rejestrowania zdarzeń. Ponadto podmioty stosujące powinny zapewnić, aby osoby wyznaczone do stosowania instrukcji obsługi i sprawowania nadzoru ze strony człowieka, zgodnie z niniejszym rozporządzeniem, posiadały niezbędne kompetencje, w szczególności odpowiedni poziom kompetencji w zakresie AI oraz odpowiedni poziom przeszkolenia i uprawnień, aby właściwie wykonywać te zadania. Obowiązki te powinny pozostawać bez uszczerbku dla innych wynikających z prawa Unii lub prawa krajowego obowiązków podmiotów stosujących w odniesieniu do systemów AI wysokiego ryzyka.
(92)
Käesolev määrus ei piira tööandjate kohustusi, mis tulenevad liidu või liikmesriigi õigusest ja tavast, sealhulgas Euroopa Parlamendi ja nõukogu direktiivist 2002/14/EÜ (39), teavitada töötajaid või nende esindajaid tehisintellektisüsteemide kasutusele võtmise või kasutamise otsustest või neid teavitada ja ära kuulata. Endiselt on vaja tagada töötajate ja nende esindajate teavitamine suure riskiga tehisintellektisüsteemide kavandatavast kasutusele võtmisest töökohal, kui ei ole täidetud muude õigusaktidega ette nähtud teavitamis- või teavitamis- ja ärakuulamiskohustuste tingimused. Lisaks on selline teabe saamise õigus täiendav ja vajalik selleks, et saavutada käesoleva määruse aluseks olev põhiõiguste kaitse eesmärk. Seepärast tuleks käesolevas määruses sätestada sellekohane teabe esitamise nõue, ilma et see mõjutaks töötajate kehtivaid õigusi.
(92)
Niniejsze rozporządzenie pozostaje bez uszczerbku dla obowiązków pracodawców w zakresie informowania pracowników lub ich przedstawicieli i konsultowania się z nimi na podstawie prawa Unii o prawa krajowego oraz unijnej lub krajowej praktyki, w tym dyrektywy 2002/14/WE Parlamentu Europejskiego i Rady (39), na temat decyzji o oddaniu do użytku lub korzystaniu z systemów AI. Nadal konieczne jest zapewnienie pracownikom i ich przedstawicielom informacji na temat planowanego wdrożenia systemów AI wysokiego ryzyka w miejscu pracy, w przypadku gdy warunki dotyczące tych obowiązków w zakresie informowania lub informowania i przeprowadzania konsultacji określone w innych instrumentach prawnych nie są spełnione. Ponadto takie prawo do informacji ma charakter pomocniczy i konieczny w stosunku do leżącego u podstaw niniejszego rozporządzenia celu, jakim jest ochrona praw podstawowych. W związku z tym w niniejszym rozporządzeniu należy ustanowić wymóg informowania w tym zakresie, nie naruszając żadnych istniejących praw pracowników.
(93)
Kuigi tehisintellektisüsteemidega seotud riskid võivad tuleneda sellest, kuidas need süsteemid on projekteeritud, võivad riskid tuleneda ka sellest, kuidas selliseid tehisintellektisüsteeme kasutatakse. Suure riskiga tehisintellektisüsteemi juurutajatel on seega oluline roll põhiõiguste kaitse tagamisel, täiendades tehisintellektisüsteemi arendamisel pakkuja kohustusi. Juurutajad saavad kõige paremini aru, kuidas suure riskiga tehisintellektisüsteemi konkreetselt kasutatakse, ja suudavad seetõttu tuvastada võimalikke olulisi riske, mida ei olnud arendusetapis ette nähtud, tehes seda tänu täpsematele teadmistele kasutamise konteksti ning tõenäoliselt mõjutatud isikute või nende rühmade kohta, kelle hulka kuuluvad kaitsetud rühmad. Käesoleva määruse lisas loetletud suure riskiga tehisintellektisüsteemide juurutajatel on samuti oluline roll füüsiliste isikute teavitamisel ning nad peaksid, kui nad teevad füüsiliste isikutega seotud otsuseid või aitavad neid otsuseid teha, kohaldataval juhul teavitama füüsilisi isikuid sellest, et nende suhtes kasutatakse suure riskiga tehisintellektisüsteemi. See teave peaks sisaldama süsteemi sihtotstarvet ja selle tehtavate otsuste liiki. Juurutaja peaks teavitama ka füüsilisi isikuid nende käesoleva määrusega sätestatud õigusest saada selgitusi. Õiguskaitse eesmärkidel kasutatavate suure riskiga tehisintellektisüsteemide puhul tuleks seda kohustust rakendada kooskõlas direktiivi (EL) 2016/680 artikliga 13.
(93)
Ryzyko związane z systemami AI może wynikać ze sposobu zaprojektowania takich systemów, jak również ze sposobu ich wykorzystania. Podmioty stosujące systemy AI wysokiego ryzyka odgrywają zatem kluczową rolę w zapewnianiu ochrony praw podstawowych w uzupełnieniu obowiązków dostawcy podczas rozwoju systemu AI. Podmioty stosujące najlepiej rozumieją, jak konkretnie wykorzystywany będzie system AI wysokiego ryzyka, i mogą w związku z tym zidentyfikować potencjalne znaczące ryzyko, które nie zostało przewidziane na etapie rozwoju, dzięki bardziej precyzyjnej wiedzy na temat kontekstu wykorzystania, osób lub grup osób, na które system może wywierać wpływ, w tym grup szczególnie wrażliwych. Podmioty stosujące systemy AI wysokiego ryzyka wymienione w załączniku do niniejszego rozporządzenia również odgrywają kluczową rolę w informowaniu osób fizycznych i powinny – gdy podejmują decyzje lub pomagają w podejmowaniu decyzji dotyczących osób fizycznych, w stosownych przypadkach, informować osoby fizyczne, że jest w stosunku do nich wykorzystywany system AI wysokiego ryzyka. Taka informacja powinna obejmować przeznaczenie systemu i typ podejmowanych przez niego decyzji. Podmiot stosujący informuje również osoby fizyczne o przysługujących im prawie do uzyskania wyjaśnienia, które przewiduje niniejsze rozporządzenie. W odniesieniu do systemów AI wysokiego ryzyka wykorzystywanych do celów ścigania przestępstw obowiązek ten należy wykonywać zgodnie z art. 13 dyrektywy (UE) 2016/680.
(94)
Igasugune biomeetriliste andmete töötlemine, mis on seotud tehisintellektisüsteemide kasutamisega biomeetriliseks tuvastamiseks õiguskaitse eesmärgil, peab olema kooskõlas direktiivi (EL) 2016/680 artikliga 10, mis võimaldab sellist töötlemist üksnes siis, kui see on rangelt vajalik, kui andmesubjekti õiguste ja vabaduste kaitsmiseks võetakse asjakohaseid kaitsemeetmeid, ning kui see on lubatud liidu või liikmesriigi õigusega. Sellisel kasutamisel, kui see on lubatud, tuleb järgida ka direktiivi (EL) 2016/680 artikli 4 lõikes 1 sätestatud põhimõtteid, sealhulgas seaduslikkust, õiglust ja läbipaistvust, eesmärgi piiritlemist, täpsust ja säilitamise piiranguid.
(94)
Wszelkie przetwarzanie danych biometrycznych związane z wykorzystywaniem systemów AI do identyfikacji biometrycznej do celów ścigania przestępstw musi być zgodne z art. 10 dyrektywy (UE) 2016/680, który zezwala na takie przetwarzanie wyłącznie wtedy, jeżeli jest to bezwzględnie konieczne, z zastrzeżeniem odpowiednich zabezpieczeń w zakresie praw i wolności osoby, której dane dotyczą, oraz jeżeli jest to dopuszczone prawem Unii lub prawem państwa członkowskiego. Takie wykorzystanie, jeżeli jest dozwolone, musi być również zgodne z zasadami określonymi w art. 4 ust. 1 dyrektywy (UE) 2016/680, w tym zasadami zgodności z prawem, rzetelności i przejrzystości, celowości, dokładności i ograniczenia przechowywania.
(95)
Võttes arvesse tagantjärele toimuva biomeetrilise kaugtuvastamise süsteemide sekkuvat iseloomu, siis ilma et see piiraks kohaldatava liidu õiguse, eelkõige määruse (EL) 2016/679 ja direktiivi (EL) 2016/680 kohaldamist, tuleks tagantjärele toimuva biomeetrilise kaugtuvastamise süsteemide kasutamise suhtes kohaldada kaitsemeetmeid. Tagantjärele toimuva biomeetrilise tuvastamise süsteeme tuleks alati kasutada viisil, mis on proportsionaalne, õiguspärane ja rangelt vajalik ning seega sihipärane tuvastatavate isikute, asukoha ja ajalise ulatuse poolest ning põhinema seaduslikult omandatud videosalvestistest koosneval suletud andmestikul. Ühelgi juhul ei tohiks tagantjärele toimuvat biomeetrilise kaugtuvastamise süsteemi kasutada õiguskaitse raames, mis toob kaasa valimatu jälgimise. Tingimused tagantjärele toimuva biomeetrilise kaugtuvastamise läbiviimiseks ei tohiks mingil juhul olla põhjus hoiduda kõrvale reaalajas toimuva biomeetrilise kaugtuvastamise keelamise ja rangete eranditega seotud tingimustest.
(95)
Bez uszczerbku dla mającego zastosowanie prawa Unii, w szczególności rozporządzenia (UE) 2016/679 i dyrektywy (UE) 2016/680, biorąc pod uwagę inwazyjny charakter systemów zdalnej identyfikacji biometrycznej post factum, korzystanie z takich systemów powinno podlegać zabezpieczeniom. Systemy identyfikacji biometrycznej post factum powinny być zawsze wykorzystywane w sposób proporcjonalny, zgodny z prawem i jeżeli jest to bezwzględnie konieczne, a tym samym ukierunkowane na osoby fizyczne, które mają zostać zidentyfikowane, na określoną lokalizację i zakres czasowy, oraz opierać się na zamkniętym zbiorze danych pochodzących z legalnie uzyskanych materiałów wideo. W żadnym wypadku systemy zdalnej identyfikacji biometrycznej post factum nie powinny być wykorzystywane w ramach ścigania przestępstw w celu prowadzenia niezróżnicowanego nadzoru. Warunki zdalnej identyfikacji biometrycznej post factum nie powinny w żadnym wypadku stanowić podstawy do obchodzenia warunków zakazu i ścisłych wyjątków dotyczących zdalnej identyfikacji biometrycznej w czasie rzeczywistym.
(96)
Selleks et tõhusalt tagada põhiõiguste kaitse, peaksid suure riskiga tehisintellektisüsteemide juurutajad, kes on avalik-õiguslikud asutused, või avalikke teenuseid osutavad eraõiguslikud üksused ja teatavaid käesoleva määruse lisas loetletud suure riskiga tehisintellektisüsteemide juurutajad, nagu pangandus- või kindlustusüksused, viima enne nende süsteemide kasutusele võtmist läbi põhiõigustele avalduva mõju hindamise. Üksikisikutele olulisi avalikke teenuseid võivad osutada ka eraõiguslikud üksused. Selliseid avalikke teenuseid osutavad eraõiguslikud üksused on seotud avalikku huvi pakkuvate ülesannetega sellistes valdkondades nagu haridus, tervishoid, sotsiaalteenused, eluase, õigusemõistmine. Põhiõigustele avalduva mõju hindamise eesmärk on, et juurutaja teeks kindlaks konkreetsed riskid nende isikute või isikute rühmade õigustele, keda need tõenäoliselt mõjutavad, ning teeb kindlaks meetmed, mida tuleb võtta nende riskide realiseerumise korral. Mõju hindamine tuleks läbi viia enne suure riskiga tehisintellektisüsteemi juurutamist ja seda tuleks ajakohastada, kui juurutaja leiab, et mõni asjakohastest teguritest on muutunud. Mõju hindamisel tuleks kindlaks teha juurutaja asjakohased protsessid, milles suure riskiga tehisintellektisüsteemi kooskõlas selle sihtotstarbega kasutatakse, ning selles tuleks kirjeldada ajavahemikku ja sagedust, mil süsteemi kavatsetakse kasutada, ning selliste füüsiliste isikute ja rühmade konkreetseid kategooriaid, keda konkreetne kasutusolukord tõenäoliselt mõjutab. Hindamise käigus tuleks kindlaks teha ka konkreetsed nende isikute või rühmade põhiõigusi mõjutada võiva kahju riskid. Selle hindamise käigus peaks juurutaja mõju nõuetekohaseks hindamiseks võtma arvesse vajalikku teavet, sealhulgas, kuid mitte ainult, suure riskiga tehisintellektisüsteemi pakkuja kasutusjuhendis esitatud teavet. Kindlakstehtud riske silmas pidades peaksid juurutajad määrama kindlaks meetmed, mida tuleb võtta nende riskide realiseerumise korral, sealhulgas näiteks juhtimiskorra selles konkreetses kasutuskontekstis, nagu inimjärelevalve kord vastavalt kasutusjuhendile või kaebuste käsitlemise ja kahju hüvitamise menetlused, kuna need võivad konkreetsetel kasutusjuhtudel olla olulised põhiõigustega seotud riskide maandamisel. Pärast selle mõju hindamist peaks juurutaja teavitama asjaomast turujärelevalveasutust. Selleks et koguda mõju hindamiseks vajalikku asjakohast teavet, võivad suure riskiga tehisintellektisüsteemi juurutajad, eelkõige juhul, kui tehisintellektisüsteeme kasutatakse avalikus sektoris, kaasata asjaomaseid sidusrühmi, sealhulgas tehisintellektisüsteemist tõenäoliselt mõjutatud isikute rühmade esindajaid, sõltumatuid eksperte ja kodanikuühiskonna organisatsioone selliste mõju hindamiste läbiviimisesse ja riskide realiseerumise korral võetavate meetmete kavandamisse. Euroopa tehisintellektiamet (edaspidi „tehisintellektiamet“) peaks välja töötama küsimustiku vormi, et hõlbustada nõuetele vastavust ja vähendada juurutajate halduskoormust.
(96)
Aby skutecznie zapewnić ochronę praw podstawowych, podmioty stosujące systemy AI wysokiego ryzyka będące podmiotami prawa publicznego lub podmiotami prywatnymi świadczącymi usługi publiczne i podmioty stosujące niektóre systemy AI wysokiego ryzyka wymienione w załączniku do niniejszego rozporządzenia, tacy jak podmioty bankowe lub ubezpieczeniowe, powinni przed wprowadzeniem tych systemów do użytku przeprowadzić ocenę skutków dla praw podstawowych. Usługi o charakterze publicznym ważne dla osób fizycznych mogą być również świadczone przez podmioty prywatne. Podmioty prywatne świadczące takie usługi publiczne działają w powiązaniu z zadaniami świadczonymi w interesie publicznym, takimi jak edukacja, opieka zdrowotna, usługi społeczne, mieszkalnictwo, sprawowanie wymiaru sprawiedliwości. Celem oceny skutków dla praw podstawowych jest zidentyfikowanie przez podmiot stosujący konkretnych rodzajów ryzyka dla praw osób fizycznych lub grup osób fizycznych, na które AI może mieć wpływ, oraz określenie środków, które należy podjąć w przypadku urzeczywistnienia się tego ryzyka. Ocena skutków powinna być przeprowadzana przed wdrożeniem systemu AI wysokiego ryzyka i powinna być aktualizowana, gdy podmiot stosujący uzna, że którykolwiek z istotnych czynników uległ zmianie. W ocenie skutków należy określić odpowiednie procesy podmiotu stosującego, w których system AI wysokiego ryzyka będzie wykorzystywany zgodnie z jego przeznaczeniem; powinna ona przedstawiać informacje o okresie, w którym system ma być wykorzystywany, i o częstotliwości jego wykorzystania, a także opis konkretnych kategorii osób fizycznych i grup, na które AI może mieć wpływ w tym konkretnym kontekście wykorzystania. Ocena powinna również obejmować określenie szczególnego ryzyka szkody, które może mieć wpływ na prawa podstawowe tych osób lub grup. Przeprowadzając tę ocenę, podmiot stosujący powinien uwzględnić informacje istotne dla właściwej oceny skutków, w tym między innymi informacje podane przez dostawcę systemu AI wysokiego ryzyka w instrukcji obsługi. W świetle zidentyfikowanego ryzyka podmioty stosujące powinny określić środki, które należy podjąć w przypadku urzeczywistnienia się tego ryzyka, w tym na przykład rozwiązania dotyczące zarządzania w tym konkretnym kontekście wykorzystania, np. dotyczące nadzoru ze strony człowieka zgodnie z instrukcją obsługi lub procedury rozpatrywania skarg i dochodzenia roszczeń, ponieważ mogą one odegrać zasadniczą rolę w ograniczaniu ryzyka dla praw podstawowych w konkretnych przypadkach wykorzystania. Po przeprowadzeniu tej oceny skutków podmiot stosujący powinien powiadomić odpowiedni organ nadzoru rynku. W stosownych przypadkach w celu zebrania odpowiednich informacji niezbędnych do przeprowadzenia oceny skutków podmioty stosujące system AI wysokiego ryzyka, w szczególności gdy systemy AI są wykorzystywane w sektorze publicznym, mogą angażować odpowiednie zainteresowane strony, w tym przedstawicieli grup osób, na które system AI może mieć wpływ, niezależnych ekspertów i organizacje społeczeństwa obywatelskiego w przeprowadzanie takich ocen skutków i opracowywanie środków, które należy wprowadzić w przypadku urzeczywistnienia się ryzyka. Europejski Urząd ds. Sztucznej Inteligencji (zwany dalej „Urzędem ds. AI”) powinien opracować wzór kwestionariusza, by ułatwić zapewnienie zgodności przez podmioty stosujące i zmniejszyć obciążenia administracyjne dla tych podmiotów.
(97)
Õiguskindluse tagamiseks tuleks üldotstarbeliste tehisintellektimudelite mõiste selgelt määratleda ja eristada tehisintellektisüsteemide mõistest. See määratlus peaks põhinema üldotstarbelise tehisintellektimudeli peamistel funktsionaalsetel omadustel, eelkõige üldisusel ja võimel täita pädevalt mitmesuguseid eri ülesandeid. Neid mudeleid treenitakse tavaliselt suurte andmehulkadega mitmesuguste meetodite abil, näiteks enesejärelevalve all toimuv õpe, juhendamata õpe ja stiimulõpe. Üldotstarbelisi tehisintellektimudeleid võib turule lasta mitmel viisil, sealhulgas raamatukogude, rakendusliideste (API), otse allalaadimise kaudu või füüsilise koopiana. Neid mudeleid võib omakorda muuta või peenhäälestada uuteks mudeliteks. Kuigi tehisintellektimudelid on tehisintellektisüsteemide olulised komponendid, ei ole need eraldiseisvad tehisintellektisüsteemid. Tehisintellektisüsteemideks saamiseks on tehisintellektimudelitele vaja lisada täiendavaid komponente, näiteks kasutajaliides. Tehisintellektimudelid on tavaliselt integreeritud tehisintellektisüsteemidesse ja moodustavad osa tehisintellektisüsteemist. Käesolevas määruses sätestatakse erinormid üldotstarbeliste tehisintellektimudelite ja süsteemseid riske kujutavate üldotstarbeliste tehisintellektimudelite kohta, mida tuleks kohaldada ka siis, kui need mudelid on integreeritud tehisintellektisüsteemi või moodustavad osa tehisintellektisüsteemist. Seda tuleks mõista nii, et üldotstarbeliste tehisintellektimudelite pakkujate kohustusi tuleks kohaldada siis, kui üldotstarbelised tehisintellektimudelid on turule lastud. Kui üldotstarbelise tehisintellektimudeli pakkuja integreerib oma mudeli oma tehisintellektisüsteemi, mis on turul kättesaadavaks tehtud või kasutusele võetud, tuleks seda mudelit käsitada turule lastuna ja seetõttu tuleks lisaks tehisintellektisüsteemidega seotud kohustustele kohaldada jätkuvalt käesolevas määruses mudelite suhtes sätestatud kohustusi. Mudelitele kehtestatud kohustusi ei peaks olema vaja kohaldada juhul, kui oma mudelit kasutatakse üksnes siseprotsessides, mis ei ole olulised toote või teenuse pakkumiseks kolmandatele isikutele, ja kui see ei mõjuta füüsiliste isikute õigusi. Võttes arvesse süsteemse riskiga üldotstarbeliste tehisintellektimudelite võimalikku märkimisväärset negatiivset mõju, tuleks nende suhtes alati kohaldada käesolevast määrusest tulenevaid asjakohaseid kohustusi. Määratlus ei tohiks hõlmata tehisintellektimudeleid, mida kasutatakse enne nende turule laskmist üksnes teadus-, arendus- ja prototüüpide loomise eesmärgil. See ei piira käesoleva määruse järgimise kohustust, kui mudel pärast sellist tegevust turule lastakse.
(97)
Należy jasno zdefiniować pojęcie modeli AI ogólnego przeznaczenia i oddzielić je od pojęcia systemów AI, aby zapewnić pewność prawa. Definicja powinna opierać się na kluczowych cechach funkcjonalnych modelu AI ogólnego przeznaczenia, w szczególności na ogólnym charakterze i zdolności do kompetentnego wykonywania szerokiego zakresu różnych zadań. Modele te są zazwyczaj trenowane w oparciu o dużą ilość danych za pomocą różnych metod, takich jak uczenie się samodzielnie nadzorowane, nienadzorowane lub uczenie przez wzmacnianie. Modele AI ogólnego przeznaczenia mogą być wprowadzane do obrotu na różne sposoby, w tym za pośrednictwem bibliotek, interfejsów programowania aplikacji (API), przez bezpośrednie pobieranie lub w wersji fizycznej. Modele te mogą być dalej zmieniane lub dostosowywane jako baza do tworzenia nowych modeli. Chociaż modele AI są zasadniczymi elementami systemów AI, nie stanowią same w sobie systemów AI. Aby model AI mógł stać się systemem AI należy dodać do niego dodatkowe elementy, takie jak na przykład interfejs użytkownika. Modele AI są zwykle zintegrowane z systemami AI i stanowią ich część. Niniejsze rozporządzenie ustanawia przepisy szczególne dotyczące modeli AI ogólnego przeznaczenia oraz modeli AI ogólnego przeznaczenia, które stwarzają ryzyko systemowe, a przepisy te powinny być stosowane również wtedy, gdy modele te są zintegrowane z systemem AI lub stanowią jego część. Należy rozumieć, że obowiązki dostawców modeli AI ogólnego przeznaczenia powinny mieć zastosowanie od momentu wprowadzenia do obrotu modeli AI ogólnego przeznaczenia. W przypadku gdy dostawca modelu AI ogólnego przeznaczenia zintegruje własny model z własnym systemem AI, który jest udostępniany na rynku lub oddany do użytku, model ten należy uznać za wprowadzony do obrotu i w związku z tym ustanowione w niniejszym rozporządzeniu obowiązki dotyczące modeli powinny nadal mieć zastosowanie obok obowiązków dotyczących systemów AI. Obowiązki ustanowione w odniesieniu do modeli nie powinny w żadnym przypadku mieć zastosowania, jeżeli model własny jest stosowany w czysto wewnętrznych procesach, które nie są niezbędne do dostarczania produktu lub usługi osobom trzecim, a prawa osób fizycznych nie są naruszone. Biorąc pod uwagę ich potencjalne znacząco negatywne skutki, modele AI ogólnego przeznaczenia z ryzykiem systemowym powinny zawsze podlegać odpowiednim obowiązkom ustanowionym w niniejszym rozporządzeniu. Definicja nie powinna obejmować modeli AI wykorzystywanych przed wprowadzeniem ich do obrotu wyłącznie do celów działalności badawczo-rozwojowej i tworzenia prototypów. Pozostaje to bez uszczerbku dla obowiązku zapewnienia zgodności z niniejszym rozporządzeniem w przypadku wprowadzenia do obrotu danego modelu w następstwie takiej działalności.
(98)
Kui mudeli üldisust võiks muu hulgas kindlaks määrata ka parameetrite arvu alusel, siis mudeleid, millel on vähemalt miljard parameetrit ja mida on treenitud suure hulga andmetega, kasutades mastaapset enesejärelevalvet, tuleks pidada märkimisväärselt üldiseks ja pädevaks täitma mitmesuguseid erilisi ülesandeid.
(98)
Mając na uwadze, że ogólny charakter modelu można określić między innymi na podstawie liczby parametrów, należy uznać, że modele o co najmniej miliardzie parametrów i trenowane w oparciu o dużą ilość danych z wykorzystaniem nadzoru własnego na dużą skalę są bardzo ogólne i kompetentnie wykonują szeroki zakres różnych zadań.
(99)
Suured generatiivsed tehisintellektimudelid on tüüpiline näide üldotstarbelisest tehisintellektimudelist, kuna need võimaldavad paindlikult genereerida sisu, näiteks teksti, audio, piltide või video kujul, mis suudab hõlpsasti täita mitmesuguseid eristatavaid ülesandeid.
(99)
Duże generatywne modele AI są typowym przykładem modelu AI ogólnego przeznaczenia, biorąc pod uwagę, że umożliwiają elastyczne generowanie treści, np. w postaci tekstu, dźwięku, obrazów lub materiałów wideo, i mogą z łatwością wykonywać szeroki zakres różnych zadań.
(100)
Kui üldotstarbeline tehisintellektimudel on integreeritud tehisintellektisüsteemi või on selle osa, tuleks seda süsteemi käsitada üldotstarbelise tehisintellektisüsteemina, kui see süsteem suudab tänu sellele integreerimisele täita mitmesuguseid eesmärke. Üldotstarbelist tehisintellektisüsteemi saab kasutada olemasoleval kujul või integreerida teistesse tehisintellektisüsteemidesse.
(100)
Jeżeli model AI ogólnego przeznaczenia jest zintegrowany z systemem AI lub stanowi jego część, system ten należy uznać za system AI ogólnego przeznaczenia, jeżeli w wyniku zintegrowania modelu system ten może służyć różnym celom. System AI ogólnego przeznaczenia może być wykorzystywany bezpośrednio lub być zintegrowany z innymi systemami AI.
(101)
Üldotstarbeliste tehisintellektimudelite pakkujatel on tehisintellekti väärtusahelas eriline roll ja vastutus, kuna nende pakutavad mudelid võivad olla aluseks mitmesugustele järgmise etapi süsteemidele, mida sageli pakuvad tootmisahela järgmise etapi pakkujad, kes vajavad mudelite ja nende võimete head mõistmist, et võimaldada selliste mudelite integreerimist oma toodetesse ning täita oma käesolevast või muudest määrustest tulenevaid kohustusi. Seepärast tuleks kehtestada proportsionaalsed läbipaistvusmeetmed, sealhulgas dokumentatsiooni koostamine ja ajakohastamine ning teabe esitamine üldotstarbelise tehisintellektimudeli kohta selle kasutamiseks järgmise etapi pakkujate poolt. Üldotstarbelise tehisintellektimudeli pakkuja peaks koostama tehnilise dokumentatsiooni ja seda ajakohastama, et teha see taotluse korral kättesaadavaks tehisintellektiametile ja riikide pädevatele asutustele. Nimetatud dokumentatsiooni lisatavad miinimumelemendid tuleks sätestada käesoleva määruse konkreetsetes lisades. Komisjonil peaks tehnoloogia arengut arvesse võttes olema õigus kõnealuseid lisasid delegeeritud õigusaktidega muuta.
(101)
Dostawcy modeli AI ogólnego przeznaczenia odgrywają szczególną rolę i ponoszą szczególną odpowiedzialność w całym łańcuchu wartości AI, ponieważ modele, które dostarczają, mogą stanowić podstawę szeregu systemów niższego szczebla, często dostarczanych przez dostawców niższego szczebla, które to systemy wymagają dobrego zrozumienia modeli i ich zdolności, zarówno by umożliwić integrację takich modeli z ich produktami, jak i by spełniać obowiązki ustanowione w niniejszym rozporządzeniu lub innych przepisach. W związku z tym należy ustanowić proporcjonalne środki w zakresie przejrzystości, w tym sporządzanie i aktualizowanie dokumentacji oraz dostarczanie informacji na temat modelu AI ogólnego przeznaczenia do wykorzystania przez dostawców niższego szczebla. Dostawca modelu AI ogólnego przeznaczenia powinien przygotować i aktualizować dokumentację techniczną w celu udostępnienia jej na wniosek Urzędowi ds. AI i właściwym organom krajowym. Minimalny zbiór elementów do uwzględnienia w takiej dokumentacji należy określić w szczególnych załącznikach do niniejszego rozporządzenia. Komisja powinna być uprawniona do zmiany tych załączników w drodze aktów delegowanych w świetle postępu technicznego.
(102)
Tarkvara ja andmed, sealhulgas mudelid, mis on tarbimisse lubatud vaba ja avatud lähtekoodiga litsentsi alusel, mis võimaldab neid avalikult jagada ning mille puhul kasutajad saavad neile või nende muudetud versioonidele vabalt juurde pääseda, neid kasutada, muuta ja ümber jagada, võivad aidata kaasa teadusuuringutele ja innovatsioonile turul ning pakkuda liidu majandusele märkimisväärseid kasvuvõimalusi. Vaba ja avatud lähtekoodiga litsentside alusel tarbimisse lubatud üldotstarbeliste tehisintellektimudelite puhul tuleks läbipaistvuse ja avatuse kõrge tase lugeda tagatuks, kui nende parameetrid, sealhulgas kaalud, teave mudeliarhitektuuri kohta ja teave mudelite kasutamise kohta, tehakse üldsusele kättesaadavaks. Litsentsi tuleks käsitada vaba ja avatud lähtekoodiga litsentsina ka siis, kui see võimaldab kasutajatel kasutada, kopeerida, levitada, uurida, muuta ja täiustada tarkvara ja andmeid, sealhulgas mudeleid, tingimusel et mudeli algne pakkuja on nimetatud ning järgitakse identseid või võrreldavaid levitamistingimusi.
(102)
Oprogramowanie i dane, w tym modele, udostępniane na podstawie bezpłatnej licencji otwartego oprogramowania, która umożliwia ich ogólne upowszechnianie i zezwala użytkownikom na swobodny dostęp do nich, ich wykorzystywanie, zmianę i ich redystrybucję lub ich zmienionych wersji, mogą przyczynić się do badań naukowych i innowacji na rynku oraz zapewnić gospodarce Unii znaczne możliwości wzrostu. Należy uznać, że modele AI ogólnego przeznaczenia udostępniane na podstawie bezpłatnych licencji otwartego oprogramowania zapewniają wysoki poziom przejrzystości i otwartości, jeżeli ich parametry, w tym wagi, informacje na temat architektury modelu oraz informacje na temat wykorzystania modelu, są publicznie dostępne. Licencję należy uznać za bezpłatną licencję otwartego oprogramowania również wtedy, gdy umożliwia użytkownikom obsługę, kopiowanie, dystrybucję, badanie, zmianę i ulepszanie oprogramowania i danych, w tym modeli, pod warunkiem że umieszcza się wzmiankę o pierwotnym dostawcy modelu i że przestrzega się identycznych lub porównywalnych warunków dystrybucji.
(103)
Vaba ja avatud lähtekoodiga tehisintellekti komponendid hõlmavad tehisintellektisüsteemi tarkvara ja andmeid, sealhulgas mudeleid ja üldotstarbelisi tehisintellektimudeleid, vahendeid, teenuseid ja protsesse. Vaba ja avatud lähtekoodiga tehisintellekti komponente saab pakkuda eri kanalite kaudu, sealhulgas arendades neid avatud hoidlates. Käesoleva määruse kohaldamisel ei tohiks tehisintellekti komponentide suhtes, mida pakutakse tasu eest või millega teenitakse muul viisil raha, sealhulgas tehisintellekti komponendiga seotud tehnilise toe või muude teenuste pakkumise, sealhulgas tarkvaraplatvormi kaudu, või isikuandmete kasutamise kaudu muudel põhjustel kui üksnes tarkvara turvalisuse, ühilduvuse või koostalitlusvõime parandamiseks, välja arvatud mikroettevõtjate vahelised tehingud, kohaldada vaba ja avatud lähtekoodiga tehisintellekti komponentidele ette nähtud erandeid. Tehisintellekti komponentide kättesaadavaks tegemine avatud hoidlate kaudu ei tohiks iseenesest kujutada endast raha teenimist.
(103)
Elementy AI na bezpłatnej licencji otwartego oprogramowania obejmują oprogramowanie i dane, w tym modele i modele AI ogólnego przeznaczenia, narzędzia, usługi lub procesy systemu AI. Elementy AI na bezpłatnej licencji otwartego oprogramowania mogą być dostarczane za pośrednictwem różnych kanałów, w tym rozwijane w otwartych repozytoriach. Do celów niniejszego rozporządzenia elementy AI, które są dostarczane odpłatnie lub w inny sposób monetyzowane, w tym poprzez zapewnianie wsparcia technicznego lub innych usług związanych z elementem AI, w tym poprzez platformy oprogramowania, lub wykorzystywanie danych osobowych z powodów innych niż wyłącznie poprawa bezpieczeństwa, kompatybilności lub interoperacyjności oprogramowania, z wyjątkiem transakcji między mikroprzedsiębiorstwami, nie powinny korzystać ze zwolnień przewidzianych w odniesieniu do bezpłatnych i otwartych elementów AI. Fakt udostępniania elementów AI w otwartych repozytoriach nie powinien sam w sobie stanowić monetyzacji.
(104)
Selliste üldotstarbeliste tehisintellektimudelite pakkujate suhtes, mis lubatakse tarbimisse vaba ja avatud lähtekoodiga litsentsi alusel ja mille parameetrid, sealhulgas kaalud, teave mudeliarhitektuuri kohta ja teave mudeli kasutamise kohta, tehakse üldsusele kättesaadavaks, tuleks kohaldada erandeid seoses läbipaistvusega seotud nõuetega, mis on kehtestatud üldotstarbelistele tehisintellektimudelitele, välja arvatud juhul, kui neid võib pidada süsteemseks riskiks, millisel juhul ei tohiks asjaolu, et mudel on läbipaistev ja sellega kaasneb avatud lähtekoodiga litsents, pidada piisavaks põhjuseks, et välistada käesolevast määrusest tulenevate kohustuste täitmine. Võttes arvesse, et üldotstarbeliste tehisintellektimudelite tarbimisse lubamine vaba ja avatud lähtekoodiga litsentsi alusel ei pruugi ilmtingimata avaldada olulist teavet mudeli treenimiseks või peenhäälestamiseks kasutatud andmestiku ega selle kohta, kuidas seeläbi tagati autoriõiguse normide järgimine, ei tohiks üldotstarbeliste tehisintellektimudelite suhtes ette nähtud erand läbipaistvusega seotud nõuete täitmisest mingil juhul puudutada kohustust koostada kokkuvõte mudeli treenimises kasutatud sisu kohta ega kohustust kehtestada liidu autoriõiguse normide järgimise põhimõtted, eelkõige selleks, et teha kindlaks Euroopa Parlamendi ja nõukogu direktiivi (EL) 2019/790 (40) artikli 4 lõike 3 kohane õiguste piiramine ja seda järgida.
(104)
Dostawcy modeli AI ogólnego przeznaczenia, które są udostępniane na podstawie bezpłatnej licencji otwartego oprogramowania i których parametry, w tym wagi, informacje o architekturze modelu oraz informacje na temat korzystania z modelu, są udostępniane publicznie, powinni podlegać zwolnieniom w odniesieniu do wymogów związanych z przejrzystością nałożonych na modele AI ogólnego przeznaczenia, chyba że można uznać, że modele te stwarzają ryzyko systemowe, w którym to przypadku fakt, że model jest przejrzysty i że towarzyszy mu licencja otwartego oprogramowania, nie powinien być uznawany za wystarczający powód zwolnienia ze spełnienia obowiązków ustanowionych w niniejszym rozporządzeniu. W każdym razie, biorąc pod uwagę, że udostępnianie modeli AI ogólnego przeznaczenia na podstawie bezpłatnej licencji otwartego oprogramowania niekoniecznie prowadzi do ujawnienia istotnych informacji na temat zbioru danych wykorzystywanego do trenowania lub dostrajania modelu oraz na temat sposobu zapewnienia tym samym zgodności z prawem autorskim, przewidziane w odniesieniu do modeli AI ogólnego przeznaczenia zwolnienie z obowiązku spełnienia wymogów związanych z przejrzystością nie powinno dotyczyć obowiązku sporządzenia streszczenia dotyczącego treści wykorzystywanych do trenowania modeli oraz obowiązku wprowadzenia polityki w celu zapewnienie zgodności z unijnym prawem autorskim, w szczególności w celu zidentyfikowania i zastosowania się do zastrzeżenia praw zgodnie z art. 4 ust. 3 dyrektywy Parlamentu Europejskiego i Rady (UE) 2019/790 (40).
(105)
Üldotstarbelised tehisintellektimudelid, eelkõige suured generatiivsed tehisintellektimudelid, mis on võimelised looma teksti, pilte ja muud sisu, pakuvad ainulaadseid innovatsioonivõimalusi, aga ka väljakutseid kunstnikele, autoritele ja teistele loovisikutele ning seoses sellega, kuidas nende loomingulist sisu luuakse, levitatakse, kasutatakse ja tarbitakse. Selliste mudelite arendamine ja treenimine nõuab juurdepääsu suurele hulgale tekstidele, piltidele, videotele ja muudele andmetele. Selles kontekstis võib sellise sisu otsimiseks ja analüüsimiseks, mis võib olla kaitstud autoriõiguse ja sellega kaasnevate õigustega, kasutada laialdaselt teksti- ja andmekaevemeetodeid. Autoriõigusega kaitstud sisu kasutamiseks on vaja asjaomase õiguste omaja luba, välja arvatud juhul, kui kohaldatakse autoriõigusega seotud erandeid ja piiranguid. Direktiiviga (EL) 2019/790 kehtestati erandid ja piirangud, millega lubatakse teatavatel tingimustel teha teksti- ja andmekaeve eesmärgil teoste või muu materjali reproduktsioone ja väljavõtteid. Nende õigusnormide kohaselt võivad õiguste omajad piirata õigusi oma teostele või muule materjalile, et hoida ära teksti- ja andmekaevet, välja arvatud juhul, kui seda tehakse teadusuuringute eesmärgil. Kui õigus loobuda on sõnaselgelt ja asjakohasel viisil väljendatud, peavad üldotstarbeliste tehisintellekti mudelite pakkujad hankima õiguste omajatelt loa, kui nad soovivad selliste teoste puhul teksti- ja andmekaevet teostada.
(105)
Modele AI ogólnego przeznaczenia, w szczególności duże generatywne modele AI, zdolne do generowania tekstów, obrazów i innych treści, stwarzają wyjątkowe możliwości w zakresie innowacji, ale także wyzwania dla artystów, autorów i innych twórców oraz w odniesieniu do sposobu tworzenia, rozpowszechniania, wykorzystywania i konsumowania ich treści kreatywnych. Rozwój i trenowanie takich modeli wymaga dostępu do ogromnych ilości tekstów, obrazów, materiałów wideo i innych danych. Techniki eksploracji tekstów i danych mogą być w tym kontekście szeroko wykorzystywane do wyszukiwania i analizy takich treści, które mogą być chronione prawem autorskim i prawami pokrewnymi. Każde wykorzystanie treści chronionych prawem autorskim wymaga zezwolenia danego podmiotu praw, chyba że zastosowanie mają odpowiednie wyjątki i ograniczenia dotyczące praw autorskich. Na mocy dyrektywy (UE) 2019/790 wprowadzono wyjątki i ograniczenia umożliwiające, pod pewnymi warunkami, zwielokrotnianie i pobieranie utworów lub innych przedmiotów objętych ochroną do celów eksploracji tekstów i danych. Zgodnie z tymi przepisami podmioty uprawnione mogą zastrzec swoje prawa do swoich utworów lub innych przedmiotów objętych ochroną, aby zapobiec eksploracji tekstów i danych, chyba że odbywa się to do celów badań naukowych. W przypadku gdy prawo do wyłączenia z eksploracji zostało w odpowiedni sposób wyraźnie zastrzeżone, dostawcy modeli AI ogólnego przeznaczenia muszą uzyskać zezwolenie od podmiotów uprawnionych, jeżeli chcą dokonywać eksploracji tekstów i danych odnośnie do takich utworów.
(106)
Pakkujad, kes lasevad liidu turule üldotstarbelisi tehisintellektimudeleid, peaksid tagama käesolevas määruses sätestatud asjakohaste kohustuste täitmise. Selleks peaksid üldotstarbeliste tehisintellektimudelite pakkujad kehtestama põhimõtted autoriõigust ja sellega kaasnevaid õigusi käsitleva liidu õiguse järgimiseks, eelkõige õiguste omajate poolt direktiivi (EL) 2019/790 artikli 4 lõike 3 kohaselt sõnaselgelt väljendatud õiguste piiramise kindlakstegemiseks ja järgimiseks. Iga pakkuja, kes laseb üldotstarbelise tehisintellektimudeli liidu turule, peaks seda kohustust täitma, olenemata jurisdiktsioonist, kus nende üldotstarbeliste tehisintellektimudelite treenimise aluseks olevad autoriõigusega seotud toimingud aset leiavad. See on vajalik, et tagada üldotstarbeliste tehisintellektimudelite pakkujatele võrdsed tingimused, mille puhul ükski pakkuja ei tohiks saada liidu turul konkurentsieelist, kohaldades liidus sätestatud standarditest madalamaid autoriõiguse standardeid.
(106)
Dostawcy wprowadzający modele AI ogólnego przeznaczenia do obrotu w Unii powinni zapewnić, aby ustanowione w niniejszym rozporządzeniu odpowiednie obowiązki zostały spełnione. W tym celu dostawcy modeli AI ogólnego przeznaczenia powinni wprowadzić politykę w celu zapewnienia zgodności z prawem Unii dotyczącym prawa autorskiego i praw pokrewnych, w szczególności w celu identyfikacji i zastosowania się do zastrzeżenia praw wyrażonego przez podmioty uprawnione zgodnie z art. 4 ust. 3 dyrektywy (UE) 2019/790. Każdy dostawca wprowadzający do obrotu w Unii model AI ogólnego przeznaczenia powinien spełniać ten obowiązek, niezależnie od jurysdykcji, w której mają miejsce czynności regulowane prawem autorskim stanowiące podstawę trenowania tych modeli AI ogólnego przeznaczenia. Jest to konieczne do zapewnienia równych warunków działania dostawcom modeli AI ogólnego przeznaczenia, tak aby żaden dostawca nie mógł uzyskać przewagi konkurencyjnej na rynku Unii poprzez stosowanie niższych standardów praw autorskich niż normy przewidziane w Unii.
(107)
Selleks et suurendada üldotstarbeliste tehisintellektimudelite, sealhulgas autoriõigusega kaitstud teksti ja andmete eeltreenimisel ja treenimisel kasutatavate andmete läbipaistvust, on asjakohane, et selliste mudelite pakkujad koostavad ja teevad üldsusele kättesaadavaks piisavalt üksikasjaliku kokkuvõtte üldotstarbelise tehisintellekti mudeli treenimiseks kasutatud sisust. Võttes nõuetekohaselt arvesse vajadust kaitsta ärisaladusi ja konfidentsiaalset äriteavet, peaks see kokkuvõte olema oma ulatuselt üldiselt terviklik, mitte tehniliselt üksikasjalik, et hõlbustada õigustatud huvidega isikutel, sealhulgas autoriõiguse omajatel, kasutada ja jõustada oma liidu õigusest tulenevaid õigusi, näiteks loetledes peamised mudelit treeninud andmekogud või andmestikud, nagu suured era- või avalikud andmebaasid või andmearhiivid, ning esitades kirjeldava selgituse muude kasutatud andmeallikate kohta. On asjakohane, et tehisintellektiamet koostaks kokkuvõtte vormi, mis peaks olema lihtne, tõhus ja võimaldama pakkujal esitada nõutava kokkuvõtte kirjeldaval kujul.
(107)
W celu zwiększenia przejrzystości dotyczącej danych wykorzystywanych do pretrenowania i trenowania modeli AI ogólnego przeznaczenia, w tym w zakresie tekstów i danych chronionych prawem autorskim, właściwe jest, aby dostawcy takich modeli sporządzali i udostępniali publicznie wystarczająco szczegółowe streszczenie na temat treści wykorzystywanych do trenowania modelu AI ogólnego przeznaczenia. Przy należytym uwzględnieniu potrzeby ochrony tajemnic przedsiębiorstwa i poufnych informacji handlowych streszczenie to nie powinno skupiać się na szczegółach technicznych, lecz mieć zasadniczo kompleksowy charakter, aby ułatwić stronom mającym uzasadniony interes, w tym posiadaczom praw autorskich, wykonywanie i egzekwowanie ich praw wynikających z prawa Unii; streszczenie to powinno więc na przykład wymieniać główne zbiory danych, które wykorzystano do trenowania modelu, takie jak duże prywatne lub publiczne bazy lub archiwa danych, oraz powinno zawierać opisowe wyjaśnienie innych wykorzystanych źródeł danych. Urząd ds. AI powinien zapewnić wzór streszczenia, który powinien być prosty i skuteczny oraz umożliwiać dostawcy przedstawienie wymaganego streszczenia w formie opisowej.
(108)
Seoses üldotstarbeliste tehisintellekti mudelite pakkujatele pandud kohustusega kehtestada liidu autoriõiguse normide järgimise põhimõtted ja teha avalikult kättesaadavaks treenimiseks kasutatud sisu kokkuvõte, peaks tehisintellektiamet jälgima, kas pakkuja on need kohustused täitnud, ilma et ta kontrolliks või jätkaks treeningandmete tööpõhist hindamist seoses autoriõigusele vastavusega. Käesolev määrus ei mõjuta liidu õiguses sätestatud autoriõiguse normide täitmise tagamist.
(108)
Urząd ds. AI powinien monitorować, czy dostawca spełnił obowiązki nałożone na dostawców modeli AI ogólnego przeznaczenia dotyczące wprowadzenia polityki w celu zapewnienia zgodności z unijnym prawem autorskim i podania do wiadomości publicznej streszczenia na temat treści wykorzystywanych do trenowania, jednak nie powinien weryfikować danych treningowych pod kątem zgodności z prawami autorskimi ani przystępować do oceny tych danych w podziale na poszczególne utwory. Niniejsze rozporządzenie nie wpływa na egzekwowanie przepisów dotyczących praw autorskich przewidzianych w prawie Unii.
(109)
Üldotstarbeliste tehisintellekti mudelite pakkujate suhtes kohaldatavate kohustuste täitmine peaks olema vastav ja proportsionaalne mudeli pakkuja liigiga, välistades nõuete täitmise vajaduse isikute puhul, kes arendavad või kasutavad mudeleid mitteprofessionaalsel või teaduslikul eesmärgil, kuid keda tuleks siiski julgustada neid nõudeid vabatahtlikult täitma. Ilma et see piiraks liidu autoriõiguse normide kohaldamist, tuleks nimetatud kohustuste täitmisel võtta nõuetekohaselt arvesse pakkuja suurust ja võimaldada VKEdel, sealhulgas idufirmadel nõuete täitmiseks lihtsustatud viise, mis ei tohiks põhjustada ülemääraseid kulusid ega pärssida selliste mudelite kasutamist. Mudeli muutmise või peenhäälestamise korral peaksid üldotstarbeliste tehisintellektimudelite pakkuja kohustused piirduma selle muutmise või peenhäälestamisega, näiteks täiendades juba olemasolevat tehnilist dokumentatsiooni teabega muudatuste kohta, sealhulgas uute treenimisandmete allikatega, et täita käesolevas määruses sätestatud väärtusahelaga seotud kohustusi.
(109)
Spełnianie obowiązków mających zastosowanie do dostawców modeli AI ogólnego przeznaczenia powinno być współmierne i proporcjonalne do rodzaju dostawcy modeli, z wyłączeniem konieczności ich spełnienia przez osoby, które rozwijają lub wykorzystują modele do celów pozazawodowych lub badań naukowych – osoby te należy jednak zachęcać do dobrowolnego spełniania tych wymogów. Bez uszczerbku dla unijnego prawa autorskiego spełnianie tych obowiązków powinno odbywać się przy należytym uwzględnieniu wielkości dostawcy i umożliwiać uproszczone sposoby spełnienia tych obowiązków przez MŚP, w tym przedsiębiorstwa typu start-up, które nie powinny wiązać się z nadmiernymi kosztami i zniechęcać do korzystania z takich modeli. W przypadku zmiany lub dostrajania modelu obowiązki dostawców modeli AI ogólnego przeznaczenia powinny być ograniczone do tej zmiany lub dostrajania modelu, na przykład poprzez uzupełnienie już istniejącej dokumentacji technicznej o informacje na temat zmiany, w tym nowych źródeł danych treningowych, w celu spełnienia obowiązków związanych z łańcuchem wartości przewidzianych w niniejszym rozporządzeniu.
(110)
Üldotstarbeliste tehisintellektimudelitega võivad kaasneda süsteemsed riskid, mis hõlmavad muu hulgas mis tahes tegelikku või mõistlikult prognoositavat negatiivset mõju seoses suurõnnetuste, elutähtsate sektorite häirete ning tõsiste tagajärgedega rahvatervisele ja ohutusele. mis tahes tegelikku või mõistlikult prognoositavat negatiivset mõju demokraatlikele protsessidele, avalikule ja majanduslikule julgeolekule ning ebaseadusliku, vale või diskrimineeriva sisu levitamist. Süsteemseid riske tuleks mõista nii, et need suurenevad mudeli võimete ja ulatusega, võivad tekkida mudeli kogu elutsükli jooksul ning neid mõjutavad väärkasutuse tingimused, mudeli usaldusväärsus, mudeli õiglus ja turvalisus, mudeli autonoomsuse tase, selle juurdepääs vahenditele, uudsed või kombineeritud modaalsused, tarbimisse lubamise ja levitamise strateegiad, kaitsemeetmete eemaldamise potentsiaal ja muud tegurid. Eelkõige on rahvusvahelised lähenemisviisid seni tuvastanud vajaduse pöörata tähelepanu järgmistele riskidele: riskid, mis tulenevad võimalikust tahtlikust väärkasutamisest või tahtmatutest kontrolliprobleemidest, mis tulenevad inimese tahte järgmisest; keemilised, bioloogilised, radioloogilised ja tuumaohud, näiteks viisid, kuidas vähendada sisenemise tõkkeid, sealhulgas relvade väljatöötamiseks, projekteerimiseks või kasutamiseks; küberründevõime, näiteks viisid, kuidas võimaldada haavatavuse avastamist, ärakasutamist või operatiivset kasutamist; koostoime ja vahendite kasutamise mõju, sealhulgas näiteks võime juhtida füüsilisi süsteeme ja häirida elutähtsat taristut; riskid, mis tulenevad sellest, et mudelid teevad endast koopiaid või on „isepaljunevad“ või treenivad teisi mudeleid; viisid, kuidas mudelid võivad põhjustada kahjuliku mõjuga kallutatust ja diskrimineerimist, mis võib ohustada üksikisikuid, kogukondi või ühiskonda; desinformatsiooni leviku soodustamine või eraelu puutumatuse kahjustamine, mis ohustab demokraatlikke väärtusi ja inimõigusi; risk, et konkreetne sündmus võib kaasa tuua ahelreaktsiooni, millel on märkimisväärne negatiivne mõju, mis võib mõjutada kogu linna, kogu valdkonna tegevust või tervet kogukonda.
(110)
Modele AI ogólnego przeznaczenia mogą stwarzać ryzyko systemowe, które obejmuje między innymi wszelkie rzeczywiste lub racjonalnie przewidywalne negatywne skutki poważnych awarii, zakłóceń w sektorach krytycznych oraz poważne konsekwencje dla zdrowia i bezpieczeństwa publicznego; wszelkie rzeczywiste lub racjonalnie przewidywalne negatywne skutki dla procesów demokratycznych, bezpieczeństwa publicznego i gospodarczego; rozpowszechnianie nielegalnych, fałszywych lub dyskryminujących treści. Należy rozumieć, że ryzyko systemowe wzrasta wraz ze zdolnościami i zasięgiem modelu, może wystąpić w całym cyklu życia modelu i jest uzależnione od warunków niewłaściwego wykorzystania, niezawodności, bezstronności i bezpieczeństwa modelu, poziomu jego autonomii, dostępu do narzędzi, stosowania nowatorskich lub połączonych metod, strategii udostępniania i dystrybucji, możliwości w zakresie usuwania zabezpieczeń i innych czynników. W szczególności podejścia międzynarodowe wskazywały jak dotąd na potrzebę zwrócenia uwagi na ryzyko wynikające z potencjalnego umyślnego niewłaściwego wykorzystania lub niezamierzonych problemów z kontrolą związanych z dostosowaniem się do zamiaru człowieka; ryzyko chemiczne, biologiczne, radiologiczne i jądrowe, takie jak sposoby obniżania barier wejścia na rynek, w tym w zakresie opracowywania, projektowania, nabywania lub stosowania broni; ofensywne zdolności w zakresie cyberbezpieczeństwa, takie jak sposoby wykrywania, wykorzystywania lub operacyjnego stosowania podatności; skutki interakcji i wykorzystania narzędzi, w tym na przykład zdolność do kontrolowania systemów fizycznych i zakłócania infrastruktury krytycznej; ryzyko związane ze sporządzaniem kopii własnych przez modele lub samoreplikacji lub wynikające z trenowania innych modeli przez dany model; sposoby, w jakie modele mogą powodować szkodliwą stronniczość i dyskryminację zagrażające osobom fizycznym, społecznościom lub społeczeństwom; ułatwianie dezinformacji lub naruszanie prywatności, co przedstawia zagrożenie dla wartości demokratycznych i praw człowieka; ryzyko, że dane wydarzenie może spowodować reakcję łańcuchową o znacznych negatywnych skutkach, które mogą mieć wpływ nawet na całe miasta, na całą działalność w danym obszarze lub na całe społeczności.
(111)
On asjakohane kehtestada metoodika üldotstarbeliste tehisintellektimudelite liigitamiseks süsteemse riskiga üldotstarbeliseks tehisintellektimudeliks. Kuna süsteemseid riske põhjustavad eriti suured võimed, tuleks üldotstarbelist tehisintellektimudelit käsitada süsteemset riski kujutavana, kui sellel on suure mõjuga võimed, mida hinnatakse asjakohaste tehniliste vahendite ja meetodite abil, või kui sellel on märkimisväärne mõju siseturule oma ulatuse tõttu. Üldotstarbelise tehisintellektimudeli suure mõjuga võimed on võimed, mis vastavad kõige arenenumates üldotstarbelistes tehisintellektimudelites registreeritud võimetele või ületavad neid. Mudeli kõiki võimeid saaks paremini mõista pärast selle turule laskmist või siis, kui juurutajad mudeliga kokku puutuvad. Vastavalt käesoleva määruse jõustumise ajal olemasolevale tehnika tasemele on üldotstarbelise tehisintellektimudeli treenimiseks kasutatud andmetöötluse kohtumaht, mida mõõdetakse ujukomatehtega, üks oluline mudeli võimete lähisväärtus. Treenimiseks kasutatud andmetöötluse kogumaht hõlmab andmetöötlust selliste tegevuste ja meetodite lõikes, mille eesmärk on mudeli võimete suurendamine enne juurutamist, näiteks eeltreenimine, sünteesitud andmete genereerimine ja peenhäälestamine. Seepärast tuleks kehtestada ujukomatehete esialgne künnis, mis juhul, kui üldotstarbeline tehisintellektimudel selle saavutab, annab alust eeldada, et mudel on süsteemse riskiga üldotstarbeline tehisintellektimudel. Seda künnist tuleks aja jooksul kohandada, et kajastada tehnoloogia ja tööstuse muutusi, nagu algoritmide paranemine või tõhusam riistvara, ning seda tuleks täiendada mudelite võimete võrdlusaluste ja näitajatega. Sellise teabe saamiseks peaks tehisintellektiamet tegema koostööd teadusringkondade, tööstuse, kodanikuühiskonna ja muude ekspertidega. Künnised ning suure mõjuga võimete hindamise vahendid ja võrdlusalused peaksid olema üldotstarbelise tehisintellektimudeli üldisuse, selle võimete ja sellega seotud süsteemse riski kindlad prognoosijad ning need võiks võtta arvesse mudeli turule laskmise viisi või kasutajate arvu, keda see süsteem võib mõjutada. Selle süsteemi täiendamiseks peaks komisjonil olema võimalus teha üksikotsuseid, millega liigitatakse üldotstarbeline tehisintellektimudel süsteemse riskiga üldotstarbeliseks tehisintellektimudeliks, kui leitakse, et selle mudeli võimed või mõju on samaväärne sellega, mis on kehtestatud künnisega. Kõnealune otsus tuleks teha käesoleva määruse lisas sätestatud süsteemse riskiga üldotstarbeliste tehisintellektimudeli liigitamise kriteeriumide üldise hindamise alusel, milleks on näiteks treenimisandmestiku kvaliteet või maht, äri- ja lõppkasutajate arv, nende sisend- ja väljundmodaalsused, autonoomia tase ja mastabeeritavus või vahendid, millele tal on juurdepääs. Pakkuja, kelle mudel on liigitatud süsteemse riskiga üldotstarbeliseks tehisintellektimudeliks, põhjendatud taotluse korral peaks komisjon taotlust arvesse võtma ja võib otsustada uuesti hinnata, kas seda üldotstarbelist tehisintellektimudelit saab siiski pidada süsteemseid riske kujutavaks mudeliks.
(111)
Należy ustanowić metodykę klasyfikacji modeli AI ogólnego przeznaczenia jako modeli AI ogólnego przeznaczenia z ryzykiem systemowym. Ponieważ ryzyko systemowe wynika ze szczególnie wysokich zdolności, należy uznać, że model AI ogólnego przeznaczenia stwarza ryzyko systemowe, jeżeli wykazuje on zdolności dużego oddziaływania, oceniane na podstawie odpowiednich narzędzi technicznych i metodologii, lub jeżeli ze względu na swój zasięg ma znaczący wpływ na rynek wewnętrzny. Zdolności dużego oddziaływania w przypadku modeli AI ogólnego przeznaczenia oznaczają zdolności, które dorównują zdolnościom zapisanym w najbardziej zaawansowanych modelach AI ogólnego przeznaczenia lub je przewyższają. Pełny zakres zdolności danego modelu można lepiej zrozumieć po jego wprowadzeniu do obrotu lub w momencie, w którym podmioty stosujące wchodzą w interakcję z modelem. Zgodnie z aktualnym stanem wiedzy technicznej w momencie wejścia w życie niniejszego rozporządzenia jednym ze sposób przybliżonego określenia zdolności modelu jest łączna liczba obliczeń wykorzystanych do trenowania modelu AI ogólnego zastosowania mierzona w operacjach zmiennoprzecinkowych. Łączna liczba obliczeń wykorzystanych do trenowania obejmuje obliczenia stosowane w odniesieniu do wszystkich działań i metod, które mają na celu zwiększenie zdolności modelu przed wdrożeniem, takich jak pretrenowanie, generowanie danych syntetycznych i dostrajanie. W związku z tym należy określić próg minimalny operacjach zmiennoprzecinkowych, który, jeżeli zostanie spełniony przez model AI ogólnego przeznaczenia, stwarza domniemanie, że model ten jest modelem AI ogólnego przeznaczenia z ryzykiem systemowym. Próg ten powinien być z czasem dostosowywany w celu odzwierciedlenia zmian technologicznych i przemysłowych, takich jak ulepszenia algorytmiczne lub większa wydajność sprzętu, i powinien zostać uzupełniony o poziomy odniesienia i wskaźniki dotyczące zdolności modelu. W tym celu Urząd ds. AI powinien współpracować ze środowiskiem naukowym, przemysłem, społeczeństwem obywatelskim i innymi ekspertami. Progi, a także narzędzia i poziomy odniesienia na potrzeby oceny zdolności dużego oddziaływania powinny zapewniać mocne podstawy przewidywania ogólnego charakteru, zdolności i związanego z nimi ryzyka systemowego modeli AI ogólnego przeznaczenia; mogą one uwzględniać sposób, w jaki model zostanie wprowadzony do obrotu lub liczbę użytkowników, na które model ten może mieć wpływ. Aby uzupełnić ten system, Komisja powinna mieć możliwość podejmowania indywidualnych decyzji w sprawie uznania modelu AI ogólnego przeznaczenia za model AI ogólnego przeznaczenia z ryzykiem systemowym, jeżeli okaże się, że zdolności lub wpływ takiego modelu są równoważne z tymi, na które wskazuje ustalony próg. Decyzję tę należy podjąć na podstawie ogólnej oceny kryteriów do celów uznawania modelu AI ogólnego przeznaczenia za model z ryzykiem systemowym, określonych w załączniku do niniejszego rozporządzenia, takich jak jakość lub wielkość zbioru danych treningowych, liczba użytkowników biznesowych i końcowych, format danych wejściowych i wyjściowych modelu, poziom autonomii i skalowalności lub narzędzia, do których ma dostęp. Na uzasadniony wniosek dostawcy, którego model został uznany za model AI ogólnego przeznaczenia z ryzykiem systemowym, Komisja powinna odnieść się do tego wniosku i może podjąć decyzję o ponownej ocenie, czy model AI ogólnego przeznaczenia nadal można uznać za stwarzający ryzyko systemowe.
(112)
Samuti on vaja selgitada süsteemsete riskidega üldotstarbelise tehisintellektimudeli liigitamise menetlust. Üldotstarbelist tehisintellektimudelit, mis vastab suure mõjuga võimete suhtes kohaldatavale künnisele, tuleks käsitada süsteemse riskiga üldotstarbelise tehisintellektimudelina. Pakkuja peaks teavitama tehisintellektiametit hiljemalt kaks nädalat pärast nõuete täitmist või siis, kui on teada saadud, et üldotstarbeline tehisintellektimudel vastab eelduste aluseks olevatele nõuetele. See on eriti oluline seoses ujukomatehte künnisega, sest üldotstarbeliste tehisintellektimudelite treenimine nõuab märkimisväärset planeerimist, mis hõlmab arvutusressursside eelnevat jaotamist, ning seetõttu teavad üldotstarbeliste tehisintellektimudelite pakkujad juba enne treeningu lõppemist, kas nende mudel vastab künnisele. Seoses nimetatud teavitamisega peaks pakkuja suutma tõendada, et üldotstarbeline tehisintellektimudel ei kujuta erandkorras oma erijoonte tõttu süsteemseid riske ning seega ei tuleks seda liigitada süsteemsete riskidega üldotstarbeliseks tehisintellektimudeliks. See teave on tehisintellektiameti jaoks väärtuslik, et prognoosida süsteemsete riskidega üldotstarbeliste tehisintellektimudelite turule laskmist, ning pakkujad saavad juba varakult alustada tehisintellektiametiga suhtlemist. Kõnealune teave on eriti oluline seoses üldotstarbeliste tehisintellektimudelitega, mida kavatsetakse tarbimisse lubada avatud lähtekoodiga, arvestades et pärast avatud lähtekoodiga mudeli tarbimisse lubamist võib olla keerulisem rakendada vajalikke meetmeid, et tagada käesolevast määrusest tulenevate kohustuste täitmine.
(112)
Konieczne jest również doprecyzowanie procedury klasyfikacji modelu AI ogólnego zastosowania z ryzykiem systemowym. W przypadku modelu AI ogólnego przeznaczenia, który osiąga mający zastosowanie próg dotyczący zdolności dużego oddziaływania, należy domniemywać, że jest on modelem AI ogólnego przeznaczenia z ryzykiem systemowym. Dostawca powinien powiadomić Urząd ds. AI najpóźniej dwa tygodnie od momentu spełnienia kryteriów lub po uzyskaniu wiedzy, że model AI ogólnego przeznaczenia będzie spełniał kryteria prowadzące do takiego domniemania. Jest to szczególnie istotne w odniesieniu do progu dotyczącego operacji zmiennoprzecinkowych, ponieważ trenowanie modeli AI ogólnego przeznaczenia wymaga znacznego planowania, co obejmuje przydział z góry zasobów obliczeniowych, w związku z czym dostawcy modeli AI ogólnego przeznaczenia są w stanie stwierdzić, czy ich model osiągnąłby ten próg przed zakończeniem trenowania. W kontekście tego powiadomienia dostawca powinien móc wykazać, że ze względu na swoje szczególne cechy model AI ogólnego przeznaczenia wyjątkowo nie stwarza ryzyka systemowego, a zatem nie powinien być zaklasyfikowany jako model AI ogólnego przeznaczenia z ryzykiem systemowym. Powiadomienia te to cenne informacje, które umożliwiają Urzędowi ds. AI przewidywanie, że modele AI sztucznej inteligencji ogólnego przeznaczenia z ryzykiem systemowym zostaną wprowadzone do obrotu, dostawcy mogą zatem rozpocząć współpracę z Urzędem ds. AI na wczesnym etapie. Informacje te są szczególnie ważne w odniesieniu do modeli AI ogólnego przeznaczenia, które mają zostać udostępnione jako otwarte oprogramowanie, zważywszy na to, że wdrożenie środków niezbędnych do zapewnienia spełnienia obowiązków ustanowionych w niniejszym rozporządzeniu może być trudniejsze po udostępnieniu modelu na zasadach otwartego oprogramowania.
(113)
Kui komisjon saab teada, et üldotstarbeline tehisintellektimudel vastab nõuetele liigitada see süsteemse riskiga üldotstarbeliseks tehisintellektimudeliks, mida varem sellisena ei tuntud või millest asjaomane pakkuja ei olnud komisjoni teavitanud, peaks komisjonil olema õigus see nii liigitada. Kvalifitseeritud hoiatusteadete süsteem peaks tagama, et tehisintellektiamet saab lisaks oma järelevalvetegevusele ka teaduskomisjonilt teavet selliste üldotstarbeliste tehisintellektimudelite kohta, mis tuleks potentsiaalselt liigitada süsteemse riskiga üldotstarbeliseks tehisintellektimudeliks.
(113)
Jeżeli Komisja dowie się o tym, że model AI ogólnego przeznaczenia spełnia kryteria, by zostać zaklasyfikowany jako model AI o ogólnym przeznaczeniu z ryzykiem systemowym, czego wcześniej nie było wiadomo lub w przypadku gdy odpowiedni dostawca nie wywiązał się z obowiązku powiadomienia o tym Komisji, Komisja powinna być uprawniona do uznania tego modelu za model o ogólnym przeznaczeniu z ryzykiem systemowym. Obok działań monitorujących prowadzonych przez Urząd ds. AI powinien istnieć system, w ramach którego panel naukowy za pośrednictwem ostrzeżeń kwalifikowanych informuje Urząd ds. AI o modelach AI ogólnego przeznaczenia, które należy ewentualnie zaklasyfikować jako modele AI ogólnego przeznaczenia z ryzykiem systemowym.
(114)
Süsteemseid riske kujutavate üldotstarbeliste tehisintellektimudelite pakkujate suhtes tuleks lisaks üldotstarbeliste tehisintellektimudelite pakkujatele kehtestatud kohustustele kohaldada kohustusi, mille eesmärk on need riskid kindlaks teha ja neid maandada ning tagada piisav küberturvalisuse kaitse tase, olenemata sellest, kas seda mudelit pakutakse autonoomse mudelina või integreerituna tehisintellektisüsteemi või tootesse. Nende eesmärkide saavutamiseks tuleks käesoleva määrusega nõuda, et pakkujad viiksid läbi vajalikud mudelite hindamised, eelkõige enne selle esmakordset turule laskmist, sealhulgas mudelite vastandtestide läbiviimine ja nende dokumenteerimine, vajaduse korral ka sisemiste või sõltumatute välistestide abil. Lisaks peaksid süsteemse riskiga üldotstarbeliste tehisintellektimudelite pakkujad süsteemseid riske pidevalt hindama ja maandama, sealhulgas kehtestades näiteks riskijuhtimispõhimõtted, nagu vastutus- ja juhtimisprotsessid, rakendades turustamisjärgset seiret, võttes asjakohaseid meetmeid kogu mudeli elutsükli jooksul ja tehes koostööd tehisintellekti väärtusahela asjaomaste osalejatega.
(114)
Dostawcy modeli AI ogólnego przeznaczenia stwarzających ryzyko systemowe powinni podlegać nie tylko obowiązkom nałożonym na dostawców modeli AI ogólnego przeznaczenia, ale także obowiązkom mającym na celu identyfikację i ograniczenie ryzyka systemowego oraz zapewnienie odpowiedniego poziomu ochrony cyberbezpieczeństwa, niezależnie od tego, czy modele te są dostarczane jako samodzielne modele czy wbudowane w system AI lub w produkt. Aby osiągnąć te cele, w niniejszym rozporządzeniu należy zobowiązać dostawców do przeprowadzania niezbędnych ocen modeli, w szczególności przed ich pierwszym wprowadzeniem do obrotu, w tym przeprowadzania wobec modeli i dokumentowania testów kontradyktoryjnych, również, w stosownych przypadkach, w drodze wewnętrznych lub niezależnych testów zewnętrznych. Ponadto dostawcy modeli AI ogólnego przeznaczenia z ryzykiem systemowym powinni stale oceniać i ograniczać ryzyko systemowe, w tym na przykład poprzez wprowadzanie strategii zarządzania ryzykiem, takich jak procesy rozliczalności i zarządzania, wdrażanie monitorowania po wprowadzeniu do obrotu, podejmowanie odpowiednich środków w całym cyklu życia modelu oraz współpracę z odpowiednimi podmiotami w całym łańcuchu wartości AI.
(115)
Süsteemse riskiga üldotstarbeliste tehisintellektimudelite pakkujad peaksid võimalikke süsteemseid riske hindama ja maandama. Kui hoolimata jõupingutustest teha kindlaks ja ennetada sellise üldotstarbelise tehisintellektimudeliga seotud riske, mis võib kujutada süsteemseid riske, põhjustab mudeli arendamine või kasutamine tõsise intsidendi, peaks üldotstarbelise tehisintellektimudeli pakkuja põhjendamatu viivituseta end intsidendiga kurssi viima ning edastama komisjonile ja riikide pädevatele asutustele kogu asjakohase teabe ja võimalikud parandusmeetmed. Lisaks peaksid pakkujad tagama mudeli ja selle füüsilise taristu piisava küberturvalisuse kaitse, kui see on asjakohane, kogu mudeli elutsükli jooksul. Pahatahtliku kasutamise või rünnetega seotud süsteemsete riskidega seotud küberturvalisuse kaitse puhul tuleks igakülgselt arvesse võtta mudeli juhuslikku leket, loata tarbimisse lubamist, turvameetmetest kõrvalehoidmist ning kaitset küberrünnete, loata juurdepääsu või mudelivarguste vastu. Seda kaitset saaks hõlbustada mudeli kaalude, algoritmide, serverite ja andmestike turvalisuse tagamisega, näiteks infoturbe talitluskindluse meetmete, konkreetsete küberturvalisuse põhimõtete, piisavate tehniliste ja väljakujunenud lahenduste ning küber- ja füüsilise juurdepääsu kontrolli kaudu, mis vastavad asjakohastele asjaoludele ja kaasnevatele riskidele.
(115)
Dostawcy modeli AI ogólnego przeznaczenia z ryzykiem systemowym powinni oceniać i ograniczać ewentualne ryzyko systemowe. Jeżeli pomimo wysiłków na rzecz zidentyfikowania ryzyka związanego z modelem AI ogólnego przeznaczenia, który może stwarzać ryzyko systemowe, i pomimo wysiłków na rzecz przeciwdziałania temu ryzyku, w wyniku rozwoju lub wykorzystania modelu wystąpi poważny incydent, dostawca modelu AI ogólnego przeznaczenia powinien bez zbędnej zwłoki zacząć śledzić jego przebieg i zgłosić wszelkie istotne informacje i możliwe środki naprawcze Komisji i właściwym organom krajowym. Ponadto dostawcy powinni zapewnić odpowiedni poziom ochrony cyberbezpieczeństwa w odniesieniu do modelu i jego infrastruktury fizycznej, w stosownych przypadkach, w całym cyklu życia modelu. Ochrona cyberbezpieczeństwa w kontekście ryzyka systemowego związanego ze złośliwym wykorzystaniem lub atakami powinna należycie uwzględniać przypadkowe przecieki modelu, nieuprawnione przypadki udostępnienia, obchodzenie środków bezpieczeństwa oraz ochronę przed cyberatakami, nieuprawnionym dostępem lub kradzieżą modelu. Ochronę tę można ułatwić poprzez zabezpieczenie wag modeli, algorytmów, serwerów i zbiorów danych, na przykład za pomocą operacyjnych środków bezpieczeństwa na rzecz bezpieczeństwa informacji, konkretnych strategii cyberbezpieczeństwa, odpowiednich rozwiązań technicznych i ustanowionych rozwiązań oraz kontroli dostępu fizycznego i w cyberprzestrzeni, odpowiednio do danych okoliczności i związanego z nimi ryzyka.
(116)
Tehisintellektiamet peaks julgustama ja hõlbustama tegevusjuhendite koostamist, läbivaatamist ja kohandamist, võttes arvesse rahvusvahelisi lähenemisviise. Osalema võiks kutsuda kõiki üldotstarbeliste tehisintellektimudelite pakkujaid. Tagamaks, et tegevusjuhendid kajastavad tehnika taset ja võtavad igakülgselt arvesse erinevaid vaatenurki, peaks tehisintellektiamet selliste juhendite koostamisel tegema koostööd asjaomaste riigi pädevate asutustega ning ta võiks vajaduse korral konsulteerida kodanikuühiskonna organisatsioonide ning muude asjaomaste sidusrühmade ja ekspertidega, sealhulgas teaduskomisjoniga. Tegevusjuhendid peaksid hõlmama üldotstarbeliste tehisintellektimudelite ja süsteemseid riske kujutavate üldotstarbeliste tehisintellektimudelite pakkujate kohustusi. Lisaks peaksid tegevusjuhendid süsteemsete riskide puhul aitama liidu tasandil kehtestada süsteemsete riskide liigi ja olemuse järgi riskitaksonoomia, mis hõlmab ka riskide allikaid. Tegevusjuhendites tuleks keskenduda ka konkreetsetele riskihindamis- ja maandamismeetmetele.
(116)
Urząd ds. AI powinien wspierać i ułatwiać opracowywanie, przegląd i dostosowywanie kodeksów praktyk, z uwzględnieniem podejść międzynarodowych. Do udziału można zaprosić wszystkich dostawców modeli AI ogólnego przeznaczenia. W celu zapewnienia, aby kodeksy praktyk odzwierciedlały aktualny stan wiedzy technicznej i należycie uwzględniały różne punkty widzenia, przy opracowania takich kodeksów Urząd ds. AI powinien współpracować z odpowiednimi właściwymi organami krajowymi i mógłby, w stosownych przypadkach, konsultować się z organizacjami społeczeństwa obywatelskiego i innymi odpowiednimi zainteresowanymi stronami i ekspertami, w tym z panelem naukowym. Kodeksy praktyk powinny obejmować obowiązki dostawców modeli AI ogólnego przeznaczenia i modeli AI ogólnego przeznaczenia stwarzających ryzyko systemowe. Ponadto w odniesieniu do ryzyka systemowego kodeksy praktyk powinny pomóc w ustanowieniu na poziomie Unii klasyfikacji tego ryzyka pod względem jego różnych rodzajów i charakteru, w tym jego źródeł. Kodeksy praktyk powinny również koncentrować się na konkretnych środkach oceny i ograniczania ryzyka.
(117)
Tegevusjuhendid peaksid olema keskne vahend, mis aitavad üldotstarbeliste tehisintellektimudelite pakkujatel nõuetekohaselt täita käesolevas määruses sätestatud kohustusi. Pakkujatel peaks olema võimalik tugineda tegevusjuhendile, et tõendada kohustuste täitmist. Komisjon võib rakendusaktidega otsustada kiita tegevusjuhendi heaks ja anda sellele üldise kehtivuse kogu liidus või kehtestada ühised õigusnormid asjaomaste kohustuste täitmiseks, kui käesoleva määruse kohaldamise ajaks ei saa tegevusjuhendit lõplikult vormistada või tehisintellektiamet ei pea seda piisavaks. Kui harmoneeritud standard on avaldatud ja see on hinnatud tehisintellektiameti kehtestatud asjakohaste kohustuste täitmiseks sobivaks, peaks Euroopa harmoneeritud standardi järgimine andma eelduse, et pakkujad vastavad nõuetele. Üldotstarbeliste tehisintellektimudelite pakkujad peaksid lisaks suutma tõendada nõuetele vastavust alternatiivsete asjakohaste vahendite alusel, kui tegevusjuhendid või harmoneeritud standardid ei ole kättesaadavad või kui nad otsustavad neile mitte tugineda.
(117)
Kodeksy praktyk powinny stanowić jedno z głównych narzędzi służących właściwemu spełnianiu obowiązków przewidzianych w niniejszym rozporządzeniu w odniesieniu do dostawców modeli AI ogólnego przeznaczenia. Dostawcy powinni móc polegać na kodeksach praktyk w celu wykazania spełnienia tych obowiązków. W drodze aktów wykonawczych Komisja może podjąć decyzję o zatwierdzeniu kodeksu praktyk i nadaniu mu ogólnej ważności w Unii lub ewentualnie o ustanowieniu wspólnych zasad dotyczących wdrażania odpowiednich obowiązków, jeżeli do czasu rozpoczęcia stosowania niniejszego rozporządzenia prace nad kodeksem praktyk nie mogą zostać sfinalizowane lub jeśli Urząd ds. AI uzna, że kodeks ten nie jest wystarczający. Po opublikowaniu normy zharmonizowanej i po tym jak Urząd ds. AI oceni ją jako właściwą, by objąć odpowiednie obowiązki, zgodność z europejską normą zharmonizowaną powinna w odniesieniu do dostawców oznaczać domniemanie zgodności. Dostawcy modeli AI ogólnego przeznaczenia powinni ponadto być w stanie wykazać zgodność za pomocą odpowiednich alternatywnych środków, jeżeli kodeksy praktyk lub normy zharmonizowane nie są dostępne lub jeśli zdecydują się na nich nie polegać.
(118)
Käesoleva määrusega reguleeritakse tehisintellektisüsteeme ja -mudeleid, kehtestades teatavad nõuded ja kohustused asjaomastele turuosalistele, kes lasevad neid süsteeme või mudeleid liidus turule, võtavad kasutusele või kasutavad, täiendades seeläbi selliste vahendusteenuste osutajate kohustusi, kes integreerivad sellised süsteemid või mudelid oma teenustesse, mida reguleeritakse määrusega (EL) 2022/2065. Kui sellised süsteemid või mudelid on integreeritud väga suurtesse digiplatvormidesse või väga suurtesse internetipõhistesse otsingumootoritesse, kohaldatakse nende suhtes määruses (EL) 2022/2065 sätestatud riskijuhtimisraamistikku. Sellest tulenevalt tuleks eeldada, et käesoleva määruse vastavad kohustused on täidetud, välja arvatud juhul, kui tekivad märkimisväärsed süsteemsed riskid, mis ei ole hõlmatud määrusega (EL) 2022/2065, ja kui need on sellistes mudelites kindlaks tehtud. Selles raamistikus on väga suurte digiplatvormide ja väga suurte internetipõhiste otsingumootorite pakkujad kohustatud hindama võimalikke süsteemseid riske, mis tulenevad nende teenuste disainimisest, toimimisest ja kasutamisest, sealhulgas seda, kuidas teenuses kasutatavate algoritmiliste süsteemide kavandamine võib selliseid riske suurendada, samuti süsteemseid riske, mis tulenevad võimalikust väärkasutamisest. Need pakkujad on samuti kohustatud võtma asjakohaseid maandamismeetmeid, järgides põhiõigusi.
(118)
Niniejsze rozporządzenie reguluje systemy AI i modele AI, nakładając określone wymogi i obowiązki na odpowiednie podmioty rynkowe, które wprowadzają je do obrotu, oddają do użytku lub wykorzystują w Unii, i uzupełnia w ten sposób obowiązki dostawców usług pośrednich, którzy włączają takie systemy lub modele do swoich usług uregulowanych rozporządzeniem (UE) 2022/2065. W zakresie, w jakim takie systemy lub modele są wbudowane we wskazane bardzo duże platformy internetowe lub bardzo duże wyszukiwarki internetowe, podlegają one ramom zarządzania ryzykiem przewidzianym w rozporządzeniu (UE) 2022/2065. W związku z tym należy domniemywać, że odpowiednie obowiązki ustanowione w niniejszym rozporządzeniu zostały spełnione, chyba że w takich modelach pojawi się i zostanie zidentyfikowane znaczące ryzyko systemowe nieobjęte rozporządzeniem (UE) 2022/2065. W tych ramach dostawcy bardzo dużych platform internetowych i bardzo dużych wyszukiwarek internetowych są zobowiązani do oceny potencjalnego ryzyka systemowego wynikającego z projektu, funkcjonowania i wykorzystania ich usług, w tym tego, w jaki sposób projekt systemów algorytmicznych wykorzystywanych w danej usłudze może przyczynić się do powstania takiego ryzyka, a także ryzyka systemowego wynikającego z potencjalnego nadużycia. Dostawcy ci są również zobowiązani podjąć odpowiednie środki ograniczające to ryzyko z poszanowaniem praw podstawowych.
(119)
Võttes arvesse liidu õiguse eri õigusaktide kohaldamisalasse jäävate digiteenuste innovatsiooni kiiret tempot ja tehnoloogilist arengut, pidades eelkõige silmas nende kasutamist ja tajumist kasutajate poolt, võib käesoleva määruse kohaldamisalasse kuuluvaid tehisintellektisüsteeme pakkuda vahendusteenustena või nende teenuste osadena määruse (EL) 2022/2065 tähenduses, mida tuleks tõlgendada tehnoloogianeutraalsel viisil. Näiteks võib tehisintellektisüsteeme kasutada internetipõhiste otsingumootorite pakkumiseks, eelkõige niivõrd, kuivõrd selline tehisintellektisüsteem nagu internetipõhine juturobot teeb otsinguid põhimõtteliselt kõigil veebisaitidel, lisab seejärel tulemused oma olemasolevatesse teadmistesse ja kasutab ajakohastatud teadmisi, et luua ühtne väljund, mis ühendab erinevaid teabeallikaid.
(119)
Biorąc pod uwagę szybkie tempo innowacji i rozwój technologiczny usług cyfrowych objętych różnymi instrumentami prawa Unii, w szczególności mając na uwadze wykorzystanie tych usług oraz zrozumienie, kto jest ich odbiorcą, systemy AI podlegające niniejszemu rozporządzeniu mogą być dostarczane jako usługi pośrednie lub ich części w rozumieniu rozporządzenia (UE) 2022/2065, które należy postrzegać w sposób neutralny pod względem technologicznym. Na przykład systemy AI mogą być wykorzystywane w roli wyszukiwarek internetowych, w szczególności w zakresie, w jakim system AI, taki jak chatbot internetowy, zasadniczo przeprowadza wyszukiwanie wszystkich stron internetowych, a następnie włącza wyniki do swojej istniejącej wiedzy i wykorzystuje zaktualizowaną wiedzę do wygenerowania jednego wyniku, który łączy różne źródła informacji.
(120)
Lisaks on määruse (EL) 2022/2065 tõhusa rakendamise hõlbustamiseks eriti asjakohased kohustused, mis on käesoleva määrusega kehtestatud teatavate tehisintellektisüsteemide pakkujatele ja juurutajatele, et võimaldada avastada ja avalikustada seda, et nende süsteemide väljundid on kunstlikult loodud või neid on manipuleeritud. See kehtib eelkõige seoses väga suurte digiplatvormide või väga suurte internetipõhiste otsingumootorite pakkujate kohustusega teha kindlaks ja maandada süsteemseid riske, mis võivad tuleneda kunstlikult loodud või manipuleeritud sisu levitamisest, eelkõige risk, et see põhjustab tegelikku või prognoositavat negatiivset mõju demokraatlikele protsessidele, ühiskondlikule arutelule ja valimisprotsessidele, sealhulgas desinformatsiooni kaudu.
(120)
Ponadto obowiązki nałożone w niniejszym rozporządzeniu na dostawców i podmioty stosujące niektóre systemy AI, by umożliwić wykrywanie i ujawnianie, że wyniki tych systemów są sztucznie wygenerowane lub zmanipulowane, są szczególnie istotne dla ułatwienia skutecznego wdrożenia rozporządzenia (UE) 2022/2065. Dotyczy to w szczególności obowiązków dostawców bardzo dużych platform internetowych lub bardzo dużych wyszukiwarek internetowych w zakresie identyfikowania i ograniczania ryzyka systemowego, które może wynikać z rozpowszechniania treści sztucznie wygenerowanych lub zmanipulowanych, w szczególności ryzyka faktycznych lub przewidywalnych negatywnych skutków dla procesów demokratycznych, dyskursu obywatelskiego i procesów wyborczych, w tym poprzez stosowanie dezinformacji.
(121)
Oluline roll peaks olema standardimisel, et anda pakkujatele tehnilised lahendused, millega tagatakse käesoleva määruse järgimine kooskõlas tehnika tasemega, et edendada innovatsiooni ning konkurentsivõimet ja majanduskasvu ühtsel turul. Euroopa Parlamendi ja nõukogu määruse (EL) nr 1025/2012 (41) artikli 2 punkti 1 alapunktis c määratletud harmoneeritud standardite – mis üldiselt peaksid kajastama tehnika taset – järgimine peaks olema pakkujate jaoks vahend, millega tõendada käesoleva määruse nõuete täitmist. Seepärast tuleks soodustada huvide tasakaalustatud esindatust, kaasates standardite väljatöötamisse kõik asjaomased sidusrühmad, eelkõige VKEd, tarbijaorganisatsioonid ning keskkonna- ja sotsiaalvaldkonna sidusrühmad, kooskõlas määruse (EL) nr 1025/2012 artiklitega 5 ja 6. Nõuete täitmise hõlbustamiseks peaks komisjon esitama standardimistaotlused põhjendamatu viivituseta. Standardimistaotluse koostamisel peaks komisjon konsulteerima nõuandva kogu ja nõukojaga, et koguda asjaomast oskusteavet. Kui aga asjakohased viited harmoneeritud standarditele puuduvad, peaks komisjonil olema võimalik rakendusaktidega ja pärast nõuandva koguga konsulteerimist kehtestada teatavate käesoleva määruse kohaste nõuete ühtsed kirjeldused. Ühtne kirjeldus peaks olema erakorraline varulahendus, mis hõlbustab pakkujal täita käesoleva määruse nõudeid, kui ükski Euroopa standardiorganisatsioon ei ole standardimistaotlust heaks kiitnud või kui asjakohastes harmoneeritud standardites ei ole piisavalt käsitletud põhiõigustega seotud probleeme või kui harmoneeritud standardid ei vasta taotlusele või kui asjakohase harmoneeritud standardi vastuvõtmisel esineb viivitusi. Kui harmoneeritud standardi vastuvõtmine viibib standardi tehnilise keerukuse tõttu, peaks komisjon seda enne ühtsete kirjelduste kehtestamist arvesse võtma. Ühtsete kirjelduste väljatöötamisel julgustatakse komisjoni tegema koostööd rahvusvaheliste partnerite ja rahvusvaheliste standardiorganisatsioonidega.
(121)
Kluczową rolę w dostarczaniu dostawcom rozwiązań technicznych – zgodnie z aktualnym stanem wiedzy technicznej – w celu zapewnienia zgodności z niniejszym rozporządzeniem powinna odgrywać normalizacja, tak aby promować innowacje oraz konkurencyjność i wzrost gospodarczy na jednolitym rynku. Zgodność z normami zharmonizowanymi określonymi w art. 2 pkt 1 lit. c) rozporządzenia Parlamentu Europejskiego i Rady (UE) nr 1025/2012 (41), które z założenia mają odzwierciedlać stan wiedzy technicznej, powinna stanowić dla dostawców sposób wykazania zgodności z wymogami niniejszego rozporządzenia. Przy opracowywaniu norm należy zatem zachęcać do zrównoważonej reprezentacji interesów wszystkich zainteresowanych stron, w szczególności MŚP, organizacji konsumenckich oraz zainteresowanych stron działających na rzecz ochrony środowiska i społeczeństwa zgodnie z art. 5 i 6 rozporządzenia (UE) nr 1025/2012. Aby ułatwić osiąganie zgodności, wnioski o normalizację powinny być wydawane przez Komisję bez zbędnej zwłoki. Przygotowując wniosek o normalizację, Komisja powinna skonsultować się z forum doradczym i Radą ds. AI, aby zebrać odpowiednią wiedzę fachową. Jednakże w przypadku braku odpowiednich odniesień do norm zharmonizowanych Komisja powinna mieć możliwość ustanowienia, w drodze aktów wykonawczych i po konsultacji z forum doradczym, wspólnych specyfikacji dotyczących niektórych wymogów określonych w niniejszym rozporządzeniu. Ta wspólna specyfikacja powinna stanowić wyjątkowe rozwiązanie awaryjne ułatwiające dostawcy spełnienie wymogów niniejszego rozporządzenia, w przypadku gdy wniosek o normalizację nie został zaakceptowany przez żadną z europejskich organizacji normalizacyjnych lub gdy odpowiednie normy zharmonizowane w niewystarczającym stopniu uwzględniają obawy dotyczące praw podstawowych lub gdy normy zharmonizowane nie są zgodne z wnioskiem, lub gdy występują opóźnienia w przyjęciu odpowiedniej normy zharmonizowanej. Jeżeli opóźnienie w przyjęciu normy zharmonizowanej wynika ze złożoności technicznej danej normy, Komisja powinna to uwzględnić, zanim zacznie rozważać ustanowienie wspólnych specyfikacji. Przy opracowywaniu wspólnych specyfikacji zachęca się Komisję do współpracy z partnerami międzynarodowymi i międzynarodowymi organami normalizacyjnymi.
(122)
Ilma et see piiraks harmoneeritud standardite ja ühtsete kirjelduste kasutamist, tuleks eeldada, et pakkujad, kes pakuvad suure riskiga tehisintellektisüsteemi, mida on treenitud ja testitud andmetega, mis kajastavad konkreetset geograafilist, käitumuslikku, kontekstipõhist või funktsionaalset keskkonda, milles tehisintellektisüsteemi kavatsetakse kasutada, järgivad asjakohaseid meetmeid, mis on ette nähtud käesolevas määruses sätestatud andmehalduse nõude raames. Ilma et see piiraks käesolevas määruses sätestatud stabiilsuse ja täpsuse nõuete kohaldamist, tuleks kooskõlas määruse (EL) 2019/881 artikli 54 lõikega 3 eeldada, et suure riskiga tehisintellektisüsteemid, mis on sertifitseeritud või mille kohta on välja antud vastavusdeklaratsioon kõnealuse määruse kohase küberturvalisuse sertifitseerimise kava alusel ja mille viited on avaldatud Euroopa Liidu Teatajas, vastavad käesoleva määruse küberturvalisuse nõudele, kui küberturvalisuse sertifikaat või vastavusdeklaratsioon või nende osad hõlmavad käesoleva määruse küberturvalisuse nõuet. See ei piira kõnealuse küberturvalisuse sertifitseerimise kava vabatahtlikku laadi.
(122)
Bez uszczerbku dla stosowania norm zharmonizowanych i wspólnych specyfikacji zasadnym jest przyjęcie domniemania, że dostawcy systemu AI wysokiego ryzyka, który został wytrenowany i przetestowany w oparciu o dane odzwierciedlające określone otoczenie geograficzne, behawioralne, kontekstualne lub funkcjonalne, w którym dany system AI ma być wykorzystywany, stosują odpowiedni środek przewidziany w ramach wymogu dotyczącego zarządzania danymi określonego w niniejszym rozporządzeniu. Bez uszczerbku dla wymogów dotyczących solidności i dokładności określonych w niniejszym rozporządzeniu, zgodnie z art. 54 ust. 3 rozporządzenia (UE) 2019/881 należy przyjąć domniemanie, że systemy AI wysokiego ryzyka, które zostały certyfikowane lub w odniesieniu do których wydano deklarację zgodności w ramach programu certyfikacji cyberbezpieczeństwa na podstawie tego rozporządzenia i do których to poświadczeń opublikowano odniesienia w Dzienniku Urzędowym Unii Europejskiej, są zgodne z wymogiem cyberbezpieczeństwa określonym w niniejszym rozporządzeniu w zakresie, w jakim certyfikat cyberbezpieczeństwa lub deklaracja zgodności lub ich części obejmują wymóg cyberbezpieczeństwa określony w niniejszym rozporządzeniu. Pozostaje to bez uszczerbku dla dobrowolnego charakteru tego programu certyfikacji cyberbezpieczeństwa.
(123)
Selleks et tagada suure riskiga tehisintellektisüsteemide kõrge usaldusväärsus, peaksid need süsteemid enne nende turule laskmist või kasutuselevõtmist läbima vastavushindamise.
(123)
Aby zapewnić wysoki poziom wiarygodności systemów AI wysokiego ryzyka, takie systemy powinny podlegać ocenie zgodności przed wprowadzeniem ich do obrotu lub oddaniem do użytku.
(124)
Operaatorite koormuse vähendamiseks ja võimaliku dubleerimise vältimiseks on asjakohane hinnata uue õigusraamistiku alusel olemasolevate liidu ühtlustamisõigusaktide kohaldamisalasse kuuluvate toodetega seotud suure riskiga tehisintellektisüsteemide vastavust käesoleva määruse nõuetele osana kõnealuse õigusega juba ette nähtud vastavushindamisest. Seega ei tohiks käesoleva määruse nõuete kohaldatavus mõjutada uue liidu ühtlustamisõigusaktide kohaselt tehtava vastavushindamise eriomast loogikat, metoodikat või üldist ülesehitust.
(124)
Aby zminimalizować obciążenie dla operatorów i uniknąć ewentualnego powielania działań, zgodność z wymogami niniejszego rozporządzenia w przypadku systemów AI wysokiego ryzyka powiązanych z produktami, które są objęte zakresem stosowania obowiązującego unijnego prawodawstwa harmonizacyjnego opartego na nowych ramach prawnych, należy oceniać w ramach oceny zgodności przewidzianej już w tym prawodawstwie. Stosowanie wymogów niniejszego rozporządzenia nie powinno zatem wpływać na szczególną logikę, metodykę lub ogólną strukturę oceny zgodności określone w unijnym prawodawstwie harmonizacyjnym.
(125)
Arvestades suure riskiga tehisintellektisüsteemide keerukust ja nendega seotud riske, on oluline töötada suure riskiga tehisintellektisüsteemide jaoks välja asjakohane vastavushindamismenetlus, mis hõlmab teada antud asutusi, nn kolmanda isiku tehtavat vastavushindamist. Kuid võttes arvesse kutseliste turustamiseelsete sertifitseerijate praeguseid kogemusi tooteohutuse valdkonnas ja kaasnevate riskide erinevat olemust, on asjakohane vähemalt käesoleva määruse kohaldamise algjärgus piirata kolmanda isiku tehtava vastavushindamise kohaldamise ulatust muude kui toodetega seotud suure riskiga tehisintellektisüsteemide puhul. Seepärast peaks selliste süsteemide vastavushindamise üldjuhul läbi viima pakkuja omal vastutusel, välja arvatud biomeetria jaoks ette nähtud tehisintellektisüsteemide puhul.
(125)
Biorąc pod uwagę złożoność systemów AI wysokiego ryzyka i związane z nimi ryzyko, ważne jest opracowanie odpowiedniej procedury oceny zgodności w przypadku systemów AI wysokiego ryzyka z udziałem jednostek notyfikowanych, tzw. oceny zgodności przeprowadzanej przez stronę trzecią. Zważywszy jednak na dotychczasowe doświadczenie, jakie zawodowe podmioty zajmujące się certyfikacją przed wprowadzeniem do obrotu mają w dziedzinie bezpieczeństwa produktów, oraz odmienny charakter odnośnego ryzyka, zakres stosowania oceny zgodności przeprowadzanej przez stronę trzecią należy ograniczyć, przynajmniej na początkowym etapie stosowania niniejszego rozporządzenia, w przypadku systemów AI wysokiego ryzyka innych niż te, które są powiązane z produktami. W związku z tym ocena zgodności takich systemów powinna być co do zasady przeprowadzana przez dostawcę na jego własną odpowiedzialność, z wyjątkiem systemów AI przeznaczonych do wykorzystania do celów biometrycznych.
(126)
Selleks et vajaduse korral viidaks läbi kolmanda isiku tehtavad vastavushindamised, peaksid riikide pädevad asutused käesoleva määruse alusel teavitama teada antud asutusi, tingimusel et need vastavad teatavatele nõuetele eeskätt sõltumatuse, pädevuse, huvide konflikti puudumise ja küberturvalisuse asjakohaste nõuete vallas. Riikide pädevad asutused peaksid saatma teavituse kõnealuste asutuste kohta komisjonile ja teistele liikmesriikidele komisjoni poolt otsuse nr 768/2008/EÜ I lisa artikli R23 alusel väljaarendatud ja hallatava elektroonilise teavitamise vahendi kaudu.
(126)
Do celów oceny zgodności przeprowadzanej przez stronę trzecią, jeśli jest ona wymagana, właściwe organy krajowe powinny notyfikować na podstawie niniejszego rozporządzenia jednostki notyfikowane, pod warunkiem że jednostki te spełniają szereg wymogów, w szczególności dotyczących niezależności, kompetencji, braku konfliktu interesów i odpowiednich wymogów cyberbezpieczeństwa. Notyfikacja tych jednostek powinna zostać przesłana Komisji i pozostałym państwom członkowskim przez właściwe organy krajowe za pomocą systemu notyfikacji elektronicznej opracowanego i zarządzanego przez Komisję zgodnie z art. R23 załącznika I do decyzji nr 768/2008/WE.
(127)
Kooskõlas Maailma Kaubandusorganisatsiooni tehniliste kaubandustõkete lepingust tulenevate liidu kohustustega on asjakohane hõlbustada selliste vastavushindamistulemuste vastastikust tunnustamist, mille on saanud pädevad vastavushindamisasutused sõltumata territooriumist, kus nad on asutatud, tingimusel et kolmanda riigi õiguse alusel asutatud vastavushindamisasutused vastavad käesoleva määruse kohaldatavatele nõuetele ja liit on sõlminud sellekohase lepingu. Sellega seoses peaks komisjon aktiivselt uurima võimalike rahvusvaheliste õigusaktide koostamist sel eesmärgil ja eelkõige püüdma sõlmida vastastikuse tunnustamise lepinguid kolmandate riikidega.
(127)
Zgodnie ze zobowiązaniami Unii wynikającymi z Porozumienia Światowej Organizacji Handlu w sprawie barier technicznych w handlu właściwe jest ułatwienie wzajemnego uznawania wyników oceny zgodności sporządzonych przez właściwe jednostki oceniające zgodność, niezależnie od terytorium, na którym mają siedzibę, pod warunkiem że te jednostki oceniające zgodność ustanowione na mocy prawa państwa trzeciego spełniają mające zastosowanie wymogi niniejszego rozporządzenia, a Unia zawarła w tym zakresie umowę. W tym kontekście Komisja powinna aktywnie szukać rozwiązań w postaci ewentualnych służących temu celowi instrumentów międzynarodowych, a w szczególności dążyć do zawarcia umów o wzajemnym uznawaniu z państwami trzecimi.
(128)
Liidu ühtlustamisõigusaktidega reguleeritud toodete olulise muudatuse laialdaselt juurdunud mõiste kohaselt on asjakohane, et kui tehakse muudatus, mis võib mõjutada suure riskiga tehisintellektisüsteemi vastavust käesolevale määrusele (näiteks operatsioonisüsteemi või tarkvaraarhitektuuri muudatus), või kui muutub süsteemi sihtotstarve, tuleks kõnealust tehisintellektisüsteemi käsitada uue tehisintellektisüsteemina, mis peaks läbima uue vastavushindamise. Siiski ei peaks muudatuste puhul, mis tehakse selliste tehisintellektisüsteemide algoritmis või toimimises, mis n-ö õpivad edasi ka pärast turule laskmist või kasutusele võtmist, nimelt kohandavad automaatselt funktsioonide täitmise viisi, olema tegemist olulise muudatusega, tingimusel et pakkuja on kõnealused muudatused eelnevalt kindlaks määranud ja neid on vastavushindamise ajal hinnatud.
(128)
Zgodnie z powszechnie ugruntowanym pojęciem istotnej zmiany w odniesieniu do produktów regulowanych unijnym prawodawstwem harmonizacyjnym, należy – za każdym razem, gdy dokonuje się zmiany, która może wpłynąć na zgodność danego systemu AI wysokiego ryzyka z niniejszym rozporządzeniem (np. zmiana systemu operacyjnego lub architektury oprogramowania), lub gdy zmienia się przeznaczenie danego systemu – uznać ten system AI za nowy system AI, który powinien zostać poddany nowej ocenie zgodności. Za istotną zmianę nie należy jednak uznawać zmian w algorytmie oraz w skuteczności działania systemu AI, który po wprowadzeniu do obrotu lub oddaniu do użytku nadal się „uczy”, tzn. automatycznie dostosowuje sposób wykonywania funkcji, pod warunkiem że zmiany te zostały z góry zaplanowane przez dostawcę i ocenione w momencie przeprowadzania oceny zgodności.
(129)
Suure riskiga tehisintellektisüsteemidel peaks olema CE-märgis, mis näitab nende vastavust käesolevale määrusele, et nad saaksid siseturul vabalt liikuda. Tootesse sisseehitatud suure riskiga tehisintellektisüsteemide puhul tuleks kinnitada füüsiline CE-märgis ja seda võib täiendada digitaalse CE-märgisega. Suure riskiga tehisintellektisüsteemide puhul, mida pakutakse ainult digitaalselt, tuleks kasutada digitaalset CE-märgist. Liikmesriigid ei tohiks luua põhjendamatuid tõkkeid käesolevas määruses sätestatud nõuetele vastavate ja CE-märgisega suure riskiga tehisintellektisüsteemide turule laskmisele või kasutusele võtmisele.
(129)
Systemy AI wysokiego ryzyka powinny posiadać oznakowanie CE wskazujące na ich zgodności z niniejszym rozporządzeniem, aby umożliwić ich swobodny przepływ na rynku wewnętrznym. W przypadku systemów AI wysokiego ryzyka wbudowanych w produkt należy umieścić fizyczne oznakowanie CE, które może zostać uzupełnione cyfrowym oznakowaniem CE. W przypadku systemów AI wysokiego ryzyka dostarczanych wyłącznie w formie cyfrowej należy stosować cyfrowe oznakowanie CE. Państwa członkowskie nie powinny stwarzać nieuzasadnionych przeszkód dla wprowadzania do obrotu lub oddawania do użytku systemów AI wysokiego ryzyka zgodnych z wymogami ustanowionymi w niniejszym rozporządzeniu i posiadających oznakowanie CE.
(130)
Teatavatel tingimustel võib uuenduslike tehnoloogiate kiire kättesaadavus olla inimeste tervise ja turvalisuse, keskkonnakaitse ja kliimamuutuste ning ühiskonna kui terviku jaoks olla äärmiselt tähtis. Seepärast on asjakohane, et teatavatel erandlikel põhjustel, mis on seotud avaliku julgeoleku või füüsiliste isikute elu ja tervise kaitse, keskkonnakaitse ning oluliste tööstus- ja taristuvarade kaitsega, võiksid turujärelevalveasutused lubada selliste tehisintellektisüsteemide turule laskmist või kasutusele võtmist, millele ei ole vastavushindamist tehtud. Käesolevas määruses sätestatud põhjendatud olukordades võivad õiguskaitseasutused või elanikkonnakaitseasutused võtta konkreetse suure riskiga tehisintellektisüsteemi kasutusele ilma turujärelevalveasutuse loata, tingimusel et sellist luba taotletakse põhjendamatu viivituseta kasutamise ajal või pärast seda.
(130)
W pewnych warunkach szybka dostępność innowacyjnych technologii może być kluczowa dla zdrowia i bezpieczeństwa osób, ochrony środowiska i zmiany klimatu oraz dla całego społeczeństwa. Jest zatem właściwe, aby w przypadku wystąpienia nadzwyczajnych względów dotyczących bezpieczeństwa publicznego lub ochrony zdrowia i życia osób fizycznych, ochrony środowiska oraz ochrony kluczowych aktywów przemysłowych i infrastrukturalnych, organy nadzoru rynku mogły zezwolić na wprowadzenie do obrotu lub oddanie do użytku systemów AI, które nie przeszły oceny zgodności. W należycie uzasadnionych sytuacjach przewidzianych w niniejszym rozporządzeniu organy ścigania lub organy ochrony ludności mogą oddać do użytku określony system AI wysokiego ryzyka bez zezwolenia organu nadzoru rynku, pod warunkiem że o takie zezwolenie wystąpiono bez zbędnej zwłoki w trakcie jego wykorzystania lub po wykorzystaniu.
(131)
Et hõlbustada tööd, mida komisjon ja liikmesriigid tehisintellekti vallas teevad, ning suurendada avalikkuse jaoks läbipaistvust, peaksid muude kui asjaomaste olemasolevate liidu ühtlustamisõigusaktide kohaldamisalasse kuuluvate toodetega seotud suure riskiga tehisintellektisüsteemide pakkujad, samuti pakkujad, kes leiavad, et käesoleva määruse lisas suure riski kasutusena loetletud tehisintellektisüsteem ei ole kohaldatava erandi alusel suure riskiga, olema kohustatud registreerima iseenda ja teabe oma tehisintellektisüsteemi kohta ELi andmebaasis, mille loob ja mida haldab komisjon. Enne käesoleva määruse lisas suure riski kasutusena loetletud tehisintellektisüsteemi kasutamist peaksid suure riskiga tehisintellektisüsteemide juurutajad, kes on avaliku sektori asutused, ametid või organid, end selles ELi andmebaasis registreerima ja valima välja süsteemi, mida nad kavatsevad kasutada. Teistel juurutajatel peaks olema õigus teha seda vabatahtlikult. See ELi andmebaasi osa peaks olema avalik ja tasuta kättesaadav, teave peaks olema kergesti kasutatav, arusaadav ja masinloetav. ELi andmebaas peaks olema ka kasutajasõbralik, näiteks pakkudes otsingufunktsioone, sealhulgas märksõnade kaudu, võimaldades üldsusel leida asjakohast teavet, mis peab olema edastatud kõrge riskitasemega tehisintellektisüsteemide registreerimisel, ja teavet selliste kõrge riskiga tehisintellektisüsteemide kasutusmalli kohta, mis on suure riskiga tehisintellektisüsteemid vastavalt käesoleva määruse lisas sätestatule. ELi andmebaasis tuleks registreerida ka kõik suure riskiga tehisintellektisüsteemide olulised muudatused. Õiguskaitse, rände, varjupaiga ja piirikontrollihalduse valdkonna suure riskiga tehisintellektisüsteemide puhul tuleks registreerimiskohustusi täita ELi andmebaasi turvalises mitteavalikus osas. Turvalisele mitteavalikule osale peaks juurdepääs olema rangelt üksnes komisjonil ja turujärelevalveasutustel nende andmebaasi riikliku osa piires. Elutähtsa taristu valdkonna suure riskiga tehisintellektisüsteeme tuleks registreerida üksnes riiklikul tasandil. Kooskõlas määrusega (EL) 2018/1725 peaks ELi andmebaasi vastutav töötleja olema komisjon. Et ELi andmebaas oleks kasutuselevõtmisel täielikult toimiv, peaks andmebaasi loomise menetlus hõlmama funktsionaalsete kirjelduste väljatöötamist komisjoni poolt ja sõltumatut auditiaruannet. Komisjon peaks ELi andmebaasi vastutava töötlejana oma ülesannete täitmisel võtma arvesse küberturvalisuse riske. Et maksimeerida ELi andmebaasi kättesaadavust ja kasutamist avalikkuse poolt, peaks ELi andmebaas, sealhulgas selle kaudu kättesaadavaks tehtud teave, vastama direktiivi (EL) 2019/882 nõuetele.
(131)
Aby ułatwić pracę Komisji i państw członkowskich w dziedzinie AI, jak również zwiększyć przejrzystość wobec ogółu społeczeństwa, dostawców systemów AI wysokiego ryzyka innych niż te, które są powiązane z produktami objętymi zakresem stosowania odpowiedniego obowiązującego unijnego prawodawstwa harmonizacyjnego, a także dostawców, którzy uznają, że w związku z odstępstwem system AI wymieniony w wykazie przypadków wykorzystania stanowiących wysokie ryzyko zamieszczonym w załączniku do niniejszego rozporządzenia nie jest systemem wysokiego ryzyka, należy zobowiązać, by dokonali swojej rejestracji oraz rejestracji informacji na temat swoich systemów AI w bazie danych UE, która zostanie utworzona i będzie zarządzana przez Komisję. Przed wykorzystaniem systemu AI wymienionego w wykazie przypadków wykorzystania stanowiących wysokie ryzyko zamieszczonym w załączniku do niniejszego rozporządzenia będące publicznymi organami, agencjami lub jednostkami organizacyjnymi podmioty stosujące systemy AI wysokiego ryzyka powinny dokonać swojej rejestracji w tej bazie danych i wybrać system, który zamierzają wykorzystywać. Inne podmioty stosujące powinny być uprawnione do uczynienia tego dobrowolnie. Ta sekcja bazy danych UE powinna być publicznie dostępna, nieodpłatna, informacje powinny być łatwe do odnalezienia, zrozumiałe i nadające się do odczytu maszynowego. Ta baza danych UE powinna być również przyjazna dla użytkownika, na przykład poprzez zapewnienie funkcji wyszukiwania, w tym za pomocą słów kluczowych, co umożliwi ogółowi społeczeństwa znalezienie istotnych informacji przedkładanych przy rejestracji systemów AI wysokiego ryzyka, oraz informacji na temat przypadków wykorzystywania systemów AI wysokiego ryzyka, określonych w załączniku do niniejszego rozporządzenia, któremu odpowiadają poszczególne systemy AI wysokiego ryzyka. W unijnej bazie danych UE powinno się też rejestrować wszelkie istotne zmiany systemów sztucznej inteligencji wysokiego ryzyka. W przypadku systemów AI wysokiego ryzyka w obszarze ścigania przestępstw, zarządzania migracją, azylem i kontrolą graniczną obowiązkowej rejestracji należy dokonać w bezpiecznej niepublicznej sekcji bazy danych. Dostęp do tej bezpiecznej niepublicznej sekcji powinna posiadać tylko i wyłącznie Komisja i organy nadzoru rynku w odniesieniu do ich krajowej sekcji bazy danych UE. Systemy AI wysokiego ryzyka w obszarze infrastruktury krytycznej powinny być rejestrowane wyłącznie na poziomie krajowym. Komisja powinna być administratorem bazy danych UE zgodnie z rozporządzeniem (UE) 2018/1725. Aby zapewnić pełną funkcjonalność bazy danych UE po jej wdrożeniu, procedura ustanawiania bazy danych powinna obejmować rozwijanie przez Komisję specyfikacji funkcjonalnych oraz sprawozdanie z niezależnego audytu. Wykonując swoje zadania jako administrator danych bazy danych UE, Komisja powinna wziąć pod uwagę ryzyko dotyczące cyberbezpieczeństwa. Aby zmaksymalizować dostępność i wykorzystywanie bazy danych UE przez społeczeństwo, baza danych UE, w tym udostępniane za jej pośrednictwem informacje, powinna być zgodna z wymogami określonymi w dyrektywie (UE) 2019/882.
(132)
Teatavad tehisintellektisüsteemid, mis on mõeldud suhtlema füüsiliste isikutega või sisu looma, võivad põhjustada spetsiifilisi kellegi teisena esinemise või pettuse riske olenemata sellest, kas süsteemid on liigitatud suure riskiga süsteemideks või mitte. Seepärast peaks nende süsteemide kasutamise suhtes teatavates olukordades kehtima spetsiifilised läbipaistvuskohustused, ilma et see piiraks suure riskiga tehisintellektisüsteemide suhtes kehtivate nõuete ja kohustuste ning sihipäraste erandite kohaldamist, et võtta arvesse õiguskaitse erivajadusi. Eelkõige tuleks füüsilistele isikutele anda teada, et nad suhtlevad tehisintellektisüsteemiga, välja arvatud juhul, kui see on mõistlikult informeeritud, tähelepaneliku ja aruka füüsilise isiku jaoks ilmne, võttes arvesse asjaolusid ja kasutamise konteksti. Kõnealuse kohustuse rakendamisel tuleks arvesse võtta nende füüsiliste isikute omadusi, kes kuuluvad oma vanuse või puude tõttu kaitsetutesse rühmadesse, niivõrd kui tehisintellektisüsteem on mõeldud ka nende rühmadega suhtlemiseks. Peale selle tuleks füüsilisi isikuid teavitada, kui nad puutuvad kokku tehisintellektisüsteemidega, mis suudavad nende biomeetrilisi andmeid töödeldes tuvastada või tuletada nende emotsioone või kavatsusi või liigitada kõnealused isikud konkreetsesse kategooriasse. Kõnealused konkreetsed kategooriad võivad olla seotud selliste aspektidega nagu sugu, vanus, juuksevärv, silmade värv, tätoveeringud, isikuomadused, etniline päritolu, isiklikud eelistused ja huvid. Selline teave ja teavitused tuleks edastada puuetega inimestele juurdepääsetavas vormingus.
(132)
Niektóre systemy AI przeznaczone do wchodzenia w interakcję z osobami fizycznymi lub generowania treści mogą stwarzać szczególne ryzyko podawania się za inną osobę lub wprowadzania w błąd, niezależnie od tego, czy kwalifikują się jako systemy wysokiego ryzyka, czy też nie. W pewnych okolicznościach wykorzystanie tych systemów powinno zatem podlegać szczególnym obowiązkom w zakresie przejrzystości bez uszczerbku dla wymogów i obowiązków określonych dla systemów AI wysokiego ryzyka, przy zastosowaniu ukierunkowanych wyjątków, aby uwzględnić szczególne potrzeby w zakresie ścigania przestępstw. W szczególności osoby fizyczne powinny być powiadamiane o tym, że wchodzą w interakcję z systemem AI, chyba że jest to oczywiste z punktu widzenia osoby fizycznej, która jest dostatecznie poinformowana, uważna i ostrożna, z uwzględnieniem okoliczności i kontekstu korzystania. Przy spełnianiu takiego obowiązku należy uwzględniać cechy osób fizycznych należących do grup szczególnie wrażliwych ze względu na wiek lub niepełnosprawność – w zakresie, w jakim system AI ma również wchodzić w interakcję z tymi grupami. Ponadto osoby fizyczne powinny być powiadamiane, jeżeli są poddawane działaniu systemów AI, które poprzez przetwarzanie ich danych biometrycznych mogą zidentyfikować lub wywnioskować emocje lub zamiary tych osób lub przypisać je do określonych kategorii. Te określone kategorie mogą dotyczyć takich aspektów jak płeć, wiek, kolor włosów, kolor oczu, tatuaże, cechy osobowości, pochodzenie etniczne, osobiste preferencje i zainteresowania. Tego rodzaju informacje i powiadomienia należy przekazywać w formatach dostępnych dla osób z niepełnosprawnościami.
(133)
Mitmesugused tehisintellektisüsteemid võivad luua suures koguses sünteesitud sisu, mida inimestel on üha raskem eristada inimeste loodud ja ehtsast sisust. Nende süsteemide laialdasel kättesaadavusel ja üha paranevatel võimetel on märkimisväärne mõju teabe ökosüsteemi terviklusele ja usaldusväärsusele, põhjustades uusi mastaapse väärinformatsiooni ja manipuleerimise, pettuse, kellegi teisena esinemise ja tarbijate eksitamise riske. Seda mõju, tehnoloogia arengu kiiret tempot ning vajadust uute meetodite ja tehnikate järele teabe päritolu jälgimiseks arvesse võttes on asjakohane nõuda, et nende süsteemide pakkujad integreeriksid süsteemi tehnilised lahendused, mis võimaldavad masinloetavas vormingus märgistada ja tuvastada selle, et väljundi on loonud või seda on manipuleerinud tehisintellektisüsteem, mitte inimene. Sellised tehnikad ja meetodid peaksid olema nii usaldusväärsed, koostalitlusvõimelised, tõhusad ja töökindlad, kui see on olemasolevaid tehnikaid või nende kombinatsioone arvesse võttes tehniliselt võimalik, ning nendeks on näiteks vesimärgid, metaandmete identifitseerimine, krüptograafilised meetodid sisu päritolu ja autentsuse tõendamiseks, logimismeetodid, sõrmejäljed või muud asjakohased meetodid. Selle kohustuse rakendamisel peaksid pakkujad võtma arvesse ka eri liiki sisu eripärasid ja piire ning valdkonna asjakohaseid tehnoloogilisi ja turusuundumusi, nagu on kajastatud tehnika üldtunnustatud tasemes. Selliseid tehnikaid ja meetodeid saab rakendada tehisintellektisüsteemi või tehisintellektimudeli tasandil, sealhulgas sisu loovate üldotstarbeliste tehisintellektimudelite tasandil, hõlbustades seeläbi tehisintellektisüsteemi järgmise etapi pakkujal selle kohustuse täitmist. Proportsionaalsuse säilitamiseks on asjakohane ette näha, et see märgistamiskohustus ei peaks hõlmama tehisintellektisüsteeme, mis täidavad peamiselt standardse redigeerimise abifunktsiooni, ega tehisintellektisüsteeme, mis ei muuda oluliselt juurutaja esitatud sisendandmeid või nende semantikat.
(133)
Różne systemy AI mogą generować duże ilości treści syntetycznych, które stają się coraz trudniejsze do odróżnienia od treści generowanych przez człowieka i treści autentycznych. Szeroka dostępność i coraz większe zdolności tych systemów mają znaczący wpływ na integralność ekosystemu informacyjnego i zaufanie do niego, stwarzając nowe rodzaje ryzyka polegające na podawaniu informacji wprowadzających w błąd i na manipulacji na dużą skalę, oszustwach, podszywaniu się pod inne osoby i wprowadzaniu w błąd konsumentów. W świetle tych skutków, a także szybkiego tempa technologicznego oraz zapotrzebowania na nowe metody i techniki śledzenia pochodzenia informacji należy zobowiązać dostawców tych systemów do wbudowania rozwiązań technicznych, które umożliwiają oznakowanie w formacie nadającym się do odczytu maszynowego i wykrywanie, że wyniki zostały wygenerowane lub zmanipulowane przez system AI, a nie przez człowieka. Takie techniki i metody powinny być wystarczająco niezawodne, interoperacyjne, skuteczne i solidne, o ile jest to technicznie wykonalne, z uwzględnieniem dostępnych technik lub kombinacji takich technik, takich jak znaki wodne, identyfikacja metadanych, metody kryptograficzne służące do potwierdzania pochodzenia i autentyczności treści, metody rejestracji zdarzeń, odciski palców lub inne techniki, stosownie do przypadku. Przy spełnianiu tego obowiązku dostawcy powinni uwzględniać specyfikę i ograniczenia różnych rodzajów treści oraz istotne postępy technologiczne i rynkowe w tym obszarze, które odzwierciedla powszechnie uznany stan wiedzy technicznej. Takie techniki i metody można wdrażać na poziomie danego systemu AI lub na poziomie modelu AI, w tym modeli AI ogólnego przeznaczenia generujących treści, a tym samym ułatwiać spełnianie tego obowiązku przez dostawcę niższego szczebla danego systemu AI. Aby zachować proporcjonalność, należy przewidzieć, że ten obowiązek oznakowania nie powinien obejmować systemów AI pełniących przede wszystkim funkcję wspomagającą w zakresie standardowej edycji lub systemów AI, które nie zmieniają w istotny sposób przekazywanych przez podmiot stosujący danych wejściowych ani ich semantyki.
(134)
Lisaks tehisintellektisüsteemi pakkujate kasutatavatele tehnilistele lahendustele peaksid juurutajad, kes kasutavad tehisintellektisüsteemi, et luua või manipuleerida pildi-, audio- või videosisu, mis sarnaneb märgatavalt olemasolevate isikute, objektide, kohtade, üksuste või sündmustega ja võib inimesele ekslikult ehtne ja tõene näida (süvavõltsingud), ka selgel ja eristataval viisil avalikustama, et see sisu on kunstlikult loodud või seda on manipuleeritud, märgistades tehisintellekti väljundi vastavalt ja avalikustades selle tehisliku päritolu. Seda läbipaistvusnõude järgmist ei tohiks tõlgendada nii, et tehisintellektisüsteemi või selle väljundi kasutamine takistab põhiõiguste hartaga tagatud väljendusvabaduse ning kunsti ja teaduse vabaduse õiguse teostamist, eelkõige kui sisu moodustab osa ilmselgelt loomingulisest, satiirilisest, kunstilisest, väljamõeldud või samalaadsest teosest või programmist, tingimusel et kolmandate isikute õiguste ja vabaduste kaitseks kohaldatakse asjakohaseid kaitsemeetmeid. Sellistel juhtudel piirdub käesolevas määruses sätestatud süvavõltsingute läbipaistvuskohustus sellise loodud või manipuleeritud sisu olemasolu avalikustamisega asjakohasel viisil, mis ei takista teose kuvamist või vaatamist, sealhulgas selle tavapärast tarbimist ja kasutamist, säilitades samal ajal teose kasutatavuse ja kvaliteedi. Lisaks on asjakohane näha ette sarnane avalikustamiskohustus ka tehisintellekti loodud või manipuleeritud teksti puhul, kui see on avaldatud eesmärgiga teavitada avalikkust avalikku huvi pakkuvatest küsimustest, välja arvatud juhul, kui tehisintellekti loodud sisu on läbinud inimkontrolli või toimetusliku kontrolli ning füüsiline või juriidiline isik kannab sisu avaldamise eest toimetuslikku vastutust.
(134)
Oprócz rozwiązań technicznych wykorzystywanych przez dostawców systemu AI, podmioty stosujące, które wykorzystują system AI do generowania obrazów, treści dźwiękowych lub wideo lub manipulowania nimi, tak by łudząco przypominały istniejące osoby, przedmioty. Miejsca, podmioty lub wydarzenia i które to treści mogą niesłusznie zostać uznane przez odbiorcę za autentyczne lub prawdziwe („deepfake”), powinny również jasno i wyraźnie ujawnić – poprzez odpowiednie oznakowanie wyniku AI i ujawnienie, że źródłem jest AI – że treści te zostały sztucznie wygenerowane lub zmanipulowane. Spełnienie obowiązku w zakresie przejrzystości nie powinno być interpretowane jako wskazujące na to, że wykorzystanie systemu AI lub jego wyników ogranicza prawo do wolności wypowiedzi i prawo do wolności sztuki i nauki zagwarantowane w Karcie, w szczególności w przypadku, gdy treści te stanowią część dzieła lub programu mającego wyraźnie charakter twórczy, satyryczny, artystyczny fikcyjny lub analogiczny, z zastrzeżeniem odpowiednich zabezpieczeń w zakresie praw i wolności osób trzecich. W takich przypadkach określony w niniejszym rozporządzeniu obowiązek w zakresie przejrzystości dotyczący treści typu deepfake ogranicza się do ujawniania informacji o istnieniu takich wygenerowanych lub zmanipulowanych treści w odpowiedni sposób, który nie utrudnia wyświetlania utworu lub korzystania z niego, w tym jego normalnego wykorzystania i użytkowania, przy jednoczesnym zachowaniu użyteczności i jakości utworu. Ponadto należy również przewidzieć podobny obowiązek ujawniania w odniesieniu do tekstu wygenerowanego przez AI lub zmanipulowanego przez AI w zakresie, w jakim jest on publikowany w celu informowania opinii publicznej o sprawach leżących w interesie publicznym, chyba że treści wygenerowane przez AI zostały poddane procesowi weryfikacji przez człowieka lub kontroli redakcyjnej, a osoba fizyczna lub prawna ponosi odpowiedzialność redakcyjną za publikację treści.
(135)
Ilma et see piiraks läbipaistvuskohustuste kohustuslikkust ja täielikku kohaldatavust, võib komisjon samuti julgustada ja hõlbustada tegevusjuhendite koostamist liidu tasandil, et hõlbustada kunstlikult loodud või manipuleeritud sisu avastamise ja märgistamisega seotud kohustuste tõhusat rakendamist, sealhulgas toetada praktilist korda, mille abil teha vajaduse korral avastamismehhanismid juurdepääsetavaks ja hõlbustada koostööd teiste väärtusahelas osalejatega, levitada sisu või kontrollida selle ehtsust ja päritolu, et võimaldada üldsusel tehisintellekti loodud sisu tõhusalt eristada.
(135)
Bez uszczerbku dla obowiązkowego charakteru i pełnego stosowania obowiązków w zakresie przejrzystości Komisja może również zachęcać do opracowywania kodeksów praktyk na poziomie Unii i ułatwiać ich opracowywanie, aby ułatwić skuteczne wykonywanie obowiązków dotyczących wykrywania i oznakowania treści, które zostały sztucznie wygenerowane lub zmanipulowane, w tym aby wspierać praktyczne rozwiązania dotyczące udostępniania, stosownie do przypadku, mechanizmów wykrywania i ułatwiania współpracy z innymi podmiotami w całym łańcuchu wartości, które rozpowszechniają treści lub sprawdzają ich autentyczność i pochodzenie, aby umożliwić ogółowi społeczeństwa skuteczne rozróżnianie treści wygenerowanych przez AI.
(136)
Määruse (EL) 2022/2065 tõhusa rakendamise hõlbustamiseks on eriti asjakohased kohustused, mis on käesoleva määrusega kehtestatud teatavate tehisintellektisüsteemide pakkujatele ja juurutajatele, et võimaldada avastada ja avalikustada seda, et nende süsteemide väljundid on kunstlikult loodud või manipuleeritud. See kehtib eelkõige seoses väga suurte digiplatvormide või väga suurte internetipõhiste otsingumootorite pakkujate kohustusega teha kindlaks ja maandada süsteemseid riske, mis võivad tuleneda kunstlikult loodud või manipuleeritud sisu levitamisest, eelkõige oht, et see avaldab tegelikku või prognoositavat negatiivset mõju demokraatlikele protsessidele, ühiskondlikule arutelule ja valimisprotsessidele, sealhulgas desinformatsiooni kaudu. Käesoleva määruse kohane nõue märgistada tehisintellektisüsteemide loodud sisu ei piira määruse (EL) 2022/2065 artikli 16 lõikes 6 sätestatud teabe talletamise teenuse pakkujate kohustust töödelda kõnealuse määruse artikli 16 lõike 1 kohaselt saadud teateid ebaseadusliku sisu kohta ning see ei tohiks mõjutada konkreetse sisu hindamist ja selle ebaseaduslikkust käsitlevat otsust. Hindamisel tuleks lähtuda üksnes sisu õiguspärasust reguleerivatest õigusnormidest.
(136)
Obowiązki nałożone w niniejszym rozporządzeniu na dostawców i podmioty stosujące niektóre systemy AI w celu umożliwienia wykrywania i ujawniania, że wyniki tych systemów są sztucznie wygenerowane lub zmanipulowane, są szczególnie istotne dla ułatwienia skutecznego wdrożenia rozporządzenia (UE) 2022/2065. Dotyczy to w szczególności obowiązków dostawców bardzo dużych platform internetowych lub bardzo dużych wyszukiwarek internetowych w zakresie identyfikowania i ograniczania ryzyka systemowego, które może wynikać z rozpowszechniania treści sztucznie wygenerowanych lub zmanipulowanych, w szczególności ryzyka faktycznych lub przewidywalnych negatywnych skutków dla procesów demokratycznych, dyskursu obywatelskiego i procesów wyborczych, w tym poprzez stosowanie dezinformacji. Wymóg oznakowania treści wygenerowanych przez systemy AI na podstawie niniejszego rozporządzenia pozostaje bez uszczerbku dla określonego w art. 16 ust. 6 rozporządzenia (UE) 2022/2065 obowiązku rozpatrywania przez dostawców usług hostingu zgłoszeń dotyczących nielegalnych treści otrzymanych na podstawie art. 16 ust. 1 tego rozporządzenia i nie powinien mieć wpływu na ocenę i decyzję w sprawie niezgodności z prawem konkretnych treści. Ocena ta powinna być dokonywana wyłącznie w odniesieniu do przepisów regulujących zgodność treści z prawem.
(137)
Käesoleva määrusega hõlmatud tehisintellektisüsteemide läbipaistvuskohustuste täitmist ei tohiks tõlgendada nii, et tehisintellektisüsteemi või selle väljundi kasutamine on seaduslik käesoleva määruse või liidu ja liikmesriikide muu õiguse alusel, ning see ei tohiks piirata tehisintellektisüsteemide juurutajate muid läbipaistvuskohustusi, mis on sätestatud liidu või riigisiseses õiguses.
(137)
Spełnienie obowiązków w zakresie przejrzystości w odniesieniu do systemów AI objętych niniejszym rozporządzeniem nie powinno być interpretowane jako wskazanie, że wykorzystanie systemu AI lub jego wyników jest zgodne z prawem na podstawie niniejszego rozporządzenia lub innych przepisów prawa Unii i prawa państw członkowskich, i powinno pozostawać bez uszczerbku dla innych obowiązków w zakresie przejrzystości ustanowionych w prawie Unii lub prawie krajowym wobec podmiotów stosujących systemy AI.
(138)
Tehisintellekt on kiirelt arenev tehnoloogiaharu, mis eeldab regulatiivset järelevalvet ning turvalist ja kontrollitud eksperimenteerimisruumi, aga ka seda, et tagatud oleks vastutustundlik innovatsioon ning asjakohaste kaitsemeetmete ja riskimaandamismeetmete integreerimine. Et tagada õigusraamistik, mis edendab innovatsiooni, on tulevikukindel ja häirete suhtes vastupanuvõimeline, peaksid liikmesriigid tagama, et nende pädevad asutused loovad riiklikul tasandil vähemalt ühe tehisintellekti regulatiivliivakasti, mis hõlbustaks innovatiivsete tehisintellektisüsteemide arendamist ja testimist range regulatiivse järelevalve all, enne kui need süsteemid turule lastakse või muul moel kasutusele võetakse. Liikmesriigid võiksid seda kohustust täita, osaledes juba olemasolevates regulatiivliivakastides või luues regulatiivliivakasti koos ühe või mitme liikmesriigi pädeva asutusega, kui selline osalemine tagab osalevatele liikmesriikidele samaväärse riikliku katvuse. Tehisintellekti regulatiivliivakaste võiks luua füüsilisel, digitaalsel või hübriidkujul ning need võivad hõlmata nii füüsilisi kui ka digitaalseid tooteid. Samuti peaksid tehisintellekti regulatiivliivakastide loomise eest vastutavad asutused tagama, et regulatiivliivakastidel on nende toimimiseks piisavad vahendid, sealhulgas rahalised ja inimressursid.
(138)
AI jest szybko rozwijającą się grupą technologii, wymagającą nadzoru regulacyjnego oraz bezpiecznej i kontrolowanej przestrzeni do przeprowadzania doświadczeń, przy jednoczesnym zapewnieniu odpowiedzialnej innowacji oraz uwzględnieniu odpowiednich zabezpieczeń i środków ograniczających ryzyko. Aby zapewnić ramy prawne wspierające innowacje, nieulegające dezaktualizacji i uwzględniające przełomowe technologie, państwa członkowskie powinny zapewnić, by ich właściwe organy krajowe ustanowiły co najmniej jedną piaskownicę regulacyjną w zakresie AI na poziomie krajowym, aby ułatwić rozwijanie i testowanie innowacyjnych systemów AI pod ścisłym nadzorem regulacyjnym przed ich wprowadzeniem do obrotu lub oddaniem do użytku w inny sposób. Państwa członkowskie mogłyby również spełnić ten obowiązek, uczestnicząc w już istniejących piaskownicach regulacyjnych lub ustanawiając piaskownicę wspólnie z co najmniej jednym właściwym organem innego państwa członkowskiego, o ile udział ten zapewnia uczestniczącym państwom członkowskim równoważny poziom zasięgu krajowego. Piaskownice regulacyjne w zakresie AI mogą być tworzone w formie fizycznej, cyfrowej lub hybrydowej i mogą obejmować zarówno produkty fizyczne, jak i cyfrowe. Organy ustanawiające piaskownice regulacyjne w zakresie AI powinny również zapewnić, aby dysponowały one odpowiednimi do ich funkcjonowania zasobami, w tym zasobami finansowymi i ludzkimi.
(139)
Tehisintellekti regulatiivliivakastide eesmärk peaks olema edendada tehisintellekti innovatsiooni, luues arendus- ja turustamiseelses etapis kontrollitud eksperimenteerimis- ja testimiskeskkonna, et tagada innovatiivsete tehisintellektisüsteemide vastavus käesolevale määrusele ning muule asjakohasele liidu ja liikmesriigi õigusele. Lisaks peaks tehisintellekti regulatiivliivakastide eesmärk olema suurendada innovaatorite õiguskindlust ning pädevate asutuste järelevalvet ja arusaamist tehisintellekti kasutamise võimalustest, tekkivatest riskidest ja mõjust, hõlbustada asutuste ja ettevõtjate regulatiivset õppimist, sealhulgas pidades silmas õigusraamistiku tulevast kohandamist, toetada koostööd ja parimate tavade jagamist tehisintellekti regulatiivliivakasti kaasatud asutustega ning kiirendada juurdepääsu turgudele, sealhulgas kõrvaldades tõkked VKEde, sealhulgas idufirmade jaoks. Tehisintellekti regulatiivliivakastid peaksid olema laialdaselt kättesaadavad kogu liidus ning erilist tähelepanu tuleks pöörata nende kättesaadavusele VKEde, sealhulgas idufirmade jaoks. Tehisintellekti regulatiivliivakastis osalemisel tuleks keskenduda küsimustele, mis tekitavad pakkujatele ja võimalikele pakkujatele õiguskindlusetust seoses innovatsiooni, liidus tehisintellektiga eksperimenteerimise ja tõenduspõhisele regulatiivsele õppimisele kaasaaitamisega. Tehisintellektisüsteemide järelevalve tehisintellekti regulatiivliivakastis peaks seega hõlmama süsteemide arendamist, treenimist, testimist ja valideerimist enne nende turule laskmist või kasutusele võtmist, samuti sellise olulise muudatuse määratlust ja tegemist, mis võib nõuda uut vastavushindamismenetlust. Kui selliste tehisintellektisüsteemide arendamise ja testimise käigus tuvastatakse oluline risk, tuleb selle põhjal võtta piisavaid maandamismeetmeid ja kui see ei ole võimalik, tuleb arendamine ja testimine peatada. Kui see on asjakohane, peaksid tehisintellekti regulatiivliivakaste loovad riikide pädevad asutused tegema koostööd teiste asjaomaste asutustega, sealhulgas nendega, kes teevad järelevalvet põhiõiguste kaitse üle, ning võiksid lubada kaasata muid tehisintellekti ökosüsteemis osalejaid, nagu riiklikud või Euroopa standardiorganisatsioonid, teada antud asutused, testimis- ja eksperimenteerimisrajatised, teadus- ja eksperimenteerimislaborid, Euroopa digitaalse innovatsiooni keskused ning asjaomased sidusrühmad ja kodanikuühiskonna organisatsioonid. Selleks, et tagada ühetaoline rakendamine kogu liidus ja mastaabisääst, on asjakohane kehtestada tehisintellekti regulatiivliivakastide rakendamise ühised õigusnormid ja regulatiivliivakastide järelevalvega tegelevate asjaomaste ametiasutusete vahelise koostöö raamistik. Käesoleva määruse alusel loodud tehisintellekti regulatiivliivakastid ei tohiks piirata sellise muu õiguse kohaldamist, mis võimaldab luua muid regulatiivliivakaste, mille eesmärk on tagada kooskõla muu õigusega kui käesolev määrus. Kui see on asjakohane, peaksid nende muude regulatiivliivakastide eest vastutavad asjaomased pädevad asutused kaaluma, millised eelised on sellel, kui neid regulatiivliivakaste kasutatakse ka eesmärgiga tagada tehisintellektisüsteemide vastavus käesolevale määrusele. Riikide pädevate asutuste ja tehisintellekti regulatiivliivakastides osalejate vahelisel kokkuleppel võib tehisintellekti regulatiivliivakastide raames korraldada ja kontrollida ka testimist tegelikes tingimustes.
(139)
Piaskownice regulacyjne w zakresie AI powinny mieć na celu: wspieranie innowacji w zakresie AI poprzez ustanowienie kontrolowanego środowiska doświadczalnego i testowego w fazie rozwojowej i przed wprowadzeniem do obrotu, z myślą o zapewnieniu zgodności innowacyjnych systemów AI z niniejszym rozporządzeniem oraz z innymi odpowiednimi przepisami prawa Unii i prawa krajowego. Ponadto piaskownice regulacyjne w zakresie AI powinny mieć na celu zwiększenie pewności prawa dla innowatorów, a także usprawnienie nadzoru ze strony właściwych organów oraz podnoszenie poziomu ich wiedzy na temat możliwości, pojawiających się rodzajów ryzyka oraz skutków związanych ze stosowaniem AI, ułatwienie organom i przedsiębiorstwom uczenia się działań regulacyjnych, w tym z myślą o przyszłym dostosowaniu ram prawnych, wspieranie współpracy i wymiany najlepszych praktyk z organami zaangażowanymi w piaskownicę regulacyjną w zakresie AI oraz przyspieszenie dostępu do rynków, w tym poprzez usuwanie barier dla MŚP, w tym przedsiębiorstw typu start-up. Piaskownice regulacyjne w zakresie AI powinny być powszechnie dostępne w całej Unii, a szczególną uwagę należy zwrócić na ich dostępność dla MŚP, w tym dla przedsiębiorstw typu start-up. Uczestnictwo w piaskownicy regulacyjnej w zakresie AI powinno koncentrować się na kwestiach, które powodują niepewność prawa dla dostawców i potencjalnych dostawców w zakresie innowacji i eksperymentowania z AI w Unii oraz powinno przyczyniać się do opartego na dowodach uczenia się działań regulacyjnych. Nadzór nad systemami AI w piaskownicy regulacyjnej w zakresie AI powinien zatem obejmować ich rozwój, trenowanie, testowanie i walidację przed wprowadzeniem tych systemów do obrotu lub oddaniem do użytku, a także pojęcie i występowanie istotnych zmian, które mogą wymagać nowej procedury oceny zgodności. Wykrycie jakiegokolwiek znaczącego ryzyka na etapie rozwoju i testowania takich systemów AI powinno powodować konieczność właściwego ograniczenia tego ryzyka, a w przypadku niepowodzenia w tym zakresie – skutkować zawieszeniem procesu rozwoju i testowania systemu. W stosownych przypadkach właściwe organy krajowe ustanawiające piaskownice regulacyjne w zakresie AI powinny współpracować z innymi odpowiednimi organami, w tym organami nadzorującymi ochronę praw podstawowych, i powinny umożliwiać zaangażowanie innych podmiotów funkcjonujących w ekosystemie AI, takich jak krajowe lub europejskie organizacje normalizacyjne, jednostki notyfikowane, ośrodki testowo-doświadczalne, laboratoria badawczo-doświadczalne, europejskie centra innowacji cyfrowych oraz organizacje zrzeszające odpowiednie zainteresowane strony i społeczeństwo obywatelskie. Aby zapewnić jednolite wdrożenie w całej Unii oraz osiągnąć korzyści skali, należy ustanowić wspólne przepisy regulujące uruchamianie piaskownic regulacyjnych w zakresie AI oraz ramy współpracy między odpowiednimi organami uczestniczącymi w nadzorze nad piaskownicami regulacyjnymi. Piaskownice regulacyjne w zakresie AI ustanowione na mocy niniejszego rozporządzenia powinny pozostawać bez uszczerbku dla innych przepisów, które umożliwiają ustanawianie innych piaskownic mających na celu zapewnienie zgodności z przepisami prawa innymi niż niniejsze rozporządzenie. W stosownych przypadkach odpowiednie właściwe organy odpowiedzialne za inne piaskownice regulacyjne powinny przeanalizować korzyści płynące ze stosowania tych piaskownic również do celów zapewnienia zgodności systemów AI z niniejszym rozporządzeniem. Po osiągnięciu porozumienia pomiędzy właściwymi organami krajowymi oraz uczestnikami piaskownicy regulacyjnej w zakresie AI w ramach takiej piaskownicy regulacyjnej można również prowadzić i nadzorować testy w warunkach rzeczywistych.
(140)
Käesoleva määrusega tuleks tehisintellekti regulatiivliivakastis tegutsevatele pakkujatele ja võimalikele pakkujatele ette näha õiguslik alus muul otstarbel kogutud isikuandmete kasutamiseks, et arendada tehisintellekti regulatiivliivakastis avalikes huvides teatavaid tehisintellektisüsteeme, ainult konkreetsetel tingimustel kooskõlas määruse (EL) 2016/679 artikli 6 lõikega 4 ja artikli 9 lõike 2 punktiga g ning määruse (EL) 2018/1725 artiklitega 5, 6 ja 10 ning ilma, et see piiraks direktiivi (EL) 2016/680 artikli 4 lõike 2 ja artikli 10 kohaldamist. Kõik muud vastutavate töötlejate kohustused ja andmesubjektide õigused, mis tulenevad määrustest (EL) 2016/679 ja (EL) 2018/1725 ning direktiivist (EL) 2016/680, jäävad kehtima. Eelkõige ei tohiks käesolev määrus olla õiguslik alus määruse (EL) 2016/679 artikli 22 lõike 2 punkti b ja määruse (EL) 2018/1725 artikli 24 lõike 2 punkti b tähenduses. Tehisintellekti regulatiivliivakastis tegutsevad pakkujad ja võimalikud pakkujad peaksid tagama asjakohased kaitsemeetmed ja tegema koostööd pädevate asutustega, järgides muu hulgas nende juhendeid ning tegutsedes viivitusteta ja heas usus, et vajalikul määral maandada turvalisust, tervist ja põhiõigusi ähvardavaid tuvastatud olulisi riske, mis võivad selles regulatiivliivakastis arendustegevuse, testimise ja eksperimenteerimise käigus tekkida.
(140)
Niniejsze rozporządzenie powinno zapewniać dostawcom i potencjalnym dostawcom uczestniczącym w piaskownicy regulacyjnej w zakresie AI podstawę prawną do wykorzystywania danych osobowych zebranych w innych celach do rozwoju – w ramach piaskownicy regulacyjnej w zakresie AI – określonych systemów AI w interesie publicznym, tylko pod określonymi warunkami, zgodnie z art. 6 ust. 4 i art. 9 ust. 2 lit. g) rozporządzenia (UE) 2016/679 i art. 5, 6 i 10 rozporządzenia (UE) 2018/1725 i nie naruszając przepisów art. 4 ust. 2 i art. 10 dyrektywy (UE) 2016/680. Nadal mają zastosowanie wszystkie pozostałe obowiązki administratorów danych i prawa osób, których dane dotyczą, wynikające z rozporządzeń (UE) 2016/679 i (UE) 2018/1725 oraz dyrektywy (UE) 2016/680. W szczególności niniejsze rozporządzenie nie powinno stanowić podstawy prawnej w rozumieniu art. 22 ust. 2 lit. b) rozporządzenia (UE) 2016/679 i art. 24 ust. 2 lit. b) rozporządzenia (UE) 2018/1725. Dostawcy i potencjalni dostawcy w piaskownicy regulacyjnej w zakresie AI powinni zapewnić odpowiednie zabezpieczenia i współpracować z właściwymi organami, w tym przestrzegać wytycznych tych organów, a także podejmować w dobrej wierze bezzwłoczne działania w celu właściwego ograniczenia wszelkiego zidentyfikowanego znaczącego ryzyka dla bezpieczeństwa, zdrowia i praw podstawowych, jakie może powstać w trakcie rozwoju produktów oraz prowadzenia działań testowych i doświadczalnych w ramach takiej piaskownicy regulacyjnej.
(141)
Selleks et kiirendada käesoleva määruse lisas loetletud suure riskiga tehisintellektisüsteemide arendamist ja turule laskmist, on oluline, et selliste süsteemide pakkujad või võimalikud pakkujad saaksid kasutada ka erikorda nende süsteemide testimiseks tegelikes tingimustes, ilma et nad osaleksid tehisintellekti regulatiivliivakastis. Sellistel juhtudel, võttes arvesse sellise testimise võimalikke tagajärgi üksikisikutele, tuleks siiski tagada, et käesoleva määrusega kehtestatakse pakkujatele ja võimalikele pakkujatele asjakohased ja piisavad tagatised ja tingimused. Sellised tagatised peaksid muu hulgas hõlmama füüsilistelt isikutelt teadva nõusoleku taotlemist tegelikes tingimustes testimises osalemiseks, välja arvatud õiguskaitse puhul, kus teadva nõusoleku taotlemine takistaks tehisintellektisüsteemi testimist. Subjektide nõusolek sellises käesoleva määruse alusel toimuvas testimises osalemiseks erineb andmesubjektide nõusolekust oma isikuandmete töötlemiseks asjakohase andmekaitseõiguse alusel ega piira kõnealuse õiguse kohaldamist. Samuti on oluline minimeerida riske ja võimaldada pädevatel asutustel teostada järelevalvet ning nõuda seetõttu, et võimalikud pakkujad esitaksid pädevale turujärelevalveasutusele tegelikes tingimustes testimise kava, registreeriksid testimise ELi andmebaasi vastavates osades, välja arvatud mõned piiratud erandid, kehtestada piirangud ajavahemikule, mille jooksul testimine saab toimuda, ning nõuda täiendavaid kaitsemeetmeid kaitsetusse rühma kuuluvatele isikutele, ning kirjalikku kokkulepet, milles määratakse kindlaks võimalike pakkujate ja juurutajate ülesanded ja kohustused ning tegelikes tingimustes testimises osalevate pädevate töötajate tõhus järelevalve. Lisaks on asjakohane näha ette täiendavad kaitsemeetmed tagamaks, et tehisintellektisüsteemi prognoose, soovitusi ja otsuseid saab tulemuslikult tagasi võtta ja jätta need tähelepanuta ning et isikuandmed on kaitstud ja kustutatakse, kui uuringus osalejad on oma nõusoleku testimises osalemiseks tagasi võtnud, ilma et see piiraks nende kui andmesubjektide õigusi, mis tulenevad liidu andmekaitseõigusest. Seoses andmete edastamisega on samuti asjakohane näha ette, et tegelikes tingimustes testimiseks kogutud ja töödeldud andmeid tuleks kolmandatele riikidele edastada üksnes siis, kui rakendatakse liidu õiguse kohaseid asjakohaseid ja kohaldatavaid kaitsemeetmeid, eelkõige kooskõlas liidu andmekaitseõiguse kohaste isikuandmete edastamise alustega, samas kui isikustamata andmete puhul kehtestatakse asjakohased kaitsemeetmed kooskõlas liidu õigusega, näiteks Euroopa Parlamendi ja nõukogu määrustega (EL) 2022/868 (42) ja (EL) 2023/2854 (43).
(141)
Aby przyspieszyć proces rozwoju i wprowadzania do obrotu systemów AI wysokiego ryzyka wymienionych w załączniku do niniejszego rozporządzenia, ważne jest, aby dostawcy lub potencjalni dostawcy takich systemów mogli korzystać ze specjalnego mechanizmu testowania tych systemów w warunkach rzeczywistych, bez udziału w piaskownicy regulacyjnej w zakresie AI. Jednak w takich przypadkach oraz uwzględniając potencjalne konsekwencje takiego testowania dla osób fizycznych, należy zapewnić, by niniejsze rozporządzenie wprowadzało odpowiednie i wystarczające zabezpieczenia i warunki dotyczące dostawców lub potencjalnych dostawców. Takie zabezpieczenia powinny obejmować między innymi wymóg udzielenia świadomej zgody przez osoby fizyczne, które mają brać udział w testach w warunkach rzeczywistych, z wyjątkiem organów ścigania, gdy konieczność wystąpienia o świadomą zgodę uniemożliwiłaby testowanie systemu AI. Zgoda podmiotów testów na udział w takich testach na podstawie niniejszego rozporządzenia ma odrębny charakter i pozostaje bez uszczerbku dla zgody osób, których dane dotyczą, na przetwarzanie ich danych osobowych na podstawie odpowiedniego prawa o ochronie danych. Ważne jest również, aby zminimalizować ryzyko i umożliwić nadzór ze strony właściwych organów, a zatem zobowiązać potencjalnych dostawców do: przedstawienia właściwemu organowi nadzoru rynku planu testów w warunkach rzeczywistych, rejestrowania testów w specjalnych sekcjach bazy danych UE (z pewnymi ograniczonymi wyjątkami), ustalenia ograniczeń co do okresu, w jakim można przeprowadzać testy, oraz wymagania dodatkowych zabezpieczeń w odniesieniu do osób należących do grup szczególnie wrażliwych, a także pisemnej umowy określającej role i obowiązki potencjalnych dostawców i podmiotów stosujących oraz skutecznego nadzoru ze strony kompetentnego personelu zaangażowanego w testy w warunkach rzeczywistych. Ponadto należy przewidzieć dodatkowe zabezpieczenia w celu zapewnienia, aby predykcje, zalecenia lub decyzje systemu AI mogły zostać skutecznie odwrócone i nie były brane pod uwagę oraz aby dane osobowe były chronione i usuwane, gdy uczestnicy wycofają swoją zgodę na udział w testach, bez uszczerbku dla ich praw jako osób, których dane dotyczą, wynikających z prawa Unii o ochronie danych. W odniesieniu do przekazywania danych należy także przewidzieć, by dane zebrane i przetwarzane do celów testów w warunkach rzeczywistych przekazywano do państw trzecich wyłącznie pod warunkiem wdrożenia odpowiednich zabezpieczeń mających zastosowanie na podstawie prawa Unii, w szczególności zgodnie z podstawami przekazywania danych osobowych na mocy prawa Unii dotyczącego ochrony danych osobowych, a w odniesieniu do danych nieosobowych wprowadzono odpowiednie zabezpieczenia zgodnie z prawem Unii, takim jak rozporządzenia Parlamentu Europejskiego i Rady (UE) 2022/868 (42) i (UE) 2023/2854 (43).
(142)
Tagamaks, et tehisintellekt toob ühiskonna ja keskkonna jaoks kaasa soodsad tulemused, julgustatakse liikmesriike toetama ja edendama tehisintellektilahenduste teadus- ja arendustegevust, et toetada ühiskonna ja keskkonna jaoks soodsate tulemuste saavutamist, näiteks tehisintellektipõhiseid lahendusi, et suurendada puuetega inimeste juurdepääsu, vähendada sotsiaal-majanduslikku ebavõrdsust või täita keskkonnaalaseid eesmärke, eraldades piisavalt vahendeid, sealhulgas avaliku sektori ja liidu rahalisi vahendeid, ning kui see on asjakohane ja tingimusel, et rahastamiskõlblikkuse ja valikukriteeriumid on täidetud, võttes eelkõige arvesse selliseid eesmärke taotlevaid projekte. Sellised projektid peaksid põhinema valdkondadevahelise koostöö põhimõttel tehisintellekti arendajate, ebavõrdsuse ja mittediskrimineerimise, juurdepääsetavuse, tarbija-, keskkonna- ja digitaalõiguste valdkonna ekspertide ning akadeemilise ringkonna vahel.
(142)
W celu zapewnienia, aby AI przynosiła korzyści dla społeczeństwa i środowiska, zachęca się państwa członkowskie do wspierania i promowania badań i rozwoju w dziedzinie rozwiązań w zakresie AI wspierających takie korzyści społeczne i środowiskowe, np. opartych na AI rozwiązań, które zwiększają dostępność dla osób z niepełnosprawnościami, przeciwdziałają nierównościom społeczno-gospodarczym lub służą osiągnięciu celów środowiskowych, przez przydzielanie wystarczających zasobów, w tym finansowania publicznego i unijnego, oraz, w stosownych przypadkach i pod warunkiem spełnienia kryteriów kwalifikowalności i wyboru, przez priorytetowe traktowanie projektów, które służą realizacji takich celów. Projekty takie powinny opierać się na zasadzie współpracy międzydyscyplinarnej między twórcami AI, ekspertami ds. nierówności i niedyskryminacji, dostępności, praw konsumentów, praw środowiskowych i cyfrowych oraz przedstawicielami środowiska akademickiego.
(143)
Innovatsiooni edendamiseks ja kaitsmiseks on oluline pöörata erilist tähelepanu VKEde, sealhulgas idufirmade, mis on tehisintellektisüsteemide pakkujad või juurutajad, huvidele. Liikmesriigid peaksid seda silmas pidades välja töötama nimetatud operaatoritele suunatud algatusi, muu hulgas teadlikkuse suurendamise ja teabe edastamise teemal. Liikmesriigid peaksid andma VKEdele, sealhulgas idufirmadele, kelle registrijärgne asukoht või filiaal on liidus, eelisjuurdepääsu tehisintellekti regulatiivliivakastidele, tingimusel et nad vastavad kõlblikkustingimustele ja valikukriteeriumidele, ilma et see välistaks teiste pakkujate ja võimalike pakkujate juurdepääsu regulatiivliivakastidele eeldusel, et nad on täitnud samad tingimused ja kriteeriumid. Liikmesriigid peaksid kasutama olemasolevaid kanaleid, ja kui see on asjakohane, siis looma uusi spetsiaalseid kanaleid suhtlemiseks VKEde, sealhulgas idufirmade, juurutajate, muude innovaatorite ja vajaduse korral kohalike ametiasutustega, et toetada VKEsid kogu nende arendustegevuse jooksul, et anda juhiseid ja vastata päringutele käesoleva määruse rakendamise kohta. Kui see on asjakohane, peaksid need kanalid tegema koostööd, et luua sünergiat ja tagada ühtsus VKEdele, sealhulgas idufirmadele, ja juurutajatele antavates suunistes. Lisaks peaksid liikmesriigid lihtsustama VKEde ja muude asjaomaste sidusrühmade osalemist standardimise arendamise protsessis. Ühtlasi tuleks pakkujatest VKEde, sealhulgas idufirmade, konkreetsete huvide ja vajadustega arvestada siis, kui teada antud asutused määravad kindlaks vastavushindamise tasud. Komisjon peaks korrapäraselt hindama VKEde, sealhulgas idufirmade sertifitseerimis- ja nõuete täitmisega seotud kulusid, kasutades selleks läbipaistvaid konsultatsioone, ning peaks tegema liikmesriikidega koostööd selliste kulude vähendamiseks. Näiteks kohustusliku dokumentatsiooni ja ametiasutustega suhtlemisega seotud tõlkekulud võivad osutuda pakkujate ja muude operaatorite jaoks märkimisväärseks, eriti juhul, kui tegemist on väiksemate ettevõtjatega. Liikmesriigid peaksid võimaluse korral tagama, et üks nende poolt asjaomaste pakkujate dokumentatsiooni ja operaatoritega suhtlemise jaoks kindlaks määratud ja neile vastuvõetavatest keeltest on keel, mis on üldjoontes arusaadav võimalikult suurele arvule piiriülestele juurutajatele. VKEde, sealhulgas idufirmade erivajadustega arvestamiseks peaks komisjon esitama nõukoja taotlusel standardvormid käesoleva määrusega hõlmatud valdkondade jaoks. Lisaks peaks komisjon täiendama liikmesriikide jõupingutusi, luues kõigile pakkujatele ja juurutajatele ühtse teabeplatvormi, mis sisaldab käesoleva määrusega seotud hõlpsasti kasutatavat teavet, korraldades asjakohaseid teavituskampaaniaid, et suurendada teadlikkust käesolevast määrusest tulenevatest kohustustest, ning hinnates ja edendades tehisintellektisüsteemidega seotud riigihankemenetluste parimate tavade lähendamist. Keskmise suurusega ettevõtjatel, kes kvalifitseerusid hiljuti väikeettevõtjateks komisjoni soovituse 2003/361/EÜ (44) lisa tähenduses, peaks olema kõnealustele toetusmeetmetele juurdepääs, kuna neil uutel keskmise suurusega ettevõtjatel võivad mõnikord puududa vajalikud õiguslikud vahendid ja koolitus, et tagada käesoleva määruse nõuetekohane mõistmine ja järgimine.
(143)
W celu promowania i ochrony innowacji ważne jest szczególne uwzględnienie interesów MŚP, w tym przedsiębiorstw typu start-up, które są dostawcami systemów AI lub podmiotami stosującymi systemy AI. W tym celu państwa członkowskie powinny opracować inicjatywy skierowane do tych operatorów, w tym inicjatywy służące podnoszeniu świadomości i przekazywaniu informacji. Państwa członkowskie powinny zapewniać MŚP, w tym przedsiębiorstwom typu start-up, mającym siedzibę statutową lub oddział w Unii, priorytetowy dostęp do piaskownic regulacyjnych w zakresie AI, pod warunkiem że przedsiębiorstwa te spełniają warunki kwalifikowalności i kryteria wyboru – w sposób, który nie uniemożliwia innym dostawcom i potencjalnym dostawcom dostępu do piaskownic, pod warunkiem spełnienia przez nich tych samych warunków i kryteriów. Państwa członkowskie powinny korzystać z istniejących kanałów komunikacji, a w stosownych przypadkach utworzyć nowy specjalny kanał komunikacji z MŚP, w tym przedsiębiorstwami typu start-up, podmiotami stosującymi, innymi innowacyjnymi podmiotami, a w stosownych przypadkach, z lokalnymi organami publicznymi, aby wspierać MŚP w rozwoju poprzez udzielanie im wskazówek i odpowiadanie na ich pytania dotyczące wykonywania niniejszego rozporządzenia. W stosownych przypadkach kanały powinny ze sobą współpracować, by uzyskać synergię i zapewnić spójność wskazówek dla MŚP, w tym przedsiębiorstw typu start-up, i podmiotów stosujących. Dodatkowo państwa członkowskie powinny ułatwiać udział MŚP i innych odpowiednich zainteresowanych stron w procesie opracowywania norm. Ponadto przy ustalaniu przez jednostki notyfikowane wysokości opłat z tytułu oceny zgodności należy uwzględnić szczególne interesy i potrzeby dostawców, którzy są MŚP, w tym przedsiębiorstwami typu start-up. Komisja powinna regularnie oceniać koszty certyfikacji i zapewnienia zgodności ponoszone przez MŚP, w tym przedsiębiorstwa typu start-up, w drodze przejrzystych konsultacji oraz współpracować z państwami członkowskimi na rzecz obniżenia tych kosztów. Przykładowo koszty tłumaczeń związane z prowadzeniem obowiązkowej dokumentacji i komunikacji z organami mogą stanowić istotny koszt dla dostawców i innych operatorów, w szczególności tych działających na mniejszą skalę. Państwa członkowskie powinny w miarę możliwości zapewnić, aby jednym z języków wskazanych i akceptowanych przez nie do celów dokumentacji prowadzonej przez odpowiednich dostawców oraz komunikacji z operatorami był język powszechnie rozumiany przez możliwie największą liczbę podmiotów stosujących w wymiarze transgranicznym. Aby zaspokoić szczególne potrzeby MŚP, w tym przedsiębiorstw typu start-up, Komisja powinna na wniosek Rady ds. AI zapewnić ujednolicone wzory w obszarach objętych niniejszym rozporządzeniem. Ponadto Komisja powinna w uzupełnieniu wysiłków państw członkowskich dostarczyć jednolitą platformę informacyjną zawierającą łatwe w użyciu informacje dotyczące niniejszego rozporządzenia dla wszystkich dostawców i podmiotów stosujących, organizować odpowiednie kampanie informacyjne w celu podnoszenia świadomości na temat obowiązków wynikających z niniejszego rozporządzenia oraz oceniać i promować zbieżność najlepszych praktyk w procedurach udzielania zamówień publicznych w odniesieniu do systemów AI. Średnie przedsiębiorstwa, które do niedawna kwalifikowały się jako małe przedsiębiorstwa w rozumieniu załącznika do zalecenia Komisji 2003/361/WE (44), powinny mieć dostęp do tych środków wsparcia, ponieważ w niektórych przypadkach te nowe średnie przedsiębiorstwa mogą nie posiadać zasobów prawnych i szkoleniowych niezbędnych do zapewnienia właściwego zrozumienia i zapewnienia zgodności z niniejszym rozporządzeniem.
(144)
Innovatsiooni edendamiseks ja kaitsmiseks peaksid tehisintellekti nõudeteenuste platvorm, kõik asjakohased liidu rahastamisprogrammid ja -projektid, nagu programm „Digitaalne Euroopa“ ja programm „Euroopa horisont“, mida rakendavad komisjon ja liikmesriigid vastavalt kas liidu või riiklikul tasandil, aitama kaasa käesoleva määruse eesmärkide saavutamisele.
(144)
W celu promowania i ochrony innowacji do realizacji celów niniejszego rozporządzenia powinny przyczyniać się, w stosownych przypadkach, platforma „Sztuczna inteligencja na żądanie”, wszystkie odpowiednie finansowane przez Unię programy i projekty, takie jak program „Cyfrowa Europa”, „Horyzont Europa”, wdrażane przez Komisję i państwa członkowskie na poziomie Unii lub poziomie krajowym.
(145)
Et minimeerida rakendamisega seotud riske, mis tulenevad teadmiste ja oskusteabe puudumisest turul, ja muuta käesolevast määrusest tulenevate kohustuste täitmine pakkujate, eelkõige VKEde, sealhulgas idufirmade, ja teada antud asutuste jaoks hõlpsamaks, peaksid tehisintellekti nõudeteenuste platvorm, Euroopa digitaalse innovatsiooni keskused ning komisjoni ja liikmesriikide poolt liidu või riigi tasandil loodud testimis- ja eksperimenteerimisrajatised võimaluse korral aitama kaasa käesoleva määruse rakendamisele. Oma ülesannete ja pädevusvaldkondade piires on tehisintellekti nõudeteenuste platvorm, Euroopa digitaalse innovatsiooni keskused ning testimis- ja eksperimenteerimisrajatised võimelised andma pakkujatele ja teada antud asutustele eelkõige tehnilist ja teaduslikku tuge.
(145)
Aby zminimalizować zagrożenia dla wdrożenia wynikające z braku wiedzy o rynku i jego znajomości, a także aby ułatwić dostawcom, w szczególności MŚP, w tym przedsiębiorstwom typu start-up, i jednostkom notyfikowanym spełnianie obowiązków ustanowionych w niniejszym rozporządzeniu, platforma „Sztuczna inteligencja na żądanie”, europejskie centra innowacji cyfrowych oraz ośrodki testowo-doświadczalne ustanowione przez Komisję i państwa członkowskie na poziomie Unii lub poziomie krajowym powinny przyczyniać się do wykonywania niniejszego rozporządzenia. W ramach swoich zadań i obszarów kompetencji platforma „Sztuczna inteligencja na żądanie”, europejskie centra innowacji cyfrowych oraz ośrodki testowo-doświadczalne są w stanie zapewnić w szczególności wsparcie techniczne i naukowe dostawcom i jednostkom notyfikowanym.
(146)
Võttes arvesse mõne operaatori väga väikest suurust ja et tagada proportsionaalsus seoses innovatsioonikuludega, on asjakohane võimaldada mikroettevõtjatel täita ühte kõige kulukamat kohustust, näiteks kohustust kehtestada kvaliteedijuhtimise süsteem, lihtsustatud viisil, kuna see vähendaks nende ettevõtjate halduskoormust ja kulusid, ilma et see mõjutaks kaitse taset ja vajadust täita suure riskiga tehisintellektisüsteemidele kehtestatud nõudeid. Komisjon peaks välja töötama suunised, et täpsustada neid kvaliteedijuhtimise süsteemi elemente, mida mikroettevõtjad saavad lihtsustatud viisil täita.
(146)
Ponadto, biorąc pod uwagę bardzo mały rozmiar niektórych operatorów i aby zapewnić proporcjonalność w odniesieniu do kosztów innowacji, należy zezwolić mikroprzedsiębiorstwom na spełnienie jednego z najbardziej kosztownych obowiązków, a mianowicie ustanowienia systemu zarządzania jakością, w sposób uproszczony, co zmniejszy obciążenie administracyjne i koszty ponoszone przez te przedsiębiorstwa bez wpływu na poziom ochrony oraz konieczność zapewnienia zgodności z wymogami dotyczącymi systemów AI wysokiego ryzyka. Komisja powinna opracować wytyczne w celu określenia, które z elementów systemu zarządzania jakością mają być realizowane w ten uproszczony sposób przez mikroprzedsiębiorstwa.
(147)
On asjakohane, et komisjon hõlbustab võimaluste piires asjaomaste liidu ühtlustamisõigusaktide kohaselt loodud või akrediteeritud ning nende liidu ühtlustamisõigusaktide kohaldamisalasse kuuluvate toodete või seadmete vastavushindamise raames ülesandeid täitvate organite, rühmade või laborite juurdepääsu testimis- ja eksperimenteerimisrajatistele. Eeskätt kehtib see meditsiiniseadmete valdkonna eksperdirühmade, eksperdilaborite ja referentlaborite kohta vastavalt määrustele (EL) 2017/745 ja (EL) 2017/746.
(147)
Komisja powinna w miarę możliwości ułatwiać dostęp do ośrodków testowo-doświadczalnych podmiotom, grupom lub laboratoriom ustanowionym lub akredytowanym na podstawie odpowiedniego unijnego prawodawstwa harmonizacyjnego, wykonującym zadania w kontekście oceny zgodności produktów lub wyrobów objętych tym unijnym prawodawstwem harmonizacyjnym. Dotyczy to w szczególności paneli ekspertów, laboratoriów eksperckich oraz laboratoriów referencyjnych w dziedzinie wyrobów medycznych w rozumieniu rozporządzeń (UE) 2017/745 i (UE) 2017/746.
(148)
Käesoleva määrusega tuleks kehtestada juhtimisraamistik, mis võimaldab koordineerida ja toetada käesoleva määruse kohaldamist riiklikul tasandil ning suurendada suutlikkust liidu tasandil ja lõimida tehisintellekti valdkonna sidusrühmi. Käesoleva määruse tõhusaks rakendamiseks ja jõustamiseks on vaja juhtimisraamistikku, mis võimaldab liidu tasandil keskset oskusteavet koordineerida ja koguda. Tehisintellektiamet loodi komisjoni otsusega (45) ja selle ülesanne on arendada liidus oskusteavet ja suutlikkust tehisintellekti valdkonnas ning aidata kaasa tehisintellekti käsitleva liidu õiguse rakendamisele. Liikmesriigid peaksid hõlbustama tehisintellektiameti ülesannete täitmist, et toetada liidu oskusteabe ja liidu tasandil suutlikkuse arendamist ning tugevdada digitaalse ühtse turu toimimist. Lisaks tuleks luua liikmesriikide esindajatest koosnev nõukoda, teaduskomisjon teadusringkondade integreerimiseks ja nõuandev kogu, et saada sidusrühmadelt panus käesoleva määruse rakendamisse liidu ja riiklikul tasandil. Liidu oskusteabe ja suutlikkuse arendamine peaks hõlmama ka olemasolevate ressursside ja oskusteabe kasutamist, eelkõige koostoime kaudu struktuuridega, mis on loodud liidu tasandil muu õiguse täitmise tagamise kontekstis, ning koostoime kaudu seotud algatustega liidu tasandil, nagu Euroopa kõrgjõudlusega andmetöötluse ühisettevõte ning programmi „Digitaalne Euroopa“ tehisintellekti testimis- ja eksperimenteerimisrajatistega.
(148)
W niniejszym rozporządzeniu należy ustanowić ramy zarządzania, które umożliwiają koordynację i wspieranie stosowania niniejszego rozporządzenia na poziomie krajowym, a także budowanie zdolności na poziomie Unii i zaangażowanie zainteresowanych stron w dziedzinę AI. Skuteczne wdrożenie i egzekwowanie niniejszego rozporządzenia wymaga ram zarządzania, które umożliwią koordynację i gromadzenie centralnej wiedzy fachowej na poziomie Unii. Misją Urzędu ds. AI, który został ustanowiony decyzją Komisji (45), jest rozwijanie unijnej wiedzy fachowej i unijnych zdolności w dziedzinie AI oraz przyczynianie się do wdrażania prawa Unii dotyczącego AI. Państwa członkowskie powinny ułatwiać Urzędowi ds. AI wykonywanie zadań z myślą o wspieraniu rozwoju unijnej wiedzy fachowej i unijnych zdolności oraz wzmacnianiu funkcjonowania jednolitego rynku cyfrowego. Ponadto należy ustanowić Radę ds. AI składającą się z przedstawicieli państw członkowskich, panel naukowy w celu zaangażowania środowiska naukowego oraz forum doradcze w celu wnoszenia przez zainteresowane strony wkładu w wykonywanie niniejszego rozporządzenia na poziomie Unii i poziomie krajowym. Rozwój unijnej wiedzy fachowej i unijnych zdolności powinien również obejmować wykorzystanie istniejących zasobów i wiedzy fachowej, w szczególności poprzez synergię ze strukturami zbudowanymi w kontekście egzekwowania innych przepisów na poziomie Unii oraz synergię z powiązanymi inicjatywami na poziomie Unii, takimi jak Wspólne Przedsięwzięcie EuroHPC i ośrodki testowo-doświadczalne w dziedzinie AI w ramach programu „Cyfrowa Europa”.
(149)
Et hõlbustada käesoleva määruse sujuvat, tulemuslikku ja ühtset rakendamist, tuleks luua nõukoda. Nõukoda peaks kajastama tehisintellekti ökosüsteemi erinevaid huve ja koosnema liikmesriikide esindajatest. Nõukoda peaks vastutama mitmesuguste nõustamisalaste ülesannete eest, sealhulgas arvamuste, soovituste ja nõuannete andmine või osalemine suuniste andmises käesoleva määruse rakendamisega seotud küsimustes, muu hulgas jõustamise, tehniliste kirjelduste või kehtivate standardite kohta, mis puudutavad käesoleva määrusega kehtestatud nõudeid, ning komisjonile ja liikmesriikidele ning nende pädevatele asutustele nõu andmine konkreetsetes tehisintellektiga seotud küsimustes. Selleks et anda liikmesriikidele teatav paindlikkus oma esindajate nimetamisel nõukotta, võivad sellised esindajad olla avaliku sektori üksustesse kuuluvad mis tahes isikud, kellel peaksid olema asjakohased pädevused ja volitused, et hõlbustada koordineerimist riiklikul tasandil ja aidata kaasa nõukoja ülesannete täitmisele. Nõukoda peaks looma kaks alalist allrühma, et luua platvorm turujärelevalveasutuste ja teavitavate asutuste vaheliseks koostööks ja teabevahetuseks vastavalt turujärelevalve ja teada antud asutustega seotud küsimustes. Turujärelevalve alaline allrühm peaks tegutsema käesoleva määruse kohaldamisel halduskoostöörühmana määruse (EL) 2019/1020 artikli 30 tähenduses. Vastavalt kõnealuse määruse artiklile 33 peaks komisjon toetama turujärelevalve alalise allrühma tegevust, viies läbi turuhindamisi või -uuringuid, eelkõige selleks, et teha kindlaks käesoleva määruse aspektid, mis nõuavad turujärelevalveasutuste vahelist konkreetset ja kiiret koordineerimist. Nõukoda võib vastavalt vajadusele moodustada konkreetsete küsimuste uurimiseks muid alalisi või ajutisi allrühmi. Nõukoda peaks tegema vajaduse korral koostööd ka asjakohase liidu õiguse kontekstis tegutsevate asjaomaste liidu asutuste, eksperdirühmade ja võrgustikega, sealhulgas eelkõige nendega, kes tegutsevad andmeid, digitooteid ja -teenuseid käsitleva asjakohase liidu õiguse alusel.
(149)
Aby ułatwić sprawne, skuteczne i zharmonizowane wykonywanie niniejszego rozporządzenia, należy ustanowić Radę ds. AI. Rada ds. AI powinna odzwierciedlać różne interesy ekosystemu AI i składać się z przedstawicieli państw członkowskich. Rada ds. AI powinna odpowiadać za szereg zadań doradczych, w tym wydawanie opinii lub zaleceń oraz udzielanie porad lub udział w tworzeniu wskazówek w dziedzinach związanych z wykonywaniem niniejszego rozporządzenia, także w kwestiach egzekwowania, specyfikacji technicznych lub istniejących norm dotyczących wymogów ustanowionych w niniejszym rozporządzeniu, jak również za udzielanie porad Komisji oraz państwom członkowskim i ich właściwym organom krajowym w konkretnych kwestiach związanych z AI. Aby zapewnić państwom członkowskim pewną swobodę w zakresie wyznaczania przedstawicieli do Rady ds. AI, takimi przedstawicielami mogą być wszelkie osoby należące do podmiotów publicznych, które powinny mieć odpowiednie kompetencje i uprawnienia, aby ułatwiać koordynację na poziomie krajowym i przyczyniać się do realizacji zadań Rady ds. AI. Rada ds. AI powinna ustanowić dwie stałe podgrupy służące jako platforma współpracy i wymiany między organami nadzoru rynku i organami notyfikującymi w zakresie kwestii dotyczących odpowiednio nadzoru rynku i jednostek notyfikowanych. Stała podgrupa ds. nadzoru rynku powinna do celów niniejszego rozporządzenia pełnić rolę grupy ds. współpracy administracyjnej (ADCO) w rozumieniu art. 30 rozporządzenia (UE) 2019/1020. Zgodnie z art. 33 przywołanego rozporządzenia Komisja powinna wspierać działania stałej podgrupy ds. nadzoru rynku poprzez przeprowadzanie ocen lub badań rynku, w szczególności w celu zidentyfikowania aspektów niniejszego rozporządzenia wymagających szczególnej i pilnej koordynacji między organami nadzoru rynku. W stosownych przypadkach Rada ds. AI może również tworzyć inne stałe lub tymczasowe podgrupy na potrzeby zbadania konkretnych kwestii. Rada ds. AI powinna również w stosownych przypadkach współpracować z odpowiednimi unijnymi organami, grupami ekspertów i sieciami działającymi w kontekście odpowiedniego prawa Unii, w tym w szczególności z tymi, które działają na podstawie odpowiednich przepisów prawa Unii dotyczących danych oraz produktów i usług cyfrowych.
(150)
Selleks et tagada sidusrühmade kaasamine käesoleva määruse rakendamisse ja kohaldamisse, tuleks luua nõuandev kogu, et nõustada nõukoda ja komisjoni ning anda neile tehnilist oskusteavet. Selleks et sidusrühmade puhul oleks tagatud mitmekülgne ja tasakaalustatud esindatus ärihuvide ja mitteäriliste huvide vahel ning ärihuvide kategoorias VKEde ja muude ettevõtjate vahel, peaks nõuandev kogu muu hulgas hõlmama tööstust, idufirmasid, VKEsid, akadeemilisi ringkondi, kodanikuühiskonda, sealhulgas sotsiaalpartnereid, samuti Euroopa Liidu Põhiõiguste Ametit, ENISAt, Euroopa Standardikomiteed (CEN), Euroopa Elektrotehnika Standardikomiteed (CENELEC) ja Euroopa Telekommunikatsioonistandardite Instituuti (ETSI).
(150)
Aby zapewnić zaangażowanie zainteresowanych stron we wdrażanie i stosowanie niniejszego rozporządzenia, należy ustanowić forum doradcze, które ma doradzać Radzie ds. AI i Komisji oraz zapewniać im fachową wiedzę techniczną. Aby zapewnić zróżnicowaną i zrównoważoną reprezentację zainteresowanych stron z uwzględnieniem interesów handlowych i niehandlowych oraz – w ramach kategorii interesów handlowych – w odniesieniu do MŚP i innych przedsiębiorstw, forum doradcze powinno obejmować m.in. przemysł, przedsiębiorstwa typu start-up, MŚP, środowisko akademickie, społeczeństwo obywatelskie, w tym partnerów społecznych, a także Agencję Praw Podstawowych, ENISA, Europejski Komitet Normalizacyjny (CEN), Europejski Komitet Normalizacyjny Elektrotechniki (CENELEC) i Europejski Instytut Norm Telekomunikacyjnych (ETSI).
(151)
Selleks et toetada käesoleva määruse rakendamist ja jõustamist, eelkõige tehisintellektiameti järelevalvetegevust seoses üldotstarbeliste tehisintellektimudelitega, tuleks luua sõltumatutest ekspertidest koosnev teaduskomisjon. Teaduskomisjoni kuuluvad sõltumatud eksperdid tuleks valida tehisintellekti valdkonna ajakohase teadusliku või tehnilise oskusteabe põhjal ning nad peaksid täitma oma ülesandeid erapooletult ja objektiivselt ning tagama oma ülesannete ja tegevuse käigus saadud teabe ja andmete konfidentsiaalsuse. Selleks et suurendada käesoleva määruse tõhusaks jõustamiseks vajalikku riiklikku suutlikkust, peaks liikmesriikidel olema võimalik taotleda oma jõustamistegevuseks toetust teaduskomisjoni ekspertide reservist.
(151)
Aby wspierać wdrażanie i egzekwowanie niniejszego rozporządzenia, w szczególności działania monitorujące prowadzone przez Urząd ds. AI w odniesieniu do modeli AI ogólnego przeznaczenia, należy ustanowić panel naukowy złożony z niezależnych ekspertów. Niezależni eksperci tworzący panel naukowy powinni być wybierani na podstawie aktualnej wiedzy naukowej lub technicznej w dziedzinie AI i powinni wykonywać swoje zadania w sposób bezstronny i obiektywny oraz zapewniać poufność informacji i danych uzyskanych w trakcie wykonywania swoich zadań i działań. Aby umożliwić wzmocnienie krajowych zdolności niezbędnych do skutecznego egzekwowania niniejszego rozporządzenia, państwa członkowskie powinny mieć możliwość zwrócenia się o wsparcie do zespołu ekspertów wchodzących w skład panelu naukowego w odniesieniu do ich działań w zakresie egzekwowania przepisów.
(152)
Selleks et toetada tehisintellektisüsteemidega seotud nõuetekohast jõustamist ja tugevdada liikmesriikide suutlikkust, tuleks luua liidu tehisintellekti testimise toetusstruktuurid ja teha need liikmesriikidele kättesaadavaks.
(152)
Aby wspierać odpowiednie egzekwowanie w odniesieniu do systemów AI i wzmocnić zdolności państw członkowskich, należy ustanowić unijne struktury wsparcia testowania AI i udostępnić je państwom członkowskim.
(153)
Käesoleva määruse kohaldamisel ja täitmise tagamisel on keskne roll liikmesriikidel. Seoses sellega peaks iga liikmesriik määrama vähemalt ühe teavitava asutuse ja vähemalt ühe turujärelevalveasutuse riigi pädevateks asutusteks, eesmärgiga teha järelevalvet käesoleva määruse kohaldamise ja rakendamise üle. Liikmesriigid võivad otsustada määrata vastavalt oma riiklikele organisatsioonilistele iseärasustele ja vajadustele mis tahes avalik-õigusliku üksuse täitma käesoleva määruse tähenduses riigi pädeva asutuse ülesandeid. Selleks et suurendada liikmesriikide töökorralduse tõhusust ja luua ühtne kontaktpunkt suhtlemiseks üldsuse ja muude vastaspooltega liikmesriigi ja liidu tasandil, peaks iga liikmesriik määrama turujärelevalveasutuse, mis toimiks ühtse kontaktpunktina.
(153)
Państwa członkowskie odgrywają kluczową rolę w stosowaniu i egzekwowaniu niniejszego rozporządzenia. W tym zakresie każde państwo członkowskie powinno wyznaczyć co najmniej jedną jednostkę notyfikującą i co najmniej jeden organ nadzoru ryku jako właściwe organy krajowe do celów sprawowania nadzoru nad stosowaniem i wykonywaniem niniejszego rozporządzenia. Państwa członkowskie mogą podjąć decyzję o wyznaczeniu dowolnego rodzaju podmiotu publicznego do wykonywania zadań właściwych organów krajowych w rozumieniu niniejszego rozporządzenia, zgodnie z ich określonymi krajowymi cechami organizacyjnymi i potrzebami. Aby zwiększyć efektywność organizacyjną po stronie państw członkowskich oraz ustanowić pojedynczy punkt kontaktowy dla ogółu społeczeństwa oraz innych partnerów na poziomie państw członkowskich i na poziomie Unii, każde państwo członkowskie powinno wyznaczyć organ nadzoru rynku, który pełniłby funkcję pojedynczego punktu kontaktowego.
(154)
Riigi pädevad asutused peaksid kasutama oma volitusi sõltumatult, erapooletult ja eelarvamusteta, et järgida oma tegevuse ja ülesannete täitmisel objektiivsuse ja erapooletuse põhimõtteid ning tagada käesoleva määruse kohaldamine ja rakendamine. Nende asutuste liikmed peaksid hoiduma igasugusest tegevusest, mis on vastuolus nende kohustustega, ning nende suhtes tuleks kohaldada käesoleva määruse kohaseid konfidentsiaalsusnõudeid.
(154)
Właściwe organy krajowe powinny wykonywać swoje uprawnienia w sposób niezależny, bezstronny i wolny od uprzedzeń, aby zagwarantować przestrzeganie zasady obiektywności swoich działań i zadań oraz zapewnić stosowanie i wykonywanie niniejszego rozporządzenia. Członkowie tych organów powinni powstrzymać się od wszelkich działań niezgodnych z ich obowiązkami i powinni podlegać zasadom poufności na mocy niniejszego rozporządzenia.
(155)
Tagamaks, et suure riskiga tehisintellektisüsteemide pakkujad saavad võtta oma süsteemide ja projekteerimis- ja arendusprotsessi parandamiseks arvesse suure riskiga tehisintellektisüsteemide kasutamise käigus saadud kogemusi või võtta õigeaegselt võimalikke parandusmeetmeid, peaks kõigil pakkujatel olema sisse seatud turustamisjärgse seire süsteem. Asjakohasel juhul peaks turustamisjärgne seire hõlmama analüüsi koostoime kohta muude tehisintellektisüsteemidega, sealhulgas muude seadmete ja tarkvaraga. Turustamisjärgne seire ei peaks hõlmama õiguskaitseasutustest juurutajate tundlikke operatiivandmeid. Selline süsteem on oluline ka selleks, et tõhusamalt ja õigeaegsemalt tegeleda riskidega, mis tulenevad suure riskiga tehisintellektisüsteemidest, mis n-ö õpivad edasi ka pärast turule laskmist või kasutusele võtmist. Seoses sellega tuleks pakkujatelt nõuda ka seda, et neil oleks olemas süsteem, mille abil teatada asjaomastele asutustele kõikidest tõsistest intsidentidest, mis tulenevad nende tehisintellektisüsteemide kasutamisest, st intsidentidest või tõrgetest, mis põhjustavad surma või tõsist tervisekahju, elutähtsa taristu haldamise ja käitamise tõsiseid ja pöördumatuid häireid, põhiõiguste kaitseks ette nähtud liidu õigusest tulenevate kohustuste rikkumist või tõsist kahju varale või keskkonnale.
(155)
W celu zapewnienia, aby dostawcy systemów AI wysokiego ryzyka mogli wykorzystywać doświadczenia związane ze stosowaniem systemów AI wysokiego ryzyka do ulepszenia swoich systemów oraz procesu projektowania i rozwoju lub byli w stanie odpowiednio szybko podejmować wszelkie możliwe działania naprawcze, każdy dostawca powinien wdrożyć system monitorowania po wprowadzeniu do obrotu. W stosownych przypadkach monitorowanie po wprowadzeniu do obrotu powinno obejmować analizę interakcji z innymi systemami AI, w tym z innymi urządzeniami i oprogramowaniem. Monitorowanie po wprowadzeniu do obrotu nie obejmuje wrażliwych danych operacyjnych podmiotów stosujących, które są organami ścigania. System ten ma również zasadnicze znaczenie dla zapewnienia skuteczniejszego i terminowego przeciwdziałania możliwym pojawiającym się ryzykom związanym z systemami AI, które nadal „uczą się” po wprowadzeniu do obrotu lub oddaniu do użytku. W tym kontekście dostawcy powinni być również zobowiązani do wdrożenia systemu zgłaszania odpowiednim organom wszelkich poważnych incydentów zaistniałych w związku z wykorzystaniem ich systemów AI, tj. incydentu lub nieprawidłowego działania prowadzącego do śmierci lub poważnej szkody dla zdrowia, poważnych i nieodwracalnych zakłóceń w zarządzaniu infrastrukturą krytyczną i jej działaniu, naruszeń obowiązków ustanowionych w prawie Unii, których celem jest ochrona praw podstawowych, lub poważnych szkód majątkowych lub środowiskowych.
(156)
Selleks et kindlustada liidu ühtlustamisõigusaktide hulka kuuluvas käesolevas määruses sätestatud nõuete ja kohustuste täitmise asjakohane ja tulemuslik tagamine, tuleks määrusega (EL) 2019/1020 kehtestatud toodete turujärelevalve ja nõuetele vastavuse süsteemi kohaldada täies ulatuses. Käesoleva määruse kohaselt määratud turujärelevalveasutustel peaksid olema kõik käesoleva määruse ja määruse (EL) 2019/1020 kohased täitmise tagamise volitused ning nad peaksid kasutama oma volitusi ja täitma oma kohustusi sõltumatult, erapooletult ja eelarvamusteta. Kuigi enamiku tehisintellektisüsteemide suhtes ei kohaldata käesoleva määruse kohaseid konkreetseid nõudeid ja kohustusi, võivad turujärelevalveasutused võtta meetmeid kõigi tehisintellektisüsteemide suhtes, kui need kujutavad endast ohtu vastavalt käesolevale määrusele. Käesoleva määruse kohaldamisalasse kuuluvate liidu institutsioonide, asutuste ja organite eripära tõttu on asjakohane määrata nende jaoks pädevaks turujärelevalveasutuseks Euroopa Andmekaitseinspektor. See ei tohiks piirata riigi pädevate asutuste nimetamist liikmesriikide poolt. Turujärelevalvetoimingud ei tohiks mõjutada järelevalve alla kuuluvate üksuste võimet täita oma ülesandeid sõltumatult, kui selline sõltumatus on nõutav liidu õiguses.
(156)
Aby zapewnić odpowiednie i skuteczne egzekwowanie wymogów i obowiązków ustanowionych w niniejszym rozporządzeniu, które należy do unijnego prawodawstwa harmonizacyjnego, pełne zastosowanie powinien mieć system nadzoru rynku i zgodności produktów ustanowiony rozporządzeniem (UE) 2019/1020. Organy nadzoru rynku wyznaczone zgodnie z niniejszym rozporządzeniem powinny mieć wszystkie uprawnienia w zakresie egzekwowania wymogów i obowiązków ustanowione w niniejszym rozporządzeniu oraz z rozporządzenia (UE) 2019/1020 i powinny wykonywać swoje uprawnienia i obowiązki w sposób niezależny, bezstronny i wolny od uprzedzeń. Chociaż większość systemów AI nie podlega szczególnym wymogom i obowiązkom na podstawie niniejszego rozporządzenia, organy nadzoru rynku mogą podejmować środki w odniesieniu do wszystkich systemów AI, jeżeli zgodnie z niniejszym rozporządzeniem stwarzają one ryzyko. Z uwagi na szczególny charakter instytucji, organów i jednostek organizacyjnych Unii objętych zakresem stosowania niniejszego rozporządzenia, należy wyznaczyć Europejskiego Inspektora Ochrony Danych jako właściwy dla nich organ nadzoru rynku. Powinno to pozostawać bez uszczerbku dla wyznaczenia właściwych organów krajowych przez państwa członkowskie. Działania w zakresie nadzoru rynku nie powinny wpływać na zdolność nadzorowanych podmiotów do niezależnego wypełniania ich zadań, w przypadku gdy taka niezależność jest wymagana prawem Unii.
(157)
Käesolev määrus ei piira põhiõigusi kaitsva liidu õiguse kohaldamise järelevalvega tegelevate asjaomaste riiklike ametiasutuste või organite, sealhulgas võrdõiguslikkust edendavate asutuste ja andmekaitseasutuste pädevust, ülesandeid, volitusi ega sõltumatust. Kui see on nende volituste täitmiseks vajalik, peaks neil riiklikel ametiasutustel või organitel olema samuti juurdepääs igasugusele käesoleva määruse alusel koostatud dokumentatsioonile. Tuleks kehtestada konkreetne kaitsemenetlus, et tagada piisav ja õigeaegne täitmise tagamine tehisintellektisüsteemide osas, mis kujutavad endast ohtu tervisele, turvalisusele ja põhiõigustele. Selliste endast riski kujutavate tehisintellektisüsteemide jaoks kehtestatud menetlust tuleks kohaldada suure riskiga tehisintellektisüsteemide suhtes, mis kujutavad endast riski, keelatud süsteemide suhtes, mis on turule lastud, kasutusele võetud või mida kasutatakse, rikkudes käesoleva määruse sätteid keelatud kasutusviiside kohta, ning tehisintellektisüsteemide suhtes, mis on tehtud kättesaadavaks käesolevas määruses sätestatud läbipaistvusnõudeid rikkudes ja kujutavad endast riski.
(157)
Niniejsze rozporządzenie pozostaje bez uszczerbku dla kompetencji, zadań, uprawnień i niezależności odpowiednich krajowych organów lub podmiotów publicznych, które nadzorują stosowanie prawa Unii w zakresie ochrony praw podstawowych, w tym organów ds. równości i organów ochrony danych. W przypadku gdy jest to niezbędne do wykonywania ich mandatu, te krajowe organy lub podmioty publiczne powinny również mieć dostęp do wszelkiej dokumentacji sporządzonej na podstawie niniejszego rozporządzenia. Należy ustanowić szczególną procedurę ochronną, aby zapewnić odpowiednie i terminowe egzekwowanie przepisów niniejszego rozporządzenia w odniesieniu do systemów AI stwarzających ryzyko dla zdrowia, bezpieczeństwa i praw podstawowych. Procedurę dotyczącą takich systemów AI stwarzających ryzyko należy stosować w odniesieniu do systemów AI wysokiego ryzyka stwarzających ryzyko, zakazanych systemów, które zostały wprowadzone do obrotu, oddane do użytku lub są wykorzystywane z naruszeniem zasad dotyczących zakazanych praktyk ustanowionych w niniejszym rozporządzeniu, oraz systemów AI, które zostały udostępnione z naruszeniem ustanowionych w niniejszym rozporządzeniu wymogów przejrzystości i które stwarzają ryzyko.
(158)
Finantsteenuseid käsitlev liidu õigus sisaldab sisemise juhtimissüsteemi ja riskihalduse kohta käivaid õigusnorme ja nõudeid, mida kohaldatakse reguleeritud finantsasutuste suhtes nende teenuste pakkumise käigus, kaasa arvatud siis, kui nad kasutavad tehisintellektisüsteeme. Käesolevast määrusest tulenevate kohustuste ja finantsteenuseid käsitlevate liidu õigusaktide asjaomaste õigusnormide ja nõuete järjepideva kohaldamise ja täitmise tagamiseks tuleks nende õigusaktide järelevalve ja täitmise tagamise eest vastutavad pädevad asutused, eelkõige pädevad asutused, mis on määratletud Euroopa Parlamendi ja nõukogu määruses (EL) nr 575/2013 (46) ning Euroopa Parlamendi ja nõukogu direktiivides 2008/48/EÜ, (47) 2009/138/EÜ, (48) 2013/36/EL, (49) 2014/17/EL (50) ja (EL) 2016/97, (51) määrata nende vastava pädevuse piires pädevateks asutusteks, kes tegelevad käesoleva määruse rakendamise järelevalvega, sealhulgas turujärelevalvega, seoses reguleeritud ja järelevalve all olevate finantsasutuste pakutavate või kasutatavate tehisintellektisüsteemidega, välja arvatud juhul, kui liikmesriigid otsustavad määrata kõnealuseid turujärelevalveülesandeid täitma mõne muu asutuse. Kõnealustel pädevatel asutustel peaksid olema kõik käesolevast määrusest ja määrusest (EL) 2019/1020 tulenevad volitused tagada käesoleva määruse nõuete ja kohustuste täitmine, sealhulgas õigus viia läbi tagantjärele tehtavaid turujärelevalvetoiminguid, mida saab asjakohasel juhul integreerida nende olemasolevatesse, asjaomasest finantsteenuseid käsitlevast liidu õigusest tulenevasse järelevalvemehhanismidesse ja -menetlustesse. Otstarbekas on näha ette, et käesoleva määruse alusel turujärelevalveasutusena tegutsevad riiklikud asutused, kes vastutavad direktiivi 2013/36/EL alusel reguleeritud krediidiasutuste järelevalve eest ja osalevad nõukogu määrusega (EL) nr 1024/2013 (52) loodud ühtses järelevalvemehhanismis, peaksid viivitamata esitama Euroopa Keskpangale turujärelevalvetoimingute käigus kindlaks tehtud teabe, mis võib pakkuda huvi seoses kõnealuses määruses sätestatud Euroopa Keskpanga usaldatavusnõuete täitmise järelevalve ülesannetega. Et veelgi suurendada käesoleva määruse ja direktiivi 2013/36/EL alusel reguleeritud krediidiasutuste suhtes kohaldatavate õigusnormide sidusust, on ühtlasi otstarbekas integreerida pakkujate mõned riskijuhtimise, turustamisjärgse seire ja dokumentatsiooniga seotud menetluslikud kohustused direktiivi 2013/36/EL kohastesse olemasolevatesse kohustustesse ja menetlustesse. Kattuvuse vältimiseks tuleks ette näha ka piiratud erandid seoses pakkujate kvaliteedijuhtimissüsteemidega ja seirekohustusega, mis on pandud suure riskiga tehisintellektisüsteemide juurutajate, niivõrd, kuivõrd neid kohaldatakse direktiiviga 2013/36/EL reguleeritud krediidiasutuste suhtes. Sama korda tuleks kohaldada direktiivi 2009/138/EÜ kohaste kindlustus- ja edasikindlustusandjate ning kindlustusvaldusettevõtjate ning direktiivi (EL) 2016/97 kohaste kindlustusvahendajate suhtes ning muud liiki finantsasutuste suhtes, kes peavad täitma liidu finantsteenuseid käsitleva asjakohase õiguse kohaselt kehtestatud sisemise juhtimissüsteemi, korra või protsessidega seotud nõudeid, et tagada järjepidevus ja võrdne kohtlemine finantssektoris.
(158)
Przepisy prawa Unii dotyczące usług finansowych obejmują zasady i wymogi dotyczące zarządzania wewnętrznego i zarządzania ryzykiem, które mają zastosowanie do regulowanych instytucji finansowych podczas świadczenia tych usług, w tym wówczas, gdy korzystają one z systemów AI. Aby zapewnić spójne stosowanie i egzekwowanie obowiązków ustanowionych w niniejszym rozporządzeniu oraz odpowiednich zasad i wymogów ustanowionych w unijnych aktach prawnych dotyczących usług finansowych, właściwe organy do celów nadzoru nad tymi aktami prawnymi i ich egzekwowania, w szczególności właściwe organy zdefiniowane w rozporządzeniu Parlamentu Europejskiego i Rady (UE) nr 575/2013 (46) oraz dyrektywach Parlamentu Europejskiego i Rady 2008/48/WE (47), 2009/138/WE (48), 2013/36/UE (49), 2014/17/UE (50) i (UE) 2016/97 (51), należy wyznaczyć w ramach ich odpowiednich kompetencji jako właściwe organy do celów nadzoru nad wykonywaniem niniejszego rozporządzenia, w tym do celów działań w zakresie nadzoru rynku, w odniesieniu do systemów AI dostarczanych lub wykorzystywanych przez objęte regulacją i nadzorem instytucje finansowe, chyba że państwa członkowskie zdecydują się wyznaczyć inny organ do wypełniania tych zadań związanych z nadzorem rynku. Te właściwe organy powinny mieć wszystkie uprawnienia wynikające z niniejszego rozporządzenia i rozporządzenia (UE) 2019/1020 w celu egzekwowania wymogów i obowiązków ustanowionych w niniejszym rozporządzeniu, w tym uprawnienia do prowadzenia działań ex post w zakresie nadzoru rynku, które można w stosownych przypadkach włączyć do ich istniejących mechanizmów i procedur nadzorczych na podstawie odpowiednich przepisów prawa Unii dotyczących usług finansowych. Należy przewidzieć, że – działając w charakterze organów nadzoru rynku na podstawie niniejszego rozporządzenia –krajowe organy odpowiedzialne za nadzór nad instytucjami kredytowymi uregulowanymi w dyrektywie 2013/36/UE, które uczestniczą w jednolitym mechanizmie nadzorczym ustanowionym rozporządzeniem Rady (UE) nr 1024/2013 (52), powinny niezwłocznie przekazywać Europejskiemu Bankowi Centralnemu wszelkie informacje zidentyfikowane w trakcie prowadzonych przez siebie działań w zakresie nadzoru rynku, które potencjalnie mogą mieć znaczenie dla Europejskiego Banku Centralnego z punktu widzenia określonych w tym rozporządzeniu zadań EBC dotyczących nadzoru ostrożnościowego. Aby dodatkowo zwiększyć spójność między niniejszym rozporządzeniem a przepisami mającymi zastosowanie do instytucji kredytowych uregulowanych w dyrektywie 2013/36/UE, niektóre obowiązki proceduralne dostawców związane z zarządzaniem ryzykiem, monitorowaniem po wprowadzeniu do obrotu oraz prowadzeniem dokumentacji należy również włączyć do istniejących obowiązków i procedur przewidzianych w dyrektywie 2013/36/UE. Aby uniknąć nakładania się przepisów, należy również przewidzieć ograniczone odstępstwa dotyczące systemu zarządzania jakością prowadzonego przez dostawców oraz obowiązku monitorowania nałożonego na podmioty stosujące systemy AI wysokiego ryzyka w zakresie, w jakim mają one zastosowanie do instytucji kredytowych uregulowanych w dyrektywie 2013/36/UE. Ten sam system powinien mieć zastosowanie do zakładów ubezpieczeń i zakładów reasekuracji oraz ubezpieczeniowych spółek holdingowych na podstawie dyrektywy 2009/138/WE oraz pośredników ubezpieczeniowych na mocy dyrektywy (UE) 2016/97, a także do innych rodzajów instytucji finansowych objętych wymogami dotyczącymi systemu zarządzania wewnętrznego, uzgodnień lub procedur ustanowionych zgodnie z odpowiednimi przepisami prawa Unii dotyczącymi usług finansowych, w celu zapewnienia spójności i równego traktowania w sektorze finansowym.
(159)
Igal käesoleva määruse lisas loetletud biomeetriliste andmete valdkonnaga seotud suure riskiga tehisintellektisüsteemide turujärelevalveasutusel, kui neid süsteeme kasutatakse õiguskaitseks, rände-, varjupaiga- ja piirikontrollihalduseks või õigusemõistmiseks ja demokraatlikeks protsessideks, peaksid olema tõhusad uurimis- ja parandusvolitused, sealhulgas vähemalt õigus saada juurdepääs kõigile töödeldavatele isikuandmetele ja kogu teabele, mis on vajalik tema ülesannete täitmiseks. Turujärelevalveasutustel peaks olema võimalik kasutada oma volitusi täiesti sõltumatult. Käesoleva määrusega kehtestatud tundlikele operatiivandmetele juurdepääsu piirangud ei tohiks piirata neile asutustele direktiiviga (EL) 2016/680 antud volitusi. Ükski käesoleva määruse kohane erand, mis puudutab andmete avaldamist riiklikele andmekaitseasutustele, ei tohiks mõjutada nende asutuste praeguseid või tulevasi volitusi väljaspool käesoleva määruse kohaldamisala.
(159)
Każdy organ nadzoru rynku ds. systemów AI wysokiego ryzyka w obszarze danych biometrycznych, wymienionych w załączniku do niniejszego rozporządzenia, o ile systemy te są wykorzystywane do celów ścigania przestępstw, zarządzania migracją, azylem i kontrolą graniczną lub do celów sprawowania wymiaru sprawiedliwości i procesów demokratycznych, powinien dysponować skutecznymi uprawnieniami do prowadzenia postępowań i uprawnieniami naprawczymi, w tym co najmniej uprawnieniami do uzyskania dostępu do wszystkich przetwarzanych danych osobowych oraz do wszelkich informacji niezbędnych do wykonywania jego zadań. Organy nadzoru rynku powinny mieć możliwość wykonywania swoich uprawnień, działając w sposób całkowicie niezależny. Wszelkie ograniczenia dostępu tych organów do wrażliwych danych operacyjnych na mocy niniejszego rozporządzenia powinny pozostawać bez uszczerbku dla uprawnień przyznanych im na mocy dyrektywy (UE) 2016/680. Żadne wyłączenie dotyczące ujawniania danych krajowym organom ochrony danych na mocy niniejszego rozporządzenia nie powinno mieć wpływu na obecne lub przyszłe uprawnienia tych organów wykraczające poza zakres niniejszego rozporządzenia.
(160)
Turujärelevalveasutused ja komisjon peaksid saama teha ettepanekuid ühismeetmete, sealhulgas ühiste uurimiste kohta, mida viivad läbi turujärelevalveasutused või turujärelevalveasutused koos komisjoniga ja mille eesmärk on edendada nõuetele vastavust, teha kindlaks mittevastavus, suurendada teadlikkust ja anda suuniseid käesoleva määruse kohta seoses selliste suure riskiga tehisintellektisüsteemide konkreetsete kategooriatega, mille puhul on leitud, et need kujutavad endast tõsist riski kahes või enamas liikmesriigis. Nõuete täitmise edendamiseks tuleks võtta ühismeetmeid kooskõlas määruse (EL) 2019/1020 artikliga 9. Ühisuurimiste koordineerimistoe peaks tagama tehisintellektiamet.
(160)
Organy nadzoru rynku i Komisja powinny mieć możliwość proponowania wspólnych działań, w tym wspólnych postępowań, które mają być prowadzone przez organy nadzoru rynku lub organy nadzoru rynku wspólnie z Komisją, których celem jest promowanie zgodności, wykrywanie niezgodności, podnoszenie świadomości i zapewnianie wytycznych dotyczących niniejszego rozporządzenia w odniesieniu do konkretnych kategorii systemów AI wysokiego ryzyka, w przypadku których stwierdzono, że stwarzają poważne ryzyko w co najmniej dwóch państwach członkowskich. Wspólne działania na rzecz promowania zgodności należy prowadzić zgodnie z art. 9 rozporządzenia (UE) 2019/1020. Urząd ds. AI powinien zapewniać wsparcie w zakresie koordynacji wspólnych postępowań.
(161)
On vaja selgitada liidu ja liikmesriikide tasandi kohustusi ja pädevusi seoses üldotstarbelistel tehisintellektimudelitel põhinevate tehisintellektisüsteemidega. Pädevuste kattumise vältimiseks peaks juhul, kui tehisintellektisüsteem põhineb üldotstarbelisel tehisintellektimudelil ning mudelit ja süsteemi pakub sama pakkuja, toimuma järelevalve liidu tasandil tehisintellektiameti kaudu, kellel peaks selleks olema turujärelevalveasutuse volitused määruse (EL) 2019/1020 tähenduses. Kõigil muudel juhtudel vastutavad tehisintellektisüsteemide järelevalve eest riiklikud turujärelevalveasutused. Selliste üldotstarbeliste tehisintellektisüsteemide puhul, mida juurutajad saavad kasutada otse vähemalt ühel eesmärgil, mis on liigitatud suure riskiga eesmärgiks, peaksid turujärelevalveasutused tegema tehisintellektiametiga koostööd, et hinnata nõuetele vastavust ning teavitada sellest nõukoda ja teisi turujärelevalveasutusi. Lisaks peaks turujärelevalveasutustel olema võimalik taotleda tehisintellektiametilt abi, kui turujärelevalveasutusel ei ole võimalik suure riskiga tehisintellektisüsteemi uurimist lõpule viia, kuna sellel puudub juurdepääs teatavale teabele, mis on seotud üldotstarbelise tehisintellektimudeliga, millel suure riskiga tehisintellektisüsteem põhineb. Sellistel juhtudel tuleks kohaldada määruse (EL) 2019/1020 VI peatükis sätestatud menetlust, mis käsitleb piiriülest vastastikust abi, mutatis mutandis.
(161)
Konieczne jest wyjaśnienie odpowiedzialności i kompetencji na poziomie Unii i poziomie krajowym w odniesieniu do systemów AI, które opierają się na modelach AI ogólnego przeznaczenia. Aby uniknąć nakładania się kompetencji, w przypadku gdy system AI opiera się na modelu AI ogólnego przeznaczenia, a model i system są dostarczone przez tego samego dostawcę, nadzór powinien odbywać się na poziomie Unii za pośrednictwem Urzędu ds. AI, który w tym celu powinien posiadać uprawnienia organu nadzoru rynku w rozumieniu rozporządzenia (UE) 2019/1020. We wszystkich innych przypadkach krajowe organy nadzoru rynku pozostają odpowiedzialne za nadzór nad systemami AI. Natomiast w przypadku systemów AI ogólnego przeznaczenia, które mogą być wykorzystywane bezpośrednio przez podmioty stosujące do co najmniej jednego celu zaklasyfikowanego jako cel wysokiego ryzyka, organy nadzoru rynku powinny współpracować z Urzędem ds. AI przy prowadzeniu ocen zgodności i by odpowiednio informować Radę ds. AI i inne organy nadzoru rynku. Ponadto organy nadzoru rynku powinny mieć możliwość zwrócenia się o pomoc do Urzędu ds. AI, jeżeli organ nadzoru rynku nie jest w stanie zakończyć postępowania w sprawie systemu AI wysokiego ryzyka ze względu na niemożność dostępu do niektórych informacji związanych z modelem AI ogólnego przeznaczenia, na którym opiera się ten system AI wysokiego ryzyka. W takich przypadkach powinna mieć zastosowanie odpowiednio procedura dotycząca wzajemnej pomocy transgranicznej określona w rozdziale VI rozporządzenia (UE) 2019/1020.
(162)
Selleks et liidu keskset oskusteavet ja koostoimet liidu tasandil parimal viisil ära kasutada, peaksid üldotstarbeliste tehisintellektimudelite pakkujate kohustuste järelevalve ja täitmise tagamise volitused kuuluma komisjoni pädevusse. Tehisintellektiametil peaks olema võimalik võtta kõik vajalikud meetmed, et jälgida käesoleva määruse tõhusat rakendamist seoses üldotstarbeliste tehisintellektimudelitega. Ametil peaks olema võimalik uurida üldotstarbeliste tehisintellektimudelite pakkujaid käsitlevate õigusnormide võimalikke rikkumisi nii omal algatusel, järelevalvetegevuse tulemuste põhjal kui ka turujärelevalveasutuste taotlusel kooskõlas käesolevas määruses sätestatud tingimustega. Selleks et toetada tehisintellektiameti tõhusat järelevalvet, peaks see nägema ette võimaluse, et järgmise etapi pakkujad saavad esitada kaebusi üldotstarbeliste tehisintellektimudelite ja -süsteemide pakkujaid käsitlevate õigusnormide võimaliku rikkumise kohta.
(162)
Aby jak najlepiej wykorzystać scentralizowaną unijną wiedzę fachową i synergie na poziomie Unii, uprawnienia w zakresie nadzoru i egzekwowania obowiązków spoczywających na dostawcach modeli AI ogólnego przeznaczenia powinny należeć do kompetencji Komisji. Urząd ds. AI powinien mieć możliwość prowadzenia wszelkich niezbędnych działań w celu monitorowania skutecznego wykonywania niniejszego rozporządzenia w odniesieniu do modeli AI ogólnego przeznaczenia. Powinien mieć możliwość prowadzenia postępowań w sprawie ewentualnych naruszeń przepisów dotyczących dostawców modeli AI ogólnego przeznaczenia zarówno z własnej inicjatywy, na podstawie wyników swoich działań monitorujących, jak i na wniosek organów nadzoru rynku zgodnie z warunkami określonymi w niniejszym rozporządzeniu. W celu wsparcia skutecznego monitorowania Urząd ds. AI powinien ustanowić możliwość składania przez dostawców niższego szczebla skarg na dostawców modeli i systemów AI ogólnego przeznaczenia dotyczących ewentualnych naruszeń przepisów.
(163)
Üldotstarbeliste tehisintellektimudelite juhtimissüsteemide täiendamiseks peaks teaduskomisjon toetama tehisintellektiameti seiretegevust ja võib teatavatel juhtudel edastada tehisintellektiametile kvalifitseeritud hoiatusteateid, mille põhjal alustatakse järelkontrolle, näiteks uurimisi. See peaks olema nii juhul, kui teaduskomisjonil on põhjust kahtlustada, et üldotstarbeline tehisintellektimudel kujutab endast konkreetset ja tuvastatavat riski liidu tasandil. Lisaks peaks see nii olema juhul, kui teaduskomisjonil on põhjust kahtlustada, et üldotstarbeline tehisintellektimudel vastab kriteeriumidele, mis annaksid alust liigitada see süsteemse riskiga üldotstarbeliseks tehisintellektimudeliks. Selleks et anda teaduskomisjonile teavet, mis on vajalik nende ülesannete täitmiseks, tuleks ette näha mehhanism, mille abil teaduskomisjon saab taotleda, et komisjon nõuaks pakkujalt dokumentatsiooni või teavet.
(163)
W celu uzupełnienia systemów zarządzania modelami AI ogólnego przeznaczenia panel naukowy powinien wspierać działania monitorujące Urzędu ds. AI i może, w niektórych przypadkach, przekazywać Urzędowi ds. AI ostrzeżenia kwalifikowane, które uruchamiają działania następcze, takie jak postępowania. Powinno to mieć miejsce w przypadku, gdy panel naukowy ma powody, by podejrzewać, że model AI ogólnego przeznaczenia stwarza konkretne i możliwe do zidentyfikowania ryzyko na poziomie Unii. Ponadto powinno to mieć miejsce w przypadku, gdy panel naukowy ma powody, by podejrzewać, że model AI ogólnego przeznaczenia spełnia kryteria, które prowadziłyby do zaklasyfikowania go jako modelu AI ogólnego przeznaczenia z ryzykiem systemowym. Aby panel naukowy mógł dysponować informacjami niezbędnymi do wykonywania tych zadań, powinien istnieć mechanizm, w ramach którego panel naukowy może zwrócić się do Komisji, aby wystąpiła do dostawcy z wnioskiem o przedstawienie dokumentacji lub informacji.
(164)
Tehisintellektiametil peaks olema võimalik võtta vajalikke meetmeid, et jälgida käesolevas määruses sätestatud üldotstarbeliste tehisintellektimudelite pakkujate kohustuste tõhusat rakendamist ja täitmist. Tehisintellektiametil peaks olema võimalik uurida võimalikke rikkumisi kooskõlas käesolevas määruses sätestatud volitustega, sealhulgas nõudes dokumentatsiooni ja teavet, viies läbi hindamisi ning nõudes üldotstarbeliste tehisintellektimudelite pakkujatelt meetmete võtmist. Selleks et kasutada sõltumatut oskusteavet, peaks tehisintellektiametil olema võimalik kaasata hindamise käigus sõltumatuid eksperte, kes hindamisi ameti nimel läbi viivad. Kohustuste täitmine peaks olema tagatud, muu hulgas nõudes asjakohaste meetmete võtmist, sealhulgas riskimaandusmeetmeid tuvastatud süsteemsete riskide korral, ning piirates mudeli turul kättesaadavaks tegemist, võttes selle turult tagasi või nõudes tagasi. Kui see on lisaks käesolevas määruses sätestatud menetlusõigustele vajalik, peaksid üldotstarbeliste tehisintellektimudelite pakkujatel olema kaitsemeetmena määruse (EL) 2019/1020 artiklis 18 sätestatud menetlusõigused, mida tuleks kohaldada mutatis mutandis, ilma et see piiraks käesolevas määruses sätestatud konkreetsemaid menetlusõigusi.
(164)
Urząd ds. AI powinien mieć możliwość podejmowania niezbędnych działań w celu monitorowania skutecznego wdrażania i spełniania obowiązków przez dostawców modeli AI ogólnego przeznaczenia określonych w niniejszym rozporządzeniu. Urząd ds. AI powinien mieć możliwość prowadzenia postępowań w sprawie ewentualnych naruszeń zgodnie z uprawnieniami przewidzianymi w niniejszym rozporządzeniu, w tym poprzez zwracanie się o dokumentację i informacje, przeprowadzanie ocen, a także zwracanie się do dostawców modeli AI ogólnego przeznaczenia o zastosowanie określonych środków. Aby wykorzystać niezależną wiedzę fachową w ramach prowadzenia ocen, Urząd ds. AI powinien mieć możliwość angażowania niezależnych ekspertów do przeprowadzania ocen w jego imieniu. Spełnienie obowiązków powinno być możliwe do wyegzekwowania m.in. poprzez wezwanie do podjęcia odpowiednich środków, w tym środków ograniczających ryzyko w przypadku zidentyfikowanego ryzyka systemowego, a także poprzez ograniczenie udostępniania modelu na rynku, wycofanie modelu z rynku lub z użytku. Jako zabezpieczenie, jeśli zaistnieją potrzeby wykraczające poza prawa proceduralne przewidziane w niniejszym rozporządzeniu, dostawcy modeli AI ogólnego przeznaczenia powinni dysponować prawami proceduralnymi przewidzianymi w art. 18 rozporządzenia (UE) 2019/1020, które powinny mieć zastosowanie odpowiednio, bez uszczerbku dla bardziej szczególnych praw proceduralnych przewidzianych w niniejszym rozporządzeniu.
(165)
Muude tehisintellektisüsteemide kui suure riskiga tehisintellektisüsteemide arendamine kooskõlas käesoleva määruse nõuetega võib aidata kaasa eetilise ja usaldusväärse tehisintellekti laialdasemale levikule liidus. Muude kui suure riskiga tehisintellektisüsteemide pakkujaid tuleks julgustada koostama käitumisjuhendeid, sealhulgas nendega seotud juhtimismehhanisme, mille eesmärk on edendada suure riskiga tehisintellektisüsteemide suhtes kohaldatavate mõne või kõigi kohustuslike nõuete vabatahtlikku kohaldamist, mida on kohandatud vastavalt süsteemide sihtotstarbele ja väiksemale kaasnevale riskile ning võttes arvesse kättesaadavaid tehnilisi lahendusi ja tööstuse parimaid tavasid, nagu mudeli- ja andmekaardid. Kõigi tehisintellektisüsteemide, olgu need siis suure riskiga või mitte, ja tehisintellektimudelite pakkujaid ja vajaduse korral juurutajaid tuleks samuti julgustada vabatahtlikult kohaldama täiendavaid nõudeid, mis on seotud näiteks liidu usaldusväärse tehisintellekti eetikasuunistes sätestatud elementidega, keskkonnakestlikkusega, tehisintellektipädevuse meetmetega, tehisintellektisüsteemide kaasava ja mitmekesise projekteerimise ja arendamisega, sealhulgas tähelepanu pööramisega vähekaitstud isikutele ja juurdepääsetavusega puuetega inimeste jaoks, sidusrühmade osalemisega, kaasates vajaduse korral asjaomaseid sidusrühmi, nagu äri- ja kodanikuühiskonna organisatsioonid, akadeemilised ringkonnad, teadusorganisatsioonid, ametiühingud ja tarbijakaitseorganisatsioonid tehisintellektisüsteemide projekteerimisse ja arendamisse, ning arendusmeeskondade mitmekesisusega, sealhulgas soolise tasakaaluga. Vabatahtlike tegevusjuhendite tõhususe tagamiseks peaksid need põhinema selgetel eesmärkidel ja peamistel tulemusnäitajatel, et mõõta nende eesmärkide saavutamist. Samuti tuleks neid vajaduse korral töötada välja kaasaval viisil, kaasates asjaomaseid sidusrühmi, nagu äri- ja kodanikuühiskonna organisatsioonid, akadeemilised ringkonnad, teadusorganisatsioonid, ametiühingud ja tarbijakaitseorganisatsioonid. Komisjon võib töötada välja algatusi, sealhulgas valdkondlikke algatusi, et aidata vähendada tehnilisi tõkkeid, mis takistavad tehisintellekti arendamise jaoks toimuvat piiriülest andmevahetust, keskendudes muu hulgas andmetele juurdepääsu taristule ning eri andmeliikide semantilisele ja tehnilisele koostalitlusvõimele.
(165)
Rozwój systemów AI innych niż systemy AI wysokiego ryzyka zgodnie z wymogami niniejszego rozporządzenia może doprowadzić do szerszego upowszechnienia etycznej i godnej zaufania AI w Unii. Dostawców systemów AI niebędących systemami wysokiego ryzyka należy zachęcać do opracowywania kodeksów postępowania, w tym powiązanych mechanizmów zarządzania, wspierających dobrowolne stosowanie niektórych lub wszystkich obowiązkowych wymogów mających zastosowanie do systemów AI wysokiego ryzyka, dostosowanych do przeznaczenia tych systemów i związanego z nimi niższego ryzyka oraz z uwzględnieniem dostępnych rozwiązań technicznych i najlepszych praktyk branżowych, takich jak karty modeli i karty charakterystyki. Dostawców wszystkich systemów AI, zarówno wysokiego ryzyka, jak i nie stanowiących wysokiego ryzyka, oraz modeli AI, a w stosownych przypadkach, podmioty stosujące te systemy i modele należy również zachęcać do dobrowolnego stosowania dodatkowych wymogów dotyczących na przykład elementów unijnych Wytycznych w zakresie etyki dotyczących godnej zaufania sztucznej inteligencji, zrównoważenia środowiskowego, środków wspierających kompetencje w zakresie AI, projektowania i rozwoju systemów AI z uwzględnieniem różnorodności i inkluzywności, w tym szczególnej uwagi poświęconej osobom szczególnie wrażliwym i dostępności dla osób z niepełnosprawnościami, udziału zainteresowanych stron w tym, w stosownych przypadkach, organizacji przedsiębiorców i społeczeństwa obywatelskiego, środowisk akademickich, organizacji badawczych, związków zawodowych i organizacji ochrony konsumentów w projektowaniu i rozwoju systemów AI oraz dotyczących różnorodności zespołów programistycznych, w tym pod względem równowagi płci. W celu zapewnienia skuteczności dobrowolnych kodeksów postępowania, powinny się one opierać się na jasnych celach i kluczowych wskaźnikach skuteczności działania służących do pomiaru stopnia osiągnięcia tych celów. Należy je również rozwijać w sposób inkluzywny, w stosownych przypadkach, z udziałem odpowiednich zainteresowanych stron, takich jak organizacje przedsiębiorców i społeczeństwa obywatelskiego, środowiska akademickie, organizacje badawcze, związki zawodowe i organizacje ochrony konsumentów. Komisja może opracowywać inicjatywy, również o charakterze sektorowym, aby ułatwiać zmniejszanie barier technicznych utrudniających transgraniczną wymianę danych na potrzeby rozwoju AI, w tym w zakresie infrastruktury dostępu do danych oraz interoperacyjności semantycznej i technicznej różnych rodzajów danych.
(166)
On oluline, et tehisintellektisüsteemid, mis on seotud toodetega, mis ei ole käesoleva määruse alusel suure riskiga ja mis seega ei pea vastama suure riskiga tehisintellektisüsteemide suhtes sätestatud nõuetele, oleksid siiski ohutud, kui need turule lastakse või kasutusele võetakse. Selle eesmärgi saavutamiseks kohaldatakse turvaabinõuna Euroopa Parlamendi ja nõukogu määrust (EL) 2023/988 (53).
(166)
Istotne jest, aby systemy AI powiązane z produktami, które nie są systemami wysokiego ryzyka w rozumieniu niniejszego rozporządzenia, a zatem nie muszą być zgodne z wymogami ustanowionymi w przypadku systemów AI wysokiego ryzyka, były mimo to bezpieczne w chwili wprowadzenia ich do obrotu lub oddawania ich do użytku. Aby przyczynić się do osiągnięcia tego celu, rozporządzenie Parlamentu Europejskiego i Rady (UE) 2023/988 (53) miałoby zastosowanie jako rozwiązanie zapasowe.
(167)
Pädevate asutuste usaldusliku ja konstruktiivse koostöö tagamiseks liidu ja riikide tasandil peaksid kõik käesoleva määruse kohaldamises osalejad austama oma ülesannete täitmise käigus saadud teabe ja andmete konfidentsiaalsust kooskõlas liidu või riigisisese õigusega. Nad peaksid täitma oma ülesandeid ja tegutsema viisil, mis kaitseb eelkõige intellektuaalomandi õigusi, konfidentsiaalset äriteavet ja ärisaladusi, käesoleva määruse tõhusat rakendamist, avaliku ja riigi julgeolekuga seotud huve, kriminaal- ja haldusmenetluste terviklust ning salastatud teabe terviklust.
(167)
W celu zapewnienia opartej na zaufaniu i konstruktywnej współpracy właściwych organów na poziomie Unii i poziomie krajowym wszystkie strony uczestniczące w stosowaniu niniejszego rozporządzenia powinny przestrzegać zasady poufności informacji i danych uzyskanych podczas wykonywania swoich zadań, zgodnie z prawem Unii lub prawem krajowym. Powinny one wykonywać swoje zadania i prowadzić działania w taki sposób, aby chronić w szczególności prawa własności intelektualnej, poufne informacje handlowe i tajemnice przedsiębiorstwa, skuteczne wykonywanie niniejszego rozporządzenia, interesy bezpieczeństwa publicznego i narodowego, integralność postępowań karnych i administracyjnych oraz integralność informacji niejawnych.
(168)
Käesoleva määruse järgimine peaks olema tagatud karistuste määramise ja muude täitemeetmete abil. Liikmesriigid peaksid võtma kõik vajalikud meetmed, et tagada käesoleva määruse sätete rakendamine, sealhulgas kehtestades mõjusad, proportsionaalsed ja hoiatavad karistused nende rikkumise eest, ning järgides ne bis in idem põhimõtet. Käesoleva määruse rikkumise eest määratavate halduskaristuste tugevdamiseks ja ühtlustamiseks tuleks kehtestada teatavate konkreetsete rikkumiste eest määratavate haldustrahvide ülemmäärad. Trahvisummade hindamisel peaksid liikmesriigid võtma igal üksikjuhul arvesse kõiki konkreetse olukorra asjakohaseid asjaolusid, võttes nõuetekohaselt arvesse eelkõige rikkumise laadi, raskusastet ja kestust ning selle tagajärgi ja pakkuja suurust, eelkõige juhul, kui pakkuja on VKE, sealhulgas idufirma. Euroopa Andmekaitseinspektoril peaks olema õigus määrata trahve käesoleva määruse kohaldamisalasse kuuluvatele liidu institutsioonidele, asutustele ja organitele.
(168)
Zgodność z niniejszym rozporządzeniem powinna być możliwa do wyegzekwowania poprzez nakładanie kar i innych środków egzekwowania prawa. Państwa członkowskie powinny podjąć wszelkie niezbędne środki, aby zapewnić wdrożenie przepisów niniejszego rozporządzenia, w tym poprzez ustanowienie skutecznych, proporcjonalnych i odstraszających kar za ich naruszenie, oraz poszanowanie zasady ne bis in idem. Aby wzmocnić i zharmonizować kary administracyjne za naruszenie niniejszego rozporządzenia należy ustanowić górne limity dla ustalania administracyjnych kar pieniężnych za niektóre konkretne naruszenia. Przy ocenie wysokości kar pieniężnych, państwa członkowskie powinny w każdym indywidualnym przypadku brać pod uwagę wszystkie istotne okoliczności danej sytuacji, z należytym uwzględnieniem w szczególności charakteru, wagi i czasu trwania naruszenia oraz jego skutków, a także wielkości dostawcy, w szczególności faktu, czy dostawca jest MŚP, w tym przedsiębiorstwem typu start-up. Europejski Inspektor Ochrony Danych powinien mieć uprawnienia do nakładania kar pieniężnych na instytucje, organy i jednostki organizacyjne Unii objęte zakresem stosowania niniejszego rozporządzenia.
(169)
Käesoleva määrusega kehtestatud üldotstarbeliste tehisintellektimudelite pakkujate kohustuste täitmine peaks olema tagatud muu hulgas trahvide abil. Selleks tuleks ette näha ka asjakohased trahvimäärad nende kohustuste rikkumise eest, sealhulgas komisjoni poolt käesoleva määruse kohaselt nõutud meetmete täitmata jätmise eest, kohaldades kooskõlas proportsionaalsuse põhimõttega asjakohaseid aegumistähtaegu. Kõik komisjoni poolt käesoleva määruse alusel tehtud otsused vaatab ELi toimimise lepingu kohaselt läbi Euroopa Liidu Kohus, sealhulgas seoses Euroopa Liidu Kohtu täieliku pädevusega karistuse määramisel ELi toimimise lepingu artikli 261 kohaselt.
(169)
Spełnienie obowiązków spoczywających na dostawcach modeli AI ogólnego przeznaczenia nałożonych na mocy niniejszego rozporządzenia powinna być możliwa do wyegzekwowania między innymi za pomocą kar pieniężnych. W tym celu należy również ustanowić odpowiednią wysokość kar pieniężnych za naruszenie tych obowiązków, w tym za niezastosowanie środków wymaganych przez Komisję zgodnie z niniejszym rozporządzeniem, z zastrzeżeniem odpowiednich terminów przedawnienia zgodnie z zasadą proporcjonalności. Wszystkie decyzje przyjmowane przez Komisję na podstawie niniejszego rozporządzenia podlegają kontroli Trybunału Sprawiedliwości Unii Europejskiej zgodnie z TFUE, w tym nieograniczonemu prawu orzekania zgodnie z art. 261 TFUE.
(170)
Liidu ja liikmesriigi õiguses on juba ette nähtud tõhusad õiguskaitsevahendid füüsilistele ja juriidilistele isikutele, kelle õigusi ja vabadusi tehisintellektisüsteemide kasutamine kahjustab. Ilma et see piiraks nimetatud õiguskaitsevahendite kohaldamist, peaks igal füüsilisel või juriidilisel isikul, kellel on alust arvata, et käesolevat määrust on rikutud, olema õigus asjaomasele turujärelevalveasutusele kaebus esitada.
(170)
W przepisach prawa Unii i prawa krajowego przewidziano już skuteczne środki odwoławcze dla osób fizycznych i prawnych, na których prawa i wolności negatywnie wpływa wykorzystanie systemów AI. Bez uszczerbku dla tych środków odwoławczych każda osoba fizyczna lub prawna, która ma podstawy, by uważać, że doszło do naruszenia niniejszego rozporządzenia, powinna być uprawniona do wniesienia skargi do odpowiedniego organu nadzoru rynku.
(171)
Mõjutatud isikutel peaks olema õigus selgitusele, kui juurutaja otsus põhineb peamiselt teatavate käesoleva määruse kohaldamisalasse kuuluvate suure riskiga tehisintellektisüsteemide väljundil ja kui see otsus tekitab õiguslikke tagajärgi või mõjutab neid isikuid sarnaselt märkimisväärselt viisil, mis nende arvates avaldab kahjulikku mõju nende tervisele, turvalisusele või põhiõigustele. See selgitus peaks olema selge ja sisukas ning andma aluse, mille põhjal saavad mõjutatud isikud oma õigusi kasutada. Õigust saada selgitust ei tohiks kohaldada selliste tehisintellektisüsteemide kasutamise suhtes, mille suhtes kehtivad liidu või liikmesriigi õigusest tulenevad erandid või piirangud, ning seda õigust tuleks kohaldada ainult siis, kui see ei ole liidu õiguses juba ette nähtud.
(171)
Osoby, na które AI ma wpływ, powinny mieć prawo do uzyskania wyjaśnienia, jeżeli decyzja podmiotu stosującego opiera się głównie na wynikach określonych systemów AI wysokiego ryzyka objętych zakresem stosowania niniejszego rozporządzenia i jeżeli decyzja ta wywołuje skutki prawne lub podobnie znacząco oddziałuje na te osoby w sposób, który ich zdaniem ma niepożądany wpływ na ich zdrowie, bezpieczeństwo lub prawa podstawowe. Wyjaśnienie to powinno być jasne i merytoryczne oraz powinno dawać osobom, na które AI ma wpływ, podstawę do korzystania z ich praw. Prawo do uzyskania wyjaśnienia nie powinno mieć zastosowania do wykorzystania systemów AI, co do których na mocy przepisów praw Unii lub prawa krajowego obowiązują wyjątki lub ograniczenia, i powinno mieć zastosowanie wyłącznie w zakresie, w jakim prawo to nie jest jeszcze przewidziane w przepisach prawa Unii.
(172)
Isikuid, kes tegutsevad käesoleva määruse rikkumisest teatajatena, tuleks liidu õiguse alusel kaitsta. Seega tuleks käesoleva määruse rikkumisest teatamise ja sellistest rikkumisest teatajate kaitse suhtes kohaldada Euroopa Parlamendi ja nõukogu direktiivi (EL) 2019/1937 (54).
(172)
Osoby działające w charakterze sygnalistów w związku z naruszeniami niniejszego rozporządzenia powinny być chronione na mocy prawa Unii. Do zgłaszania naruszeń przepisów niniejszego rozporządzenia oraz ochrony osób zgłaszających przypadki takich naruszeń powinno zatem stosować się dyrektywę Parlamentu Europejskiego i Rady (UE) 2019/1937 (54).
(173)
Tagamaks, et õigusraamistikku saab vajaduse korral kohandada, peaks komisjonil olema õigus võtta kooskõlas ELi toimimise lepingu artikliga 290 vastu delegeeritud õigusakte, et muuta tingimusi, mille alusel tehisintellektisüsteemi ei käsitata suure riskiga tehisintellektisüsteemina; suure riskiga tehisintellektisüsteemide loetelu; tehnilist dokumentatsiooni käsitlevaid sätteid; ELi vastavusdeklaratsiooni sisu; vastavushindamismenetlusi käsitlevaid sätteid; sätteid, millega määratakse kindlaks need suure riskiga tehisintellektisüsteemid, mille suhtes tuleks kohaldada kvaliteedijuhtimissüsteemi ja tehnilise dokumentatsiooni hindamisel põhinevat vastavushindamist; künnist, võrdlusaluseid ja näitajaid süsteemse riskiga üldotstarbeliste tehisintellektimudelite liigitamise õigusnormides, sealhulgas neid võrdlusaluseid ja näitajaid täiendades; kriteeriume süsteemse riskiga üldotstarbeliste tehisintellektimudelite liigitamiseks; üldotstarbeliste tehisintellektimudelite pakkujate tehnilist dokumentatsiooni ja üldotstarbeliste tehisintellektimudelite pakkujatele esitatavat läbipaistvusteavet.. On eriti oluline, et komisjon viiks oma ettevalmistava töö käigus läbi asjakohaseid konsultatsioone, sealhulgas ekspertide tasandil, ja et kõnealused konsultatsioonid viidaks läbi kooskõlas 13. aprilli 2016. aasta institutsioonidevahelises parema õigusloome kokkuleppes (55) sätestatud põhimõtetega. Eelkõige selleks, et tagada delegeeritud õigusaktide ettevalmistamises võrdne osalemine, saavad Euroopa Parlament ja nõukogu kõik dokumendid liikmesriikide ekspertidega samal ajal ning nende ekspertidel on pidev juurdepääs komisjoni eksperdirühmade koosolekutele, millel arutatakse delegeeritud õigusaktide ettevalmistamist.
(173)
Aby zapewnić możliwość dostosowania w razie potrzeby ram regulacyjnych, należy przekazać Komisji uprawnienia do przyjmowania aktów zgodnie z art. 290 TFUE w celu zmiany warunków, na podstawie których systemu AI nie uznaje się za system AI wysokiego ryzyka, zmiany wykazu systemów AI wysokiego ryzyka, przepisów dotyczących dokumentacji technicznej, treści deklaracji zgodności UE, przepisów dotyczących procedur oceny zgodności, przepisów określających systemy AI wysokiego ryzyka, do których powinna mieć zastosowanie procedura oceny zgodności oparta na ocenie systemu zarządzania jakością oraz ocenie dokumentacji technicznej, progu, poziomów odniesienia i wskaźników, które zostały określone w przepisach dotyczących klasyfikacji modeli AI ogólnego przeznaczenia z ryzykiem systemowym, w tym poprzez uzupełnienie tych poziomów odniesienia i wskaźników, kryteriów uznawania modeli za modele AI ogólnego przeznaczenia z ryzykiem systemowym, dokumentacji technicznej dostawców modeli AI ogólnego przeznaczenia oraz informacji dotyczących przejrzystości od dostawców modeli AI ogólnego przeznaczenia. Szczególnie ważne jest, aby w czasie prac przygotowawczych Komisja prowadziła stosowne konsultacje, w tym na poziomie ekspertów, oraz aby konsultacje te prowadzone były zgodnie z zasadami określonymi w Porozumieniu międzyinstytucjonalnym z dnia 13 kwietnia 2016 r. w sprawie lepszego stanowienia prawa (55). W szczególności, aby zapewnić Parlamentowi Europejskiemu i Radzie udział na równych zasadach w przygotowaniu aktów delegowanych, instytucje te otrzymują wszelkie dokumenty w tym samym czasie co eksperci państw członkowskich, a eksperci tych instytucji mogą systematycznie brać udział w posiedzeniach grup eksperckich Komisji zajmujących się przygotowaniem aktów delegowanych.
(174)
Võttes arvesse tehnoloogia kiiret arengut ja käesoleva määruse tõhusaks kohaldamiseks vajalikku tehnilist oskusteavet, peaks komisjon käesolevat määrust hindama ja vaatama selle läbi hiljemalt 2. augustiks 2029 ja seejärel iga nelja aasta järel ning esitama Euroopa Parlamendile ja nõukogule aruande. Võttes arvesse mõju käesoleva määruse kohaldamisalale, peaks komisjon lisaks kord aastas hindama vajadust muuta suure riskiga tehisintellektisüsteemide loetelu ja keelatud kasutusviiside loetelu. Lisaks peaks komisjon hiljemalt 2. augustiks 2028 ja seejärel iga nelja aasta järel hindama vajadust muuta käesoleva määruse lisas esitatud suure riskiga valdkondade rubriikide loetelu, läbipaistvuskohustuste kohaldamisalasse kuuluvaid tehisintellektisüsteeme, järelevalve- ja juhtimissüsteemi tõhusust ning üldotstarbeliste tehisintellektimudelite energiatõhusat arendamist käsitlevate standardimisdokumentide väljatöötamisel tehtud edusamme, sealhulgas vajadust täiendavate meetmete või tegevuste järele, ning esitama Euroopa Parlamendile ja nõukogule selle kohta aruande. Samuti peaks komisjon hiljemalt 2. augustiks 2028 ja pärast seda iga kolme aasta järel hindama, kui mõjusalt ja tulemuslikult on vabatahtlikkusel põhinevad käitumisjuhendid edendanud suure riskiga tehisintellektisüsteemidele kehtestatud nõuete kohaldamist tehisintellektisüsteemide puhul, mis ei ole suure riskiga tehisintellektisüsteemid, ja võimalik, et ka muude täiendavate nõuete kohaldamist selliste tehisintellektisüsteemide puhul.
(174)
Z uwagi na szybki rozwój technologiczny i wiedzę techniczną wymaganą do skutecznego stosowania niniejszego rozporządzenia, Komisja powinna dokonać oceny i przeglądu niniejszego rozporządzenia do dnia 2 sierpnia 2029 r., a następnie co cztery lata oraz składać sprawozdania Parlamentowi Europejskiemu i Radzie. Ponadto ze względu na skutki dla zakresu stosowania niniejszego rozporządzenia Komisja powinna raz w roku ocenić, czy konieczne jest wprowadzenie zmian w wykazie systemów AI wysokiego ryzyka i w wykazie zakazanych praktyk. Dodatkowo do dnia 2 sierpnia 2028 r., a następnie co cztery lata, Komisja powinna ocenić, czy należy wprowadzić zmiany w wykazie nagłówków dotyczących obszarów wysokiego ryzyka zawartym w załączniku do niniejszego rozporządzenia, zmiany w zakresie systemów AI objętych obowiązkami w zakresie przejrzystości, zmiany służące skuteczności systemu nadzoru i zarządzania oraz ocenić postępy w opracowywaniu dokumentów normalizacyjnych dotyczących efektywnego energetycznie rozwoju modeli AI ogólnego przeznaczenia, w tym potrzebę wprowadzenia dalszych środków lub działań, a następnie przekazać sprawozdania z tych ocen Parlamentowi Europejskiemu i Radzie. Ponadto do dnia 2 sierpnia 2028 r., a następnie co trzy lata, Komisja powinna oceniać wpływ i skuteczność dobrowolnych kodeksów postępowania pod względem wspierania stosowania wymogów przewidzianych w przypadku systemów AI wysokiego ryzyka do systemów AI innych niż systemy AI wysokiego ryzyka oraz ewentualnie innych dodatkowych wymogów dotyczących takich systemów AI.
(175)
Selleks et tagada käesoleva määruse ühetaolised rakendamistingimused, tuleks komisjonile anda rakendamisvolitused. Neid volitusi tuleks teostada kooskõlas Euroopa Parlamendi ja nõukogu määrusega (EL) nr 182/2011 (56).
(175)
W celu zapewnienia jednolitych warunków wykonywania niniejszego rozporządzenia należy powierzyć Komisji uprawnienia wykonawcze. Uprawnienia te powinny być wykonywane zgodnie z rozporządzeniem Parlamentu Europejskiego i Rady (UE) nr 182/2011 (56).
(176)
Kuna käesoleva määruse eesmärki, nimelt parandada siseturu toimimist ning edendada inimkeskse ja usaldusväärse tehisintellekti laialdast kasutuselevõttu, tagades samal ajal tervise, turvalisuse ja põhiõiguste hartas sätestatud põhiõiguste, sealhulgas demokraatia, õigusriigi põhimõtte, kõrgel tasemel kaitse ja keskkonnakaitse tehisintellektisüsteemide kahjuliku mõju vastu liidus ning toetades innovatsiooni, ei suuda liikmesriigid piisavalt saavutada, küll aga saab seda meetme ulatuse või toime tõttu paremini saavutada liidu tasandil, võib liit võtta meetmeid kooskõlas ELi lepingu artiklis 5 sätestatud subsidiaarsuse põhimõttega. Kõnealuses artiklis sätestatud proportsionaalsuse põhimõtte kohaselt ei lähe käesolev määrus nimetatud eesmärgi saavutamiseks vajalikust kaugemale.
(176)
Ponieważ cel niniejszego rozporządzenia, a mianowicie poprawa funkcjonowania rynku wewnętrznego i promowanie upowszechniania zorientowanej na człowieka i godnej zaufania AI, przy jednoczesnym zapewnieniu wysokiego poziomu ochrony zdrowia, bezpieczeństwa i praw podstawowych zapisanych w Karcie, w tym demokracji, praworządności i ochrony środowiska przed szkodliwymi skutkami systemów AI w Unii, oraz wspieranie innowacji, nie może zostać osiągnięty w sposób wystarczający przez państwa członkowskie, natomiast ze względu na rozmiary lub skutki działania możliwe jest jego lepsze osiągnięcie na poziomie Unii, może ona podjąć działania zgodnie z zasadą pomocniczości określoną w art. 5 TUE. Zgodnie z zasadą proporcjonalności określoną w tym artykule niniejsze rozporządzenie nie wykracza poza to, co jest konieczne do osiągnięcia tego celu.
(177)
Selleks et tagada õiguskindlus, tagada operaatoritele asjakohane kohanemisaeg ja vältida turuhäireid, sealhulgas tagades tehisintellektisüsteemide kasutamise järjepidevuse, on asjakohane, et käesolevat määrust kohaldatakse suure riskiga tehisintellektisüsteemide suhtes, mis on turule lastud või kasutusele võetud enne käesoleva määruse üldist kohaldamiskuupäeva, ainult juhul, kui pärast nimetatud kuupäeva muudetakse oluliselt nende projekti või sihtotstarvet. On asjakohane selgitada, et sellega seoses tuleks olulise muutmise mõistet käsitada sisuliselt samaväärsena olulise muudatuse mõistega, mida kasutatakse ainult käesoleva määruse kohaste suure riskiga tehisintellektisüsteemide puhul. Erandkorras ja avaliku sektori vastutust silmas pidades peaksid käesoleva määruse lisas loetletud õigusaktidega loodud suuremahuliste IT-süsteemide komponentideks olevate tehisintellektisüsteemide operaatorid ja avaliku sektori asutustele kasutamiseks mõeldud suure riskiga tehisintellektisüsteemide operaatorid võtma vajalikud meetmed, et täita käesoleva määruse nõuded 2030. aasta lõpuks ja hiljemalt 2. augustiks 2030.
(177)
Aby zapewnić pewność prawa, zapewnić operatorom odpowiedni okres na dostosowanie się i uniknąć zakłóceń na rynku, w tym dzięki zapewnieniu ciągłości korzystania z systemów AI, niniejsze rozporządzenie należy stosować do systemów AI wysokiego ryzyka, które zostały wprowadzone do obrotu lub oddane do użytku przed ogólną datą rozpoczęcia jego stosowania, tylko wtedy, gdy po tej dacie w systemach tych wprowadzane będą istotne zmiany dotyczące ich projektu lub przeznaczeniu. Należy wyjaśnić, że w tym względzie pojęcie istotnej zmiany należy rozumieć jako równoważne znaczeniowo z pojęciem istotnej zmiany, które stosuje się wyłącznie w odniesieniu do systemów AI wysokiego ryzyka zgodnie z niniejszym rozporządzeniem. W drodze wyjątku i z uwagi na odpowiedzialność publiczną, operatorzy systemów AI, które są elementami wielkoskalowych systemów informatycznych ustanowionych na mocy aktów prawnych wymienionych w załączniku do niniejszego rozporządzenia, oraz operatorzy systemów AI wysokiego ryzyka, które mają być wykorzystywane przez organy publiczne, powinni odpowiednio podjąć niezbędne kroki w celu spełnienia wymogów niniejszego rozporządzenia do końca 2030 r. i do dnia 2 sierpnia 2030 r.
(178)
Suure riskiga tehisintellektisüsteemide pakkujaid julgustatakse hakkama vabatahtlikult täitma käesoleva määruse asjakohaseid kohustusi juba üleminekuperioodi jooksul.
(178)
Dostawców systemów AI wysokiego ryzyka zachęca się, by już w okresie przejściowym przystąpili do dobrowolnego spełniania odpowiednich obowiązków ustanowionych w niniejszym rozporządzeniu.
(179)
Käesolevat määrust tuleks kohaldada alates 2. augustist 2026. Võttes aga arvesse vastuvõetamatut riski, mis on seotud tehisintellekti teatavate kasutusviisidega, tuleks keelde ja käesoleva määruse üldsätteid kohaldada juba alates 2. veebruarist 2025. Kuigi nende keeldude täielik mõju saavutatakse käesoleva määruse kohase juhtimise kehtestamise ja määruse jõustamisega, on oluline hakata keeldusid kohaldama juba varem, et võtta arvesse vastuvõetamatuid riske ja mõjutada muid menetlusi, näiteks tsiviilõiguses. Veelgi enam, juhtimise ja vastavushindamissüsteemiga seotud taristu tuleks tööle rakendada juba enne 2. augustit 2026 ning seepärast tuleks teada antud asutusi ja juhtimisstruktuuri käsitlevaid sätteid kohaldada alates 2. augustist 2025. Arvestades tehnoloogia kiiret arengut ja üldotstarbeliste tehisintellektimudelite kasutuselevõttu, tuleks üldotstarbeliste tehisintellektimudelite pakkujate kohustusi kohaldada alates 2. augustist 2025. Tegevusjuhendid peaksid olema valmis hiljemalt 2. maiks 2025, et võimaldada pakkujatel nõuetele vastavust õigeaegselt tõendada. Tehisintellektiamet peaks tagama, et liigitamise reeglid ja menetlused on tehnoloogia arengut silmas pidades ajakohased. Lisaks peaksid liikmesriigid nägema ette õigusnormid karistuste, kaasa arvatud haldustrahvide kohta, teatama neist komisjonile ning tagama, et need õigusnormid on käesoleva määruse kohaldamise kuupäevaks nõuetekohaselt ja tulemuslikult rakendatud. Seepärast tuleks karistusi käsitlevaid sätteid hakata kohaldama alates 2. augustist 2025.
(179)
Niniejsze rozporządzenie należy stosować od dnia 2 sierpnia 2026 r. Biorąc jednak pod uwagę niedopuszczalne ryzyko związane z niektórymi sposobami wykorzystania AI, zakazy oraz przepisy ogólne niniejszego rozporządzenia należy stosować już od dnia 2 lutego 2025 r. Chociaż pełne skutki tych zakazów zrealizowane zostaną w momencie ustanowienia zarządzania i egzekwowania niniejszego rozporządzenia, wcześniejsze ich stosowanie jest ważne, by uwzględnić niedopuszczalne ryzyko i wywrzeć wpływ na inne procedury, np. w prawie cywilnym. Ponadto infrastruktura związana z zarządzaniem i systemem oceny zgodności powinna być gotowa przed dniem 2 sierpnia 2026 r., w związku z czym przepisy dotyczące jednostek notyfikowanych oraz struktury zarządzania należy stosować od dnia 2 sierpnia 2025 r. Biorąc pod uwagę szybkie tempo postępu technologicznego i przyjęcie modeli AI ogólnego przeznaczenia, obowiązki dostawców modeli AI ogólnego przeznaczenia należy stosować od dnia 2 sierpnia 2025 r. Kodeksy praktyk powinny być gotowe do dnia 2 maja 2025 r., tak aby umożliwić dostawcom terminowe wykazanie zgodności. Urząd ds. AI powinien zapewniać aktualność zasad i procedur klasyfikacji w świetle rozwoju technologicznego. Ponadto państwa członkowskie powinny ustanowić przepisy dotyczące kar, w tym administracyjnych kar pieniężnych i powiadomić o nich Komisję oraz zapewnić ich właściwe i skuteczne wdrożenie przed dniem rozpoczęcia stosowania niniejszego rozporządzenia. Przepisy dotyczące kar należy zatem stosować od dnia 2 sierpnia 2025 r.
(180)
Euroopa Andmekaitseinspektori ja Euroopa Andmekaitsenõukoguga konsulteeriti kooskõlas määruse (EL) 2018/1725 artikli 42 lõigetega 1 ja 2 ning nad esitasid oma ühisarvamuse 18. juunil 2021,
(180)
Zgodnie z art. 42 ust. 1 i 2 rozporządzenia (UE) 2018/1725 skonsultowano się z Europejskim Inspektorem Ochrony Danych i Europejską Radą Ochrony Danych, którzy wydali wspólną opinię dnia 18 czerwca 2021 r.,
ON VASTU VÕTNUD KÄESOLEVA MÄÄRUSE:
PRZYJMUJĄ NINIEJSZE ROZPORZĄDZENIE:
1. Käesolevat määrust kohaldatakse järgmise suhtes:
1. Niniejsze rozporządzenie stosuje się do:
a)
pakkujad, kes tegelevad liidus tehisintellektisüsteemide turule laskmise või kasutusele võtmisega või üldotstarbeliste tehisintellektimudelite turule laskmisega, olenemata sellest, kas pakkuja on asutatud või asub liidus või kolmandas riigis;
a)
dostawców wprowadzających do obrotu lub oddających do użytku systemy AI lub wprowadzających do obrotu modele AI ogólnego przeznaczenia w Unii, niezależnie od tego, czy dostawcy ci mają siedzibę lub znajdują się w Unii czy w państwie trzecim;
b)
liidus asutatud või asuvad tehisintellektisüsteemide juurutajad;
b)
podmiotów stosujących systemy AI, które to podmioty mają siedzibę lub znajdują się w Unii;
c)
kolmandates riikides asutatud või asuvad tehisintellektisüsteemide pakkujad ja juurutajad, kui tehisintellektisüsteemi väljundit kasutatakse liidus;
c)
dostawców systemów AI i podmiotów stosujących systemy AI, którzy mają siedzibę lub znajdują się w państwie trzecim, w przypadku gdy wyniki wytworzone przez system AI są wykorzystywane w Unii;
d)
tehisintellektisüsteemide importijad ja turustajad;
d)
importerów i dystrybutorów systemów AI;
e)
toote valmistajad, kes lasevad turule või võtavad kasutusele tehisintellektisüsteemi koos oma tootega ja oma nime või kaubamärgi all;
e)
producentów produktu, którzy pod własną nazwą lub znakiem towarowym oraz wraz ze swoim produktem wprowadzają do obrotu lub oddają do użytku system AI;
f)
pakkujate volitatud esindajad, kes ei ole asutatud liidus;
f)
upoważnionych przedstawicieli dostawców niemających siedziby w Unii;
g)
liidus asuvad mõjutatud isikud.
g)
osób, na które AI ma wpływ i które znajdują się w Unii.
2. Artikli 6 lõike 1 kohaselt suure riskiga tehisintellektisüsteemideks liigitatud süsteemide puhul, mis on seotud I lisa B jaos loetletud liidu ühtlustamisõigusaktidega hõlmatud toodetega, kohaldatakse üksnes artiklit 6, artikleid 102-109 ja artiklit 112. Artiklit 57 kohaldatakse üksnes niivõrd, kuivõrd käesoleva määruse kohased suure riskiga tehisintellektisüsteemidele esitatavad nõuded on nendesse liidu ühtlustamisõigusaktidesse integreeritud.
2. W przypadku systemów AI zaklasyfikowanych jako systemy AI wysokiego ryzyka zgodnie z art. 6 ust. 1 związanych z produktami, które są objęte unijnym prawodawstwem harmonizacyjnym wymienionym w załączniku I sekcja B, stosuje się wyłącznie art. 6 ust. 1, art. 102–109 i art. 112. Art. 57 stosuje się wyłącznie w zakresie, w jakim wymogi dotyczące systemów AI wysokiego ryzyka ustanowione w niniejszym rozporządzeniu zostały włączone do tego unijnego prawodawstwa harmonizacyjnego.
3. Käesolevat määrust ei kohaldata valdkondade suhtes, mis ei kuulu liidu õiguse kohaldamisalasse, ning see ei mõjuta ühelgi juhul liikmesriikide pädevust seoses riikliku julgeolekuga, olenemata üksuse liigist, kellele liikmesriigid on usaldanud nende pädevustega seotud ülesannete täitmise.
3. Niniejszego rozporządzenia nie stosuje się do obszarów wykraczających poza zakres stosowania prawa Unii i w żadnym wypadku nie wpływa ono na kompetencje państw członkowskich w zakresie bezpieczeństwa narodowego, niezależnie od rodzaju podmiotu, któremu państwa członkowskie powierzyły wykonywanie zadań związanych z tymi kompetencjami.
Käesolevat määrust ei kohaldata tehisintellektisüsteemide suhtes üksnes siis ja niivõrd, kuivõrd need lastakse turule, võetakse kasutusele või neid kasutatakse muudatustega või ilma muudatusteta üksnes sõjalisel, kaitse- või riikliku julgeoleku eesmärgil, olenemata seda tegevust teostava üksuse liigist.
Niniejszego rozporządzenia nie stosuje się do systemów AI, jeżeli – i w zakresie, w jakim – wprowadzono je do obrotu, oddano do użytku lub są one wykorzystywane, ze zmianami lub bez zmian, wyłącznie do celów wojskowych, obronnych lub do celów bezpieczeństwa narodowego, niezależnie od rodzaju podmiotu prowadzącego te działania.
Käesolevat määrust ei kohaldata tehisintellektisüsteemide suhtes, mida ei lasta turule ega võeta kasutusele liidus, kui väljundit kasutatakse liidus üksnes sõjalise, kaitse- või riikliku julgeoleku eesmärgil, olenemata seda tegevust teostava üksuse liigist.
Niniejszego rozporządzenia nie stosuje się do systemów AI, które nie zostały wprowadzone do obrotu ani oddane do użytku w Unii, a których wyniki są wykorzystywane w Unii wyłącznie do celów wojskowych, obronnych lub de celów bezpieczeństwa narodowego, niezależnie od rodzaju podmiotu prowadzącego te działania.
4. Käesolevat määrust ei kohaldata kolmanda riigi ametiasutuste ega vastavalt lõikele 1 käesoleva määruse kohaldamisalasse kuuluvate rahvusvaheliste organisatsioonide suhtes, kui need asutused või organisatsioonid kasutavad tehisintellektisüsteeme liidu või ühe või mitme liikmesriigiga sõlmitud rahvusvahelise koostöö või õiguskaitse ja õigusalase koostöö alaste lepingute raames, tingimusel et selline kolmas riik või rahvusvaheline organisatsioon pakub piisavaid kaitsemeetmeid üksikisikute põhiõiguste ja -vabaduste kaitseks.
4. Niniejszego rozporządzenia nie stosuje się do organów publicznych w państwie trzecim ani do organizacji międzynarodowych objętych zakresem stosowania niniejszego rozporządzenia na podstawie ust. 1, jeżeli te organy lub organizacje wykorzystują systemy AI w ramach współpracy międzynarodowej lub umów międzynarodowych w sprawie ścigania przestępstw i współpracy sądowej zawartych z Unią lub z jednym państwem członkowskim bądź ich większą liczbą, pod warunkiem zapewnienia przez to państwo trzecie lub organizację międzynarodową odpowiednich zabezpieczeń w odniesieniu do ochrony podstawowych praw i wolności osób fizycznych.
5. Käesolev määrus ei mõjuta määruse (EL) 2022/2065 II peatükis sätestatud vahendusteenuste osutajate vastutust käsitlevate sätete kohaldamist.
5. Niniejsze rozporządzenie nie ma wpływu na stosowanie przepisów dotyczących odpowiedzialności dostawców usług pośrednich określonych w rozdziale II rozporządzenia (UE) 2022/2065.
6. Käesolevat määrust ei kohaldata tehisintellektisüsteemide või -mudelite, sealhulgas nende väljundite suhtes, mis on spetsiaalselt välja töötatud ja kasutusele võetud üksnes teadus- ja arendustegevuse eesmärgil.
6. Niniejszego rozporządzenia nie stosuje się do systemów AI lub modeli AI, w tym ich wyników, rozwiniętych i oddanych do użytku wyłącznie do celów badań naukowych i rozwojowych.
7. Käesolevas määruses sätestatud õiguste ja kohustustega seoses töödeldavate isikuandmete suhtes kohaldatakse isikuandmete kaitset, eraelu puutumatust ja side konfidentsiaalsust käsitlevat liidu õigust. Käesolev määrus ei mõjuta määrusi (EL) 2016/679 ja (EL) 2018/1725 ega direktiive 2002/58/EÜ ja (EL) 2016/680, ilma et see piiraks käesoleva määruse artikli 10 lõike 5 ja artikli 59 kohaldamist.
7. Prawo Unii w zakresie ochrony danych osobowych, prywatności i poufności komunikacji stosuje się do danych osobowych przetwarzanych w związku z prawami i obowiązkami ustanowionymi w niniejszym rozporządzeniu. Niniejsze rozporządzenie nie ma wpływu na rozporządzenia (UE) 2016/679 lub (UE) 2018/1725, ani na dyrektywy 2002/58/WE lub (UE) 2016/680, bez uszczerbku dla art. 10 ust. 5 i art. 59 niniejszego rozporządzenia.
8. Käesolevat määrust ei kohaldata tehisintellektisüsteemide või tehisintellektimudelitega seotud teadus-, testimis- või arendustegevuse suhtes enne nende turule laskmist või kasutusele võtmist. Selline tegevus toimub kooskõlas kohaldatava liidu õigusega. See väljajätmine ei hõlma tegelikes tingimustes testimist.
8. Niniejszego rozporządzenia nie stosuje się do żadnej działalności badawczej, testowej ani rozwojowej dotyczącej systemów AI lub modeli AI przed wprowadzeniem ich do obrotu lub oddaniem ich do użytku. Działalność tego rodzaju prowadzona jest zgodnie z mającym zastosowanie prawem Unii. Niniejsze wyłączenie nie obejmuje testów w warunkach rzeczywistych.
9. Käesolev määrus ei piira muudes tarbijakaitset ja tooteohutust käsitlevates liidu õigusaktides sätestatud õigusnormide kohaldamist.
9. Niniejsze rozporządzenie nie narusza przepisów ustanowionych w innych aktach prawnych Unii dotyczących ochrony konsumentów i bezpieczeństwa produktów.
10. Käesolevat määrust ei kohaldata isikliku, mitte kutsetegevuse käigus tehisintellektisüsteeme kasutavate füüsilistest isikutest juurutajate kohustuste suhtes.
10. Niniejsze rozporządzenie nie stosuje się do obowiązków podmiotów stosujących będących osobami fizycznymi, które korzystają z systemów AI w ramach czysto osobistej działalności pozazawodowej.
11. Käesolev määrus ei takista liidul või liikmesriikidel säilitamast või kehtestamast õigus- ja haldusnorme, mis on töötajatele soodsamad, et kaitsta nende õigusi seoses tehisintellektisüsteemide kasutamisega tööandjate poolt, või soodustamast või lubamast töötajate jaoks soodsamate kollektiivlepingute kohaldamist.
11. Niniejsze rozporządzenie nie uniemożliwia Unii ani państwom członkowskim utrzymywania lub wprowadzania przepisów ustawowych, wykonawczych lub administracyjnych, które są korzystniejsze dla pracowników pod względem ochrony ich praw w odniesieniu do korzystania z systemów AI przez pracodawców, ani zachęcania do stosowania korzystniejszych dla pracowników układów zbiorowych lub zezwalania na ich stosowanie.
12. Käesolevat määrust ei kohaldata tehisintellektisüsteemide suhtes, mis on tarbimisse lubatud vaba ja avatud lähtekoodiga litsentside alusel, välja arvatud juhul, kui need lastakse turule või võetakse kasutusele suure riskiga tehisintellektisüsteemidena või artikli 5 või 50 kohaldamisalasse kuuluva tehisintellektisüsteemina.
12. Niniejszego rozporządzenia nie stosuje się do systemów AI udostępnianych na podstawie bezpłatnych licencji otwartego oprogramowania, chyba że systemy te są wprowadzane do obrotu lub oddawane do użytku jako systemy AI wysokiego ryzyka lub jako system AI objęty art. 5 lub 50.
Tehisintellekti keelatud kasutusviisid
Zakazane praktyki w zakresie AI
1. Järgmised tehisintellekti kasutusviisid on keelatud:
1. Zakazuje się następujących praktyk w zakresie AI:
a)
selliste tehisintellektisüsteemide turule laskmine, kasutusele võtmine või kasutamine, milles on kasutatud inimese teadvusest kaugemale ulatuvale alalävisele tajule suunatud võtteid või sihilikult manipuleerivaid või petlikke võtteid, mille eesmärk või tagajärg on isiku või isikute rühma käitumise oluline moonutamine, kahjustades oluliselt nende võimet teha teadlik otsus ja pannes nad seeläbi tegema otsuse, mida nad ei oleks muul juhul teinud, viisil, mis põhjustab või mõistliku tõenäosusega põhjustab sellele isikule, teisele isikule või isikute rühmale olulist kahju;
a)
wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemu AI, który stosuje techniki podprogowe będące poza świadomością danej osoby lub celowe techniki manipulacyjne lub wprowadzające w błąd, czego celem lub skutkiem jest dokonanie znaczącej zmiany zachowania danej osoby lub grupy osób poprzez znaczące ograniczenie ich zdolności do podejmowania świadomych decyzji, powodując tym samym podjęcie przez nie decyzji, której inaczej by nie podjęły, w sposób, który wyrządza lub może wyrządzić u niej, u innej osoby lub u grupy osób poważną szkodę;
b)
selliste tehisintellektisüsteemide turule laskmine, kasutusele võtmine või kasutamine, mis kasutavad ära füüsilise isiku või konkreetse isikute rühma mis tahes haavatavusi, mis tulenevad nende vanusest, puudest või konkreetsest sotsiaalsest või majanduslikust olukorrast ning mille eesmärk või tagajärg on oluliselt moonutada selle isiku või sellesse rühma kuuluva isiku käitumist viisil, mis põhjustab või mõistliku tõenäosusega põhjustab sellele või mõnele teisele isikule olulist kahju;
b)
wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemu AI, który wykorzystuje słabości osoby fizycznej lub określonej grupy osób ze względu na ich wiek, niepełnosprawność lub szczególną sytuację społeczną lub ekonomiczną, którego celem lub skutkiem jest dokonanie znaczącej zmiany zachowania danej osoby lub osoby należącej do tej grupy w sposób, który wyrządza lub może z uzasadnionym prawdopodobieństwem wyrządzić u tej osoby lub u innej osoby poważną szkodę;
c)
selliste tehisintellektisüsteemide turule laskmine, kasutusele võtmine või kasutamine, millega hinnatakse või liigitatakse füüsilisi isikuid või isikute rühmi teatava aja jooksul, tuginedes nende sotsiaalsele käitumisele või teadaolevatele, tuletatud või prognoositud isiku- või iseloomuomadustele, kusjuures sotsiaalpunktide tulemuseks on üks või mõlemad järgmisest:
c)
wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemów AI na potrzeby oceny lub klasyfikacji osób fizycznych lub grup osób prowadzonej przez określony czas na podstawie ich zachowania społecznego lub znanych, wywnioskowanych lub przewidywanych cech osobistych lub cech osobowości, kiedy to scoring społeczny prowadzi do jednego lub obu z następujących skutków:
i)
teatavaid füüsilisi isikuid või isikute rühmi kahjustav või nende suhtes ebasoodne kohtlemine sotsiaalses kontekstis, mis ei ole seotud kontekstiga, milles andmed algselt loodi või koguti;
(i)
krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub grup osób w kontekstach społecznych, które nie są związane z kontekstami, w których pierwotnie wygenerowano lub zebrano dane;
ii)
teatavaid füüsilisi isikuid või isikute rühmi kahjustav või nende ebasoodne kohtlemine, mis ei ole põhjendatud või on ebaproportsionaalne võrreldes nende sotsiaalse käitumise või selle kaalukusega;
(ii)
krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub grup osób, które jest nieuzasadnione lub nieproporcjonalne do ich zachowania społecznego lub jego wagi;
d)
tehisintellektisüsteemide turule laskmine või kasutusele võtmine sellel konkreetsel eesmärgil või nende kasutamine füüsiliste isikute riskihindamiste tegemiseks, et hinnata või prognoosida riski, et füüsiline isik paneb toime kuriteo, tuginedes üksnes füüsilise isiku profiilianalüüsile või tema isikuomaduste ja erijoonte hindamisele; seda keeldu ei kohaldata tehisintellektisüsteemide suhtes, mida kasutatakse selleks, et toetada inimhinnangut isiku kuritegelikus tegevuses osalemise kohta, mis juba tugineb kuritegeliku tegevusega otseselt seotud objektiivsetele ja kontrollitavatele faktidele;
d)
wprowadzania do obrotu, oddawania do użytku w tym konkretnym celu lub wykorzystywania systemu AI do przeprowadzania ocen ryzyka w odniesieniu do osób fizycznych, by ocenić lub przewidzieć ryzyko popełnienia przestępstwa przez osobę fizyczną, wyłącznie na podstawie profilowania osoby fizycznej lub oceny jej cech osobowości i cech charakterystycznych; zakaz ten nie ma zastosowania do systemów AI wykorzystywanych do wspierania dokonywanej przez człowieka oceny udziału danej osoby w działalności przestępczej, która to ocena opiera się już na obiektywnych i weryfikowalnych faktach bezpośrednio związanych z działalnością przestępczą;
e)
selliste tehisintellektisüsteemide turule laskmine või kasutusele võtmine sellel konkreetsel eesmärgil või nende kasutamine, mis loovad või laiendavad näotuvastuse andmebaase internetist või videovalve salvestistest näokujutiste kindla suunitluseta ekstraheerimise kaudu;
e)
wprowadzania do obrotu, oddawania do użytku w tym konkretnym celu lub wykorzystywania systemów AI, które tworzą lub rozbudowują bazy danych służące rozpoznawaniu twarzy poprzez nieukierunkowane pozyskiwanie (ang. untargeted scraping) wizerunków twarzy z internetu lub nagrań z telewizji przemysłowej;
f)
tehisintellektisüsteemide turule laskmine või kasutusele võtmine sellel konkreetsel eesmärgil või nende kasutamine füüsilise isiku emotsioonide tuletamiseks töökoha ja haridusasutustega seoses, välja arvatud juhul, kui tehisintellektisüsteemi kavatsetakse kasutusele võtta või turule viia meditsiinilistel või ohutusega seotud põhjustel;
f)
wprowadzania do obrotu, oddawania do użytku w tym konkretnym celu lub wykorzystywania systemów AI do wyciągania wniosków na temat emocji osoby fizycznej w miejscu pracy lub instytucjach edukacyjnych, z wyjątkiem przypadków, w których system AI ma zostać wdrożony lub wprowadzony do obrotu ze względów medycznych lub bezpieczeństwa;
g)
selliste biomeetrilise liigitamise süsteemide turule laskmine või kasutuselevõtmine sellel konkreetsel eesmärgil või nende kasutamine, mis liigitavad füüsilisi isikuid individuaalselt nende biomeetriliste andmete alusel, et tuletada või järeldada nende rassi, poliitilisi vaateid, ametiühingusse kuulumist, usulisi või filosoofilisi veendumusi, seksuaalelu või seksuaalset sättumust; see keeld ei hõlma seaduslikult saadud biomeetriliste andmete, näiteks biomeetrilistel andmetel põhinevate piltide märgistamist või filtreerimist või biomeetriliste andmete kategoriseerimist õiguskaitse valdkonnas;
g)
wprowadzania do obrotu, oddawania do użytku w tym konkretnym celu lub wykorzystywania systemów kategoryzacji biometrycznej, które indywidualnie kategoryzują osoby fizyczne w oparciu o ich dane biometryczne, by wydedukować lub wywnioskować informacje na temat ich rasy, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych lub światopoglądowych, seksualności lub orientacji seksualnej; zakaz ten nie obejmuje przypadków etykietowania ani filtrowania pozyskanych zgodnie z prawem zbiorów danych biometrycznych, takich jak obrazy, w oparciu o dane biometryczne, ani kategoryzacji danych biometrycznych w obszarze ścigania przestępstw;
h)
avalikult juurdepääsetavas ruumis reaalajas toimuva biomeetrilise kaugtuvastamise süsteemide kasutamine õiguskaitse jaoks, välja arvatud juhul, kui selline kasutamine on vajalik rangelt ainult ühel järgmistest eesmärkidest, ja ainult selleks vajalikus ulatuses:
h)
wykorzystywania systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw, chyba że – i w zakresie, w jakim – takie wykorzystanie jest bezwzględnie konieczne do jednego z następujących celów:
i)
konkreetsete inimröövi, inimkaubanduse või seksuaalse ärakasutamise ohvrite sihipärane otsimine ning kadunud isikute otsimine;
(i)
ukierunkowanego poszukiwania konkretnych ofiar uprowadzeń, handlu ludźmi lub wykorzystywania seksualnego ludzi, a także poszukiwania osób zaginionych;
ii)
füüsiliste isikute elu või füüsilist turvalisust ähvardava konkreetse, suure ja vahetu ohu või tegeliku ja olemasoleva või tegeliku ja prognoositava terrorirünnaku ohu ärahoidmine;
(ii)
zapobiegnięcia konkretnemu, istotnemu i bezpośredniemu zagrożeniu życia lub bezpieczeństwa fizycznego osób fizycznych lub rzeczywistemu i aktualnemu lub rzeczywistemu i dającemu się przewidzieć zagrożeniu atakiem terrorystycznym;
iii)
kuriteo toimepanemises kahtlustatava isiku asukoha kindlaks tegemine või tuvastamine kriminaaluurimise või süüdistuse esitamise või kriminaalkaristuse täitmisele pööramise eesmärgil II lisas osutatud kuritegude eest, mis on asjaomases liikmesriigis karistatavad vabadusekaotuse või vabadust piirava julgeolekumeetmega, mille maksimaalne pikkus on vähemalt neli aastat.
(iii)
lokalizowania lub identyfikowania osoby podejrzanej o popełnienie przestępstwa w celu prowadzenia postępowania przygotowawczego lub ścigania lub wykonania kar w odniesieniu do przestępstw, o których mowa w załączniku II, podlegających w danym państwie członkowskim karze pozbawienia wolności lub środkowi polegającemu na pozbawieniu wolności przez okres, którego górna granica wynosi co najmniej cztery lata.
Esimese lõigu punkt h ei piira määruse (EL) 2016/679 artikli 9 kohaldamist biomeetriliste andmete töötlemise suhtes muudel kui õiguskaitse eesmärkidel.
Akapit pierwszy lit. h) pozostaje bez uszczerbku dla art. 9 rozporządzenia (UE) 2016/679 w odniesieniu do przetwarzania danych biometrycznych do celów innych niż ściganie przestępstw.
2. Kui kasutatakse reaalajas toimuva biomeetrilise kaugtuvastamise süsteemi avalikult juurdepääsetavas ruumis õiguskaitse jaoks ükskõik millisel lõike 1 esimese lõigu punktis h osutatud eesmärgil, toimub kasutus selles punktis sätestatud eesmärkidel üksnes selleks, et kinnitada konkreetselt sihtmärgiks oleva isiku isikusamasust, ning selle puhul võetakse arvesse järgmisi elemente:
2. Systemy zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw w odniesieniu do któregokolwiek z celów, o których mowa w ust. 1 akapit pierwszy lit. h), mogą być wykorzystywane do celów określonych w tej literze, jedynie w celu potwierdzenia tożsamości konkretnej poszukiwanej osoby, z uwzględnieniem przy tym następujących elementów:
a)
millist laadi on olukord, kus süsteemi võidakse kasutada; eeskätt see, milline oleks kahju raskusaste, tõenäosus ja ulatus juhul, kui süsteemi ei kasutataks;
a)
charakter sytuacji powodującej konieczność ewentualnego wykorzystania takiego systemu, w szczególności powagę, prawdopodobieństwo i skalę szkody, która zostałaby wyrządzona w przypadku niewykorzystania tego systemu;
b)
millised on süsteemi kasutamise tagajärjed kõigi asjaomaste isikute õiguste ja vabaduste seisukohast; eeskätt see, milline on tagajärgede raskusaste, tõenäosus ja ulatus.
b)
konsekwencje wykorzystania takiego systemu dla praw i wolności wszystkich zainteresowanych osób, w szczególności powagę, prawdopodobieństwo i skalę tych konsekwencji.
Ühtlasi peab reaalajas toimuva biomeetrilise kaugtuvastamise süsteemi kasutamine avalikult juurdepääsetavas ruumis õiguskaitse jaoks ükskõik millisel käesoleva artikli lõike 1 esimese lõigu punktis h osutatud eesmärgil olema vastavuses kasutamise suhtes kehtivate vajalike ja proportsionaalsete kaitsemeetmete ja tingimustega kooskõlas selle kasutamist lubava siseriikliku õigusega ning seda eeskätt ajaliste, geograafiliste ja isikutega seotud piirangute osas. Reaalajas toimuva biomeetrilise kaugtuvastamise süsteemi kasutamine avalikult juurdepääsetavas ruumis on lubatud üksnes juhul, kui õiguskaitseasutus on viinud lõpule põhiõigustele avalduva mõju hindamise, nagu on sätestatud artiklis 27 ja on registreerinud süsteemi ELi andmebaasis vastavalt artiklile 49. Põhjendatud kiireloomulistel juhtudel võib selliseid süsteeme siiski hakata kasutama ilma neid ELi andmebaasis registreerimata, eeldusel et sellist luba taotletakse põhjendamatu viivituseta.
Ponadto wykorzystywanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw w odniesieniu do któregokolwiek z celów, o których mowa w ust. 1 akapit pierwszy lit. h) niniejszego artykułu, musi przebiegać z zachowaniem niezbędnych i proporcjonalnych zabezpieczeń i warunków w odniesieniu do takiego wykorzystywania zgodnie z zezwalającym na takie wykorzystanie prawem krajowym, w szczególności w odniesieniu do ograniczeń czasowych, geograficznych i osobowych. Wykorzystanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej jest dozwolone tylko wtedy, gdy organ ścigania przeprowadził ocenę skutków dla praw podstawowych zgodnie z art. 27 oraz zarejestrował system w bazie danych UE zgodnie z przepisami art. 49. W należycie uzasadnionych nadzwyczajnych przypadkach można jednak rozpocząć korzystanie z takich systemów bez rejestracji w bazie danych UE, pod warunkiem że taka rejestracja zostanie dokonana bez zbędnej zwłoki.
3. Lõike 1 esimese lõigu punkti h ja lõike 2 kohaldamisel on reaalajas toimuva biomeetrilise kaugtuvastamise süsteemi igaks kasutamiseks avalikult juurdepääsetavas ruumis vaja eelnevat luba, mille annab selle liikmesriigi, kus kasutamine hakkab toimuma, õigusasutus või sõltumatu haldusasutus, kelle otsus on siduv, ja mis antakse põhjendatud taotluse põhjal kooskõlas lõikes 5 osutatud üksikasjalike siseriiklike õigusnormidega. Põhjendatud kiireloomulistel juhtudel võib siiski hakata sellist süsteemi kasutama ilma loata, tingimusel et sellist luba taotletakse põhjendamatu viivituseta ja hiljemalt 24 tunni jooksul. Kui selline luba lükatakse tagasi, lõpetatakse kasutamine viivitamata ning kõik andmed ning selle kasutamise tulemused ja väljundid jäetakse viivitamata kõrvale ja kustutatakse.
3. Na potrzeby ust. 1 akapit pierwszy lit. h) i ust. 2, każde wykorzystanie systemu zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw wymaga uzyskania uprzedniego zezwolenia udzielonego przez organ wymiaru sprawiedliwości lub wydający wiążące decyzje niezależny organ administracyjny państwa członkowskiego, w którym ma nastąpić wykorzystanie; zezwolenie to wydawane jest na uzasadniony wniosek i zgodnie ze szczegółowymi przepisami prawa krajowego, o których mowa w ust. 5. W należycie uzasadnionych pilnych przypadkach korzystanie z takiego systemu można jednak rozpocząć bez zezwolenia, pod warunkiem że wniosek o takie zezwolenie zostanie złożony bez zbędnej zwłoki, najpóźniej w ciągu 24 godzin. W przypadku odmowy udzielenia takiego zezwolenia wykorzystywanie systemu wstrzymuje się ze skutkiem natychmiastowym, a wszystkie dane, a także rezultaty i wyniki uzyskane podczas tego wykorzystania musza zostać natychmiast odrzucone i usunięte.
Pädev õigusasutus või sõltumatu haldusasutus, kelle otsus on siduv, annab loa üksnes juhul, kui on talle esitatud objektiivsete tõendite või selgete asjaolude põhjal veendunud, et kõnealuse reaalajas toimuva biomeetrilise kaugtuvastamise süsteemi kasutamine on vajalik ja proportsionaalne mõne lõike 1 esimese lõigu punktis h täpsustatud ja taotluses nimetatud eesmärgi saavutamiseks, ning et eelkõige piirdub süsteemi kasutamine sellega, mis on rangelt vajalik seoses ajavahemiku ning geograafilise ja isikulise kohaldamisalaga. Kõnealune asutus võtab taotluse kohta otsuse tegemisel arvesse lõikes 2 osutatud elemente. Ühtki isiku suhtes kahjulikke õiguslikke tagajärgi põhjustavat otsust ei tohi teha üksnes reaalajas toimuva biomeetrilise kaugtuvastamise süsteemi tulemuste põhjal.
Właściwy organ wymiaru sprawiedliwości lub wydający wiążące decyzje niezależny organ administracyjny udziela zezwolenia tylko wtedy, gdy jest przekonany, na podstawie obiektywnych dowodów lub jasnych przesłanek, które mu przedstawiono, że wykorzystanie danego systemu zdalnej identyfikacji biometrycznej w czasie rzeczywistym jest konieczne i proporcjonalne do osiągnięcia jednego z celów określonych w ust. 1 akapit pierwszy lit. h), wskazanego we wniosku, a w szczególności ogranicza się do tego, co jest bezwzględnie konieczne w odniesieniu do przedziału czasowego, a także zakresu geograficznego i podmiotowego. Podejmując decyzję w sprawie wniosku organ ten bierze pod uwagę elementy, o których mowa w ust. 2. Nie można wydać decyzji wywołującej niepożądane skutki prawne dla danej osoby wyłącznie na podstawie wyników uzyskanych z systemu zdalnej identyfikacji biometrycznej w czasie rzeczywistym.
4. Ilma et see piiraks lõike 3 kohaldamist, teavitatakse asjaomast turujärelevalveasutust ja riiklikku andmekaitseasutust igast reaalajas toimuva biomeetrilise kaugtuvastamise süsteemi kasutamisest avalikult juurdepääsetavas ruumis õiguskaitse eesmärgil kooskõlas lõikes 5 osutatud siseriiklike õigusnormidega. Teates esitatakse vähemalt lõikes 6 täpsustatud teave ning teade ei sisalda tundlikke operatiivandmeid.
4. Bez uszczerbku dla ust. 3, o każdym wykorzystaniu systemu zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw powiadamia się właściwy organ nadzoru rynku i krajowy organ ochrony danych zgodnie z przepisami prawa krajowego, o których mowa w ust. 5. Powiadomienie zawiera co najmniej informacje określone w ust. 6 i nie może zawierać wrażliwych danych operacyjnych.
5. Liikmesriik võib otsustada näha ette võimaluse täielikult või osaliselt lubada reaalajas toimuva biomeetrilise kaugtuvastamise süsteemi kasutamist avalikult juurdepääsetavas ruumis õiguskaitse jaoks lõike 1 esimese lõigu punktis h ning lõigetes 2 ja 3 loetletud piirides ja tingimustel. Asjaomased liikmesriigid kehtestavad oma siseriiklikus õiguses lõikes 3 osutatud lubade taotlemise, andmise ja kasutamise ning nende lubadega seotud järelevalve ja aruandluse jaoks vajalikud üksikasjalikud õigusnormid. Kõnealustes õigusnormides tuleb täpsustada, milliste lõike 1 esimese lõigu punktis h loetletud eesmärkide, sealhulgas milliste punkti h alapunktis iii osutatud kuritegude puhul võib anda pädevatele asutustele loa kasutada neid süsteeme õiguskaitse jaoks. Liikmesriigid teatavad nendest õigusnormidest komisjonile hiljemalt 30 päeva jooksul pärast nende vastuvõtmist. Liikmesriigid võivad kooskõlas liidu õigusega kehtestada biomeetrilise kaugtuvastamise süsteemide kasutamise kohta piiravamaid õigusakte.
5. Państwo członkowskie może podjąć decyzję o wprowadzeniu możliwości pełnego lub częściowego zezwolenia na wykorzystywanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw w granicach i na warunkach wymienionych w ust. 1 akapit pierwszy lit. h) i w ust. 2 i 3. Zainteresowane państwa członkowskie ustanawiają w swoim prawie krajowym niezbędne szczegółowe przepisy dotyczące wniosku o udzielenie zezwoleń, o których mowa w ust. 3, wydawanie i wykonywanie tych zezwoleń oraz ich nadzorowanie składanie sprawozdań w ich sprawie. W przepisach tych określa się również, w odniesieniu do których celów wymienionych w ust. 1 akapit pierwszy lit. h) – w tym w odniesieniu do których przestępstw wymienionych w ust. 1 akapit pierwszy lit. h) ppkt (iii) – właściwe organy mogą uzyskać zezwolenie na wykorzystanie tych systemów do celów celu ścigania przestępstw. Państwa członkowskie powiadamiają Komisję o tych przepisach najpóźniej 30 dni po ich przyjęciu. Państwa członkowskie mogą wprowadzić, zgodnie z prawem Unii, bardziej restrykcyjne przepisy dotyczące wykorzystania systemów zdalnej identyfikacji biometrycznej.
6. Riiklikud turujärelevalveasutused ja liikmesriikide riiklikud andmekaitseasutused, keda on lõike 4 kohaselt teavitatud reaalajas toimuva biomeetrilise kaugtuvastamise süsteemide kasutamisest avalikult juurdepääsetavas ruumis õiguskaitse eesmärkidel, esitavad komisjonile sellise kasutamise kohta aastaaruanded. Selleks esitab komisjon liikmesriikidele ning riiklikele turujärelevalve- ja andmekaitseasutustele vormi, mis sisaldab teavet pädevate õigusasutuste või sõltumatu haldusasutuse poolt, kelle otsus on siduv, lõike 3 kohaste loataotluste suhtes tehtud otsuste arvu ja nende tulemuste kohta.
6. Krajowe organy nadzoru rynku i krajowe organy ochrony danych państw członkowskich, które zostały powiadomione o wykorzystaniu systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw zgodnie z ust. 4, przedkładają Komisji roczne sprawozdania z takiego wykorzystania. W tym celu Komisja przekazuje państwom członkowskim i krajowym organom nadzoru rynku i organom ochrony danych wzór formularza zawierającego informacje na temat liczby decyzji podjętych przez właściwe organy wymiaru sprawiedliwości lub wydający wiążące decyzje niezależny organ administracyjny w odniesieniu do wniosków o udzielenie zezwolenia zgodnie z ust. 3 oraz wyników ich rozpatrzenia.
7. Komisjon avaldab lõikes 6 osutatud aastaaruannete põhjal aastaaruanded reaalajas toimuva biomeetrilise kaugtuvastamise süsteemide kasutamise kohta avalikult juurdepääsetavates ruumides õiguskaitse eesmärgil, tuginedes liikmesriikide koondandmetele. Nimetatud aastaaruanded ei sisalda asjaomase õiguskaitsealase tegevuse tundlikke operatiivandmeid.
7. Komisja publikuje roczne sprawozdania na temat wykorzystania systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw, oparte na zagregowanych danych w państwach członkowskich przekazanych w sprawozdaniach rocznych, o których mowa w ust. 6. Te sprawozdania roczne nie mogą zawierać wrażliwych danych operacyjnych dotyczących powiązanych działań w zakresie ścigania przestępstw.
8. Käesolev artikkel ei mõjuta keelde, mida kohaldatakse juhul, kui tehisintellektiga seotud tegevus rikub muud liidu õigust.
8. Niniejszy artykuł nie ma wpływu na zakazy mające zastosowanie w przypadku, gdy praktyka w zakresie AI narusza inne przepisy prawa Unii.
Suure riskiga tehisintellektisüsteemide liigitamise reeglid
Zasady klasyfikacji systemów AI wysokiego ryzyka
1. Olenemata sellest, kas tehisintellektisüsteem lastakse turule või võetakse kasutusse punktides a ja b osutatud toodetest sõltumatult, peetakse seda tehisintellektisüsteemi suure riskiga süsteemiks, kui täidetud on mõlemad järgmised tingimused:
1. Bez względu na to, czy system AI wprowadza się do obrotu lub oddaje do użytku niezależnie od produktów, o których mowa w lit. a) i b), taki system AI uznaje się za system wysokiego ryzyka, jeżeli spełnione są oba poniższe warunki:
a)
tehisintellektisüsteem on mõeldud kasutamiseks toote turvakomponendina või tehisintellektisüsteem on ise toode, mis on hõlmatud I lisas loetletud liidu ühtlustamisõigusaktidega;
a)
system AI jest przeznaczony do wykorzystania jako związany z bezpieczeństwem element produktu objętego unijnym prawodawstwem harmonizacyjnym wymienionym w załączniku I lub sam system AI jest takim produktem;
b)
toode, mille turvakomponent tehisintellektisüsteem vastavalt punktile a on, või tehisintellektisüsteem ise kui toode peab läbima kolmanda isiku tehtava vastavushindamise, et selle saaks turule lasta või kasutusele võtta vastavalt I lisas loetletud liidu ühtlustamisõigusaktidele.
b)
produkt, którego związanym z bezpieczeństwem elementem jest zgodnie z lit. a) system AI, lub sam system AI jako produkt podlegają – na podstawie unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I – ocenie zgodności przez stronę trzecią w związku z wprowadzeniem tego produktu do obrotu lub oddaniem go do użytku.
2. Lisaks lõikes 1 osutatud suure riskiga tehisintellektisüsteemidele peetakse suure riskiga süsteemideks ka III lisas osutatud tehisintellektisüsteeme.
2. Oprócz systemów AI wysokiego ryzyka, o których mowa w ust. 1, za systemy wysokiego ryzyka uznaje się systemy AI, o których mowa w załączniku III.
3. Erandina lõikest 2 ei peeta III lisas osutatud tehisintellektisüsteemi suure riskiga süsteemiks, kui see ei ohusta oluliselt füüsiliste isikute tervist, ohutust või põhiõigusi, sealhulgas ei mõjuta oluliselt otsuste tegemise tulemust.
3. Na zasadzie odstępstwa od ust. 2 systemu AI, o którym mowa w załączniku III, nie uznaje się za system wysokiego ryzyka, w przypadku gdy nie stwarza on znaczącego ryzyka szkody dla zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych, w tym poprzez brak znaczącego wpływu na wynik procesu decyzyjnego.
Esimest lõiget kohaldatakse siis, kui on täidetud ükskõik milline järgmistest tingimustest:
Akapit pierwszy stosuje się w przypadku, gdy spełniony jest którykolwiek z następujących warunków:
a)
tehisintellektisüsteem on ette nähtud täitma kitsast menetlusülesannet;
a)
system AI jest przeznaczony do wykonywania wąsko określonego zadania proceduralnego;
b)
tehisintellektisüsteem on ette nähtud parandama varem lõpetatud inimtegevuse tulemusi;
b)
system AI jest przeznaczony do poprawienia wyniku zakończonej uprzednio czynności wykonywanej przez człowieka;
c)
tehisintellektisüsteem on ette nähtud tuvastama otsustuste tegemise mustreid või kõrvalekaldeid varasematest otsustusmustritest ning see ei ole mõeldud varem lõpetatud inimhinnangu asendamiseks või mõjutamiseks ilma nõuetekohase inimkontrollita, või
c)
system AI jest przeznaczony do wykrywania wzorców podejmowania decyzji lub odstępstw od wzorców podjętych uprzednio decyzji i nie ma na celu zastąpienia ani wywarcia wpływu na zakończoną uprzednio ocenę dokonaną przez człowieka – bez odpowiedniej weryfikacji przez człowieka; lub
d)
tehisintellektisüsteem on ette nähtud III lisas loetletud kasutusjuhtumite puhul asjakohase hindamise ettevalmistava ülesande täitmiseks.
d)
system AI jest przeznaczony do wykonywania zadań przygotowawczych w kontekście oceny istotnej z punktu widzenia przypadków wykorzystania wymienionych w załączniku III.
Olenemata esimesest lõigust käsitatakse III lisas osutatud tehisintellektisüsteemi alati suure riskiga tehisintellektisüsteemina, kui tehisintellektisüsteem teeb füüsiliste isikute profiilianalüüsi.
Niezależnie od akapitu pierwszego system AI, o którym mowa w załączniku III, zawsze uznaje się za system wysokiego ryzyka, w przypadku gdy system ten dokonuje profilowania osób fizycznych.
4. Pakkuja, kes leiab, et III lisas osutatud tehisintellektisüsteem ei ole suure riskiga, dokumenteerib oma hinnangu enne selle süsteemi turule laskmist või kasutusele võtmist. Sellise pakkuja suhtes kohaldatakse artikli 49 lõikes 2 sätestatud registreerimiskohustust. Riigi pädevate asutuste taotluse korral esitab pakkuja hindamise dokumendid.
4. Dostawca, który uważa, że system AI, o którym mowa w załączniku III, nie jest system wysokiego ryzyka, przed wprowadzeniem tego systemu do obrotu lub oddaniem go do użytku dokumentuje swoją ocenę. Taki dostawca podlega obowiązkowi rejestracji określonemu w art. 49 ust. 2. Na wniosek właściwych organów krajowych dostawca przedstawia dokumentację tej oceny.
5. Komisjon esitab pärast konsulteerimist Euroopa tehisintellekti nõukojaga (edaspidi „nõukoda“) ja hiljemalt 2. veebruariks 2026 suunised, milles täpsustatakse käesoleva artikli praktilist rakendamist kooskõlas artikliga 96, koos põhjaliku loeteluga nii suure riskiga kui ka muude tehisintellektisüsteemide kasutusjuhtumite praktiliste näidete kohta.
5. Po konsultacji z Europejską Radą ds. Sztucznej Inteligencji (zwaną dalej „Radą ds. AI”), Komisja przedstawi nie później niż w dniu 2 lutego 2026 r. wytyczne określające praktyczne wdrożenie niniejszego artykułu zgodnie z art. 96 wraz z kompleksowym wykazem praktycznych przykładów przypadków wykorzystania systemów AI, które stanowią przypadki wykorzystania wysokiego ryzyka oraz które nie stanowią przypadków takiego wykorzystania.
6. Komisjonil on õigus võtta kooskõlas artikliga 97 vastu delegeeritud õigusakte, et muuta käesoleva artikli lõike 3 teist lõiku, lisades selles sätestatud tingimustele uusi tingimusi või neid muuta, kui on konkreetseid ja usaldusväärseid tõendeid selliste tehisintellektisüsteemide olemasolu kohta, mis kuuluvad III lisa kohaldamisalasse, kuid ei kujuta endast märkimisväärset ohtu füüsiliste isikute tervisele, ohutusele või põhiõigustele.
6. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 97 w celu zmiany akapitu drugiego ust. 3 niniejszego artykułu poprzez dodanie nowych warunków do warunków ustanowionych w tym przepisie lub ich zmianę, w przypadku gdy istnieją konkretne i wiarygodne dowody na istnienie systemów AI, które wchodzą w zakres stosowania załącznika III, ale nie stwarzają znaczącego ryzyka szkody dla zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych.
7. Komisjon võtab kooskõlas artikliga 97 vastu delegeeritud õigusaktid, et muuta käesoleva artikli lõike 3 teist lõiku, jättes välja kõik selles sätestatud tingimused, kui on olemas konkreetsed ja usaldusväärsed tõendid selle kohta, et see on vajalik käesolevas määruses sätestatud tervise, ohutuse ja põhiõiguste kaitse taseme säilitamiseks.
7. Komisja przyjmuje zgodnie z art 97 akty delegowane w celu zmiany akapitu drugiego ust. 3 niniejszego artykułu poprzez usunięcie któregokolwiek z warunków ustanowionych w tym przepisie, w przypadku gdy istnieją konkretne i wiarygodne dowody na to, że jest to konieczne w celu utrzymania poziomu ochrony zdrowia, bezpieczeństwa i praw podstawowych przewidzianego w niniejszym rozporządzeniu.
8. Ükski lõike 3 teises lõigus sätestatud tingimuste muudatus, mis on vastu võetud käesoleva artikli lõigete 6 ja 7 kohaselt, ei tohi vähendada käesolevas määruses sätestatud tervise, ohutuse ja põhiõiguste kaitse üldist taset ning peab tagama järjepidevuse kooskõlas artikli 7 lõike 1 kohaselt vastu võetud delegeeritud õigusaktidega ning võtma arvesse turu ja tehnoloogia arengut.
8. Zmiana warunków ustanowionych w ust. 3 akapit drugi, przyjęta zgodnie z ust. 6 i 7 niniejszego artykułu, nie może prowadzić do obniżenia ogólnego poziomu ochrony zdrowia, bezpieczeństwa i praw podstawowych przewidzianego w niniejszym rozporządzeniu i musi zapewniać spójność z aktami delegowanymi przyjętymi zgodnie z art. 7 ust. 1 oraz uwzględniać rozwój rynku i technologii.
System zarządzania ryzykiem
1. Suure riskiga tehisintellektisüsteemide jaoks luuakse riskijuhtimissüsteem, seda rakendatakse ja see dokumenteeritakse ning seda hoitakse alal.
1. Ustanawia się, wdraża, dokumentuje i obsługuje system zarządzania ryzykiem w odniesieniu do systemów AI wysokiego ryzyka.
2. Riskijuhtimissüsteemi käsitatakse pidevalt korduva protsessina, mida kavandatakse ja käitatakse suure riskiga tehisintellektisüsteemi kogu elutsükli jooksul ning mida tuleb korrapäraselt läbi vaadata ja süstemaatiliselt ajakohastada. See peab sisaldama järgmisi etappe:
2. Przez system zarządzania ryzykiem rozumie się ciągły, iteracyjny proces, planowany i realizowany przez cały cykl życia systemu AI wysokiego ryzyka, wymagający regularnego systematycznego przeglądu i aktualizacji. Obejmuje on następujące etapy:
a)
selliste teadaolevate ja mõistlikult prognoositavate riskide kindlakstegemine ja analüüs, mida suure riskiga tehisintellektisüsteem võib kujutada tervisele, ohutusele või põhiõigustele, kui suure riskiga tehisintellektisüsteemi kasutatakse kooskõlas selle sihtotstarbega;
a)
identyfikację i analizę znanego i dającego się racjonalnie przewidzieć ryzyka, jakie dany system AI wysokiego ryzyka może stwarzać dla zdrowia, bezpieczeństwa lub praw podstawowych podczas jego stosowania zgodnie z przeznaczeniem;
b)
selliste riskide prognoosimine ja hindamine, mis võivad tekkida, kui suure riskiga tehisintellektisüsteemi kasutatakse vastavalt selle sihtotstarbele, aga ka mõistlikult prognoositava väärkasutamise tingimustes;
b)
oszacowanie i ocenę ryzyka, jakie może wystąpić podczas wykorzystywania systemu AI wysokiego ryzyka zgodnie z przeznaczeniem i w warunkach dającego się racjonalnie przewidzieć niewłaściwego wykorzystania;
c)
muude tekkida võivate riskide hindamine artiklis 72 osutatud turustamisjärgse seire süsteemist saadud andmete analüüsi põhjal;
c)
ocenę innego mogącego wystąpić ryzyka na podstawie analizy danych zebranych z systemu monitorowania po wprowadzeniu do obrotu, o którym mowa w art. 72;
d)
asjakohaste ja sihipäraste riskijuhtimismeetmete vastuvõtmine punkti a kohaselt kindlaks tehtud riskide käsitlemiseks.
d)
przyjęcie odpowiednich i ukierunkowanych środków zarządzania ryzykiem zaprojektowanych w celu przeciwdziałania ryzyku zidentyfikowanemu zgodnie z lit. a).
3. Käesolevas artiklis osutatud riskid hõlmavad ainult neid riske, mida on võimalik mõistlikult maandada või kõrvaldada suure riskiga tehisintellektisüsteemi arendamise või projekteerimise või piisava tehnilise teabe esitamise abil.
3. Ryzyko, o którym mowa w niniejszym artykule, oznacza tylko takie rodzaje ryzyka, które można stosownie ograniczyć lub wyeliminować poprzez rozwój lub zaprojektowanie systemu AI wysokiego ryzyka lub poprzez zapewnienie odpowiednich informacji technicznych.
4. Lõike 2 punktis d osutatud riskijuhtimismeetmetes võetakse nõuetekohaselt arvesse käesolevas jaos sätestatud nõuete kombineeritud kohaldamisest tulenevat mõju ja võimalikku koostoimet, pidades silmas riskide tõhusamat minimeerimist, saavutades samas asjakohase tasakaalu nende nõuete täitmiseks võetavate meetmete rakendamisel.
4. W ramach środków zarządzania ryzykiem, o których mowa w ust. 2 lit. d), należycie uwzględnia się skutki i możliwe interakcje wynikające z łącznego stosowania wymogów ustanowionych w niniejszej sekcji, w celu skuteczniejszego minimalizowania ryzyka przy jednoczesnym osiągnięciu odpowiedniej równowagi we wdrażaniu środków służących spełnieniu tych wymogów.
5. Lõike 2 punktis d osutatud riskijuhtimismeetmed on sellised, et iga ohuga seotud asjakohast jääkriski ja suure riskiga tehisintellektisüsteemide üldist jääkriski peetakse vastuvõetavaks.
5. Środki zarządzania ryzykiem, o których mowa w ust. 2 lit. d), muszą być takie, aby odpowiednie ryzyko szczątkowe związane z każdym zagrożeniem, jak również ogólne ryzyko szczątkowe systemów AI wysokiego ryzyka, oceniano jako dopuszczalne.
Kõige asjakohasemate riskijuhtimismeetmete kindlaksmääramisel tuleb tagada järgmine:
Przy określaniu najodpowiedniejszych środków zarządzania ryzykiem zapewnia się, co następuje:
a)
lõike 2 kohaselt tuvastatud ja hinnatud riskide kõrvaldamine või vähendamine nii palju kui tehniliselt võimalik suure riskiga tehisintellektisüsteemi sobiva projekteerimise ja arendamise abil;
a)
eliminację lub ograniczenie – w zakresie, w jakim jest to technicznie wykonalne – ryzyka zidentyfikowanego i ocenionego zgodnie z ust. 2 poprzez odpowiedni projekt i rozwój systemu AI wysokiego ryzyka;
b)
asjakohasel juhul sobivate riskimaandamis- ja kontrollimeetmete rakendamine, et käsitleda selliseid riske, mida ei saa kõrvaldada;
b)
w stosownych przypadkach – wdrożenie odpowiednich środków służących ograniczeniu i kontroli ryzyka, którego nie można wyeliminować;
c)
artikli 13 kohaselt nõutava teabe andmine ning asjakohasel juhul juurutajate koolitamine.
c)
dostarczenie informacji wymaganych zgodnie z art. 13 oraz, w stosownych przypadkach, przeszkolenie podmiotów stosujących.
Suure riskiga tehisintellektisüsteemi kasutamisega seotud riskide kõrvaldamisel või vähendamisel võetakse nõuetekohaselt arvesse juurutajalt eeldatavaid tehnilisi teadmisi, kogemusi, haridust ja koolitust, ning eeldatavat kasutuskonteksti, milles kasutamiseks on süsteem mõeldud.
W celu eliminowania lub ograniczania ryzyka związanego z wykorzystaniem systemu AI wysokiego ryzyka należytą uwagę zwraca się na wiedzę techniczną, doświadczenie, wykształcenie i szkolenia, jakich oczekuje się od podmiotu stosującego, oraz zakładany kontekst, w którym ma być stosowany system.
6. Suure riskiga tehisintellektisüsteeme testitakse, et teha kindlaks kõige asjakohasemad ja sihipäraseid riskijuhtimismeetmed. Testimisega tagatakse, et suure riskiga tehisintellektisüsteemid töötavad oma sihtotstarbe seisukohast järjepidevalt ning vastavad käesolevas jaos sätestatud nõuetele.
6. Systemy AI wysokiego ryzyka testuje się w celu określenia najodpowiedniejszych i ukierunkowanych środków zarządzania ryzykiem. Testy zapewniają, by systemy AI wysokiego ryzyka działały zgodnie z ich przeznaczeniem oraz były zgodne z wymogami ustanowionymi w niniejszej sekcji.
7. Testimismenetlused võivad hõlmata tegelikes tingimustes testimist kooskõlas artikliga 60.
7. Procedury testowe mogą obejmować testy w warunkach rzeczywistych zgodnie z art. 60.
8. Suure riskiga tehisintellektisüsteemide testimine toimub vastavalt vajadusele mis tahes ajal kogu arendusprotsessi jooksul ja igal juhul enne nende turule laskmist või kasutusele võtmist. Testimiseks kasutatakse eelnevalt kindlaks määratud parameetreid ja tõenäosuskünniseid, mis on suure riskiga tehisintellektisüsteemi sihtotstarbe seisukohast sobivad.
8. Testy systemów AI wysokiego ryzyka przeprowadza się, w stosownych przypadkach, w dowolnym momencie procesu rozwoju systemu, a w każdym przypadku przed wprowadzeniem go do obrotu lub oddaniem do użytku. Testy przeprowadza się w odniesieniu do uprzednio określonych wskaźników i progów probabilistycznych, stosownych ze względu na przeznaczenie systemu AI wysokiego ryzyka.
9. Lõigetes 1–7 sätestatud riskijuhtimissüsteemi rakendamisel pööravad pakkujad tähelepanu sellele, kas suure riskiga tehisintellektisüsteem võib oma sihtotstarvet silmas pidades avaldada kahjulikku mõju alla 18-aastastele isikutele, ja kui see on asjakohane, muudele kaitsetutele rühmadele.
9. Przy wdrażaniu systemu zarządzania ryzykiem przewidzianego w ust. 1–7 dostawcy zwracają uwagę na to, czy dany system AI wysokiego ryzyka w świetle swojego przeznaczenia może mieć niekorzystny wpływ na osoby poniżej 18 roku życia oraz, w stosownych przypadkach, na inne grupy szczególnie wrażliwe.
10. Suure riskiga tehisintellektisüsteemide pakkujate jaoks, kes peavad täitma liidu muu asjaomase õiguse alusel sisemisi riskijuhtimisprotsesse käsitlevaid nõudeid, võivad lõigetes 1–9 kirjeldatud aspektid olla kõnealuse õiguse kohaselt loodud riskijuhtimismenetluste osa või nendega kombineeritud.
10. W odniesieniu do dostawców systemów AI wysokiego ryzyka, którzy podlegają wymogom dotyczącym wewnętrznych procesów zarządzania ryzykiem na podstawie innych odpowiednich przepisów prawa Unii, aspekty przewidziane w ust. 1–9 mogą być częścią procedur zarządzania ryzykiem ustanowionych zgodnie z tym prawem lub łączyć się z tymi procedurami.
Dane i zarządzanie danymi
1. Kui tegemist on suure riskiga tehisintellektisüsteemidega, milles kasutatavad meetodid hõlmavad mudelite treenimist andmetega, tuleb nende süsteemide arendamiseks kasutada treenimis-, valideerimis- ja testimisandmestikke, mis vastavad lõigetes 2–5 osutatud kvaliteedikriteeriumidele, kui selliseid andmestikke kasutatakse.
1. Systemy AI wysokiego ryzyka, które wykorzystują techniki obejmujące trenowanie modeli AI z wykorzystaniem danych, rozwija się na podstawie zbiorów danych treningowych, walidacyjnych i testowych spełniających kryteria jakości, o których mowa w ust. 2–5, w każdym przypadku gdy takie zbiory danych są wykorzystywane.
2. Treenimis-, valideerimis- ja testimisandmestike suhtes kohaldatakse suure riskiga tehisintellektisüsteemi sihtotstarbe seisukohast asjakohaseid andmehaldus- ja juhtimistavasid. Need tavad puudutavad eeskätt järgmist:
2. Zbiory danych treningowych, walidacyjnych i testowych podlegają praktykom w zakresie zarządzania danymi stosownym do przeznaczenia danego systemu AI wysokiego ryzyka. Praktyki te dotyczą w szczególności:
a)
asjakohased projekteerimise käigus tehtavad valikud;
a)
odpowiednich decyzji projektowych;
b)
andmete kogumise protsessid ja andmete päritolu ning isikuandmete puhul andmete kogumise algne eesmärk;
b)
procesów zbierania danych i pochodzenia danych oraz, w przypadku danych osobowych, pierwotnego celu zbierania danych;
c)
andmevalmenduseks tehtavad asjakohased töötlemistoimingud, näiteks kommenteerimine, märgendamine, puhastamine, ajakohastamine, rikastamine ja koondamine;
c)
odpowiednich operacji przetwarzania na potrzeby przygotowania danych, takich jak dodawanie komentarzy, etykietowanie, czyszczenie, aktualizacja, wzbogacanie i agregacja;
d)
eelduste sõnastamine, eeskätt seoses teabega, mida andmed peaksid mõõtma ja kajastama;
d)
sformułowania założeń, w szczególności w odniesieniu do informacji, do których pomiaru i reprezentowania mają służyć dane;
e)
vajalike andmestike kättesaadavuse, koguste ja sobivuse hindamine;
e)
oceny dostępności, ilości i przydatności zbiorów danych, które są potrzebne;
f)
läbi vaatamine, pidades silmas võimalikku kallutatust, mis tõenäoliselt mõjutab inimeste tervist ja ohutust, mõjutab negatiivselt põhiõigusi või põhjustab diskrimineerimist, mis on liidu õigusega keelatud, eriti kui andmeväljundid mõjutavad sisendeid tulevaste toimingute jaoks;
f)
badania pod kątem ewentualnej stronniczości, która może mieć wpływ na zdrowie i bezpieczeństwo osób, negatywnie wpływać na prawa podstawowe lub prowadzić do dyskryminacji zakazanej na mocy prawa Unii, zwłaszcza w przypadku gdy dane wyjściowe wpływają na dane wejściowe wykorzystywane na potrzeby przyszłych operacji;
g)
asjakohased meetmed punkti f kohaselt kindlaks tehtud võimaliku kallutatuse avastamiseks, ennetamiseks ja leevendamiseks;
g)
odpowiednich środków służących wykrywaniu ewentualnej stronniczości określonej zgodnie z lit. f) oraz zapobieganiu jej i jej ograniczaniu;
h)
käesoleva määruse järgimist takistavate asjakohaste andmelünkade või puuduste kindlakstegemine ja võimalused nende lünkade ja puuduste kõrvaldamiseks.
h)
określenia istotnych luk w danych lub braków w danych, które uniemożliwiają zgodność z niniejszym rozporządzeniem, oraz tego, w jaki sposób można zaradzić tym lukom i brakom.
3. Treenimis-, valideerimis- ja testimisandmestikud peavad olema asjakohased, piisavalt representatiivsed ning võimalikult suurel määral vigadeta ja täielikud, pidades silmas nende sihtotstarvet. Neid peavad iseloomustama asjakohased statistilised omadused, sealhulgas kohaldataval juhul seoses isikute või isikute rühmadega, kelle suhtes kavatsetakse suure riskiga tehisintellektisüsteemi kasutada. Need andmestiku omadused võivad olla täidetud üksikute andmestike või nende kombinatsiooni tasandil.
3. Zbiory danych treningowych, walidacyjnych i testowych muszą być adekwatne, wystarczająco reprezentatywne oraz w jak największym stopniu wolne od błędów i kompletne z punktu widzenia przeznaczenia. Muszą się one charakteryzować odpowiednimi właściwościami statystycznymi, w tym, w stosownych przypadkach, w odniesieniu do osób lub grup osób, wobec których ma być stosowany system AI wysokiego ryzyka. Te kryteria zbiorów danych mogą zostać spełnione na poziomie pojedynczych zbiorów danych lub na poziomie ich kombinacji.
4. Andmestikes tuleb sihtotstarbe jaoks vajalikus ulatuses võtta arvesse omadusi või elemente, mis iseloomustavad konkreetset geograafilist, kontekstuaalset, käitumuslikku või funktsionaalset keskkonda, kus kavatsetakse suure riskiga tehisintellektisüsteemi kasutada.
4. Zbiory danych muszą uwzględniać, w zakresie wymaganym z uwagi na ich przeznaczenie, cechy lub elementy, które są specyficzne dla określonego otoczenia geograficznego, kontekstualnego, behawioralnego lub funkcjonalnego, w którym ma być wykorzystywany system AI wysokiego ryzyka.
5. Niivõrd kui see on rangelt vajalik selleks, et tagada kallutatuse avastamine ja korrigeerimine suure riskiga tehisintellektisüsteemide puhul kooskõlas käesoleva artikli lõike 2 punktidega f ja g, võivad selliste süsteemide pakkujad erandkorras töödelda isikuandmete eriliike, kohaldades asjakohaseid kaitsemeetmeid füüsiliste isikute põhiõiguste ja -vabaduste kaitseks. Lisaks määruste (EL) 2016/679 ja (EL) 2018/1725 ning direktiivi (EL) 2016/680 sätetele peab selline töötlemine vastama kõigile järgmistele tingimustele:
5. W zakresie, w jakim jest to bezwzględnie konieczne do celów zapewnienia zgodnie z ust. 2 lit. f) i g) niniejszego artykułu wykrywania i korygowania stronniczości systemów AI wysokiego ryzyka, dostawcy takich systemów mogą wyjątkowo przetwarzać szczególne kategorie danych osobowych, pod warunkiem stosowania odpowiednich zabezpieczeń w zakresie podstawowych praw i wolności osób fizycznych. Oprócz przepisów określonych w rozporządzeniach (UE) 2016/679 i (UE) 2018/1725 oraz dyrektywie (UE) 2016/680, aby takie przetwarzanie mogło się odbyć, przetwarzanie takie musi spełniać wszystkie następujące warunki:
a)
kallutatuse tuvastamist ja parandamist ei ole võimalik tulemuslikult saavutada muude andmete, sealhulgas tehisandmete või anonüümitud andmete töötlemisega;
a)
nie jest możliwe skuteczne wykrywanie i korygowanie stronniczości poprzez przetwarzanie innych danych, w tym danych syntetycznych lub zanonimizowanych;
b)
isikuandmete eriliikide suhtes kehtivad isikuandmete taaskasutamise tehnilised piirangud ning tipptasemel turva- ja privaatsuse säilitamise meetmed, sealhulgas pseudonüümimine;
b)
szczególne kategorie danych osobowych podlegają ograniczeniom technicznym dotyczącym ponownego wykorzystywania danych osobowych oraz najnowocześniejszym środkom bezpieczeństwa i ochrony prywatności, w tym pseudonimizacji;
c)
isikuandmete eriliikide suhtes kohaldatakse meetmeid, millega tagatakse töödeldavate isikuandmete turvalisus, kaitse ja asjakohased kaitsemeetmed, sealhulgas juurdepääsu range kontroll ja dokumenteerimine, et vältida väärkasutamist ja tagada, et ainult volitatud isikutel, kellel on asjakohased konfidentsiaalsuskohustused, on juurdepääs kõnealustele isikuandmetele;
c)
szczególne kategorie danych osobowych podlegają środkom zapewniającym, by przetwarzane dane osobowe były zabezpieczone, chronione, podlegały odpowiednim środkom ochronnym, w tym ścisłym kontrolom i dokumentowaniu dostępu, aby uniknąć nadużyć i zapewnić, by dostęp do tych danych miały wyłącznie osoby upoważnione, zobowiązane do spełnienia odpowiednich obowiązków dotyczących poufności;
d)
isikuandmete eriliike ei tohi edastada ega üle anda ning need ei tohi olla teistele isikutele muul moel kättesaadavad;
d)
szczególne kategorie danych osobowych nie są przesyłane, przekazywane ani w inny sposób udostępniane innym podmiotom;
e)
isikuandmete eriliigid kustutatakse, kui kallutatus on parandatud või kui isikuandmete säilitamisperiood saab läbi, olenevalt sellest, kumb saabub varem;
e)
szczególne kategorie danych osobowych usuwa się po skorygowaniu stronniczości lub po upływie okresu przechowywania danych osobowych, w zależności od tego, co nastąpi wcześniej;
f)
määruste (EL) 2016/679 ja (EL) 2018/1725 ning direktiivi (EL) 2016/680 kohane isikuandmete töötlemise toimingute registreerimine hõlmab põhjuseid, miks isikuandmete eriliikide töötlemine oli rangelt vajalik kallutatuse avastamiseks ja parandamiseks ning miks seda eesmärki ei olnud võimalik saavutada muude andmete töötlemisega.
f)
rejestry czynności przetwarzania na podstawie rozporządzeń (UE) 2016/679 i (UE) 2018/1725 oraz dyrektywy (UE) 2016/680 zawierają uzasadnienie, dlaczego przetwarzanie szczególnych kategorii danych osobowych było bezwzględnie konieczne do wykrycia i skorygowania stronniczości oraz dlaczego cel ten nie mógł zostać osiągnięty w wyniku przetwarzania innych danych.
6. Nende suure riskiga tehisintellektisüsteemide arendamisel, mille puhul ei kasutata tehisintellektimudelite treenimist hõlmavaid meetodeid, kohaldatakse lõikeid 2–5 üksnes testimisandmestike suhtes.
6. W przypadkach rozwoju systemów AI wysokiego ryzyka niewykorzystujących technik obejmujących trenowanie modeli AI ust. 2–5 stosuje się jedynie do zbiorów danych testowych.
Tehniline dokumentatsioon
1. Suure riskiga tehisintellektisüsteemi tehniline dokumentatsioon koostatakse enne süsteemi turule laskmist või kasutusele võtmist ning see hoitakse ajakohasena.
1. Dokumentację techniczną dla systemu AI wysokiego ryzyka sporządza się przed wprowadzeniem danego systemu do obrotu lub oddaniem go do użytku oraz dokonuje się jej aktualizacji.
Tehniline dokumentatsioon koostatakse selliselt, et see tõendaks suure riskiga tehisintellektisüsteemi vastavust käesolevas jaos sätestatud nõuetele ja annaks riikide pädevatele asutustele ja teada antud asutustele selgel ja terviklikul kujul teabe, mis on vajalik, et hinnata tehisintellektisüsteemi vastavust neile nõuetele. Dokumentatsioon peab sisaldama vähemalt IV lisas loetletud elemente. VKEd, sealhulgas idufirmad, võivad esitada IV lisas täpsustatud tehnilise dokumentatsiooni elemente lihtsustatud viisil. Selleks kehtestab komisjon väikeste ja mikroettevõtjate vajadustele vastava lihtsustatud tehnilise dokumentatsiooni vormi. Kui VKE, sealhulgas idufirma, otsustab esitada IV lisas nõutud teabe lihtsustatud korras, kasutab ta käesolevas lõikes osutatud vormi. Teada antud asutused peavad seda vormi vastavushindamise tegemisel arvestama.
Dokumentację techniczną sporządza się w taki sposób, aby wykazać, że system AI wysokiego ryzyka jest zgodny z wymogami ustanowionymi w niniejszej sekcji, oraz aby dostarczyć właściwym organom krajowym i jednostkom notyfikowanym informacji – w jasnej i kompleksowej formie – niezbędnych do oceny zgodności systemu AI z tymi wymogami. Zawiera ona co najmniej elementy określone w załączniku IV. MŚP, w tym przedsiębiorstwa typu start-up, mogą podawać elementy dokumentacji technicznej określone w załączniku IV w formie uproszczonej. W tym celu Komisja ustanawia wzór uproszczonej dokumentacji technicznej ukierunkowany na potrzeby małych przedsiębiorstw i mikroprzedsiębiorstw. W przypadku gdy MŚP, w tym przedsiębiorstwa typu start-up, zdecydują się na podawanie informacji wymaganych w załączniku IV w sposób uproszczony, korzystają z wzoru, o którym mowa w niniejszym ustępie. Jednostki notyfikowane akceptują ten wzór do celów oceny zgodności.
2. Kui turule lastakse või kasutusele võetakse suure riskiga tehisintellektisüsteem, mis on seotud tootega, mille suhtes kohaldatakse I lisa A osas loetletud liidu ühtlustamisõigusakte, koostatakse ühtne tehniline dokumentatsioon, mis sisaldab nii kogu lõikes 1 esitatud teavet kui ka nimetatud õigusaktide kohaselt nõutavat teavet.
2. W przypadku wprowadzania do obrotu lub oddawania do użytku systemu AI wysokiego ryzyka związanego z produktem, który jest objęty zakresem stosowania unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I sekcja A, sporządza się jeden zestaw dokumentacji technicznych zawierający wszystkie informacje określone w ust. 1, jak również informacje wymagane na podstawie tych aktów prawnych.
3. Komisjon võtab kooskõlas artikliga 97 vastu delegeeritud õigusakte, et muuta IV lisa, kui see on vajalik selle tagamiseks, et tehniline dokumentatsioon sisaldab tehnika arengut arvestades kogu vajalikku teavet, et hinnata süsteemi vastavust käesolevas jaos sätestatud nõuetele.
3. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 97 w celu zmiany, w razie potrzeby, załącznika IV, aby zagwarantować, by w świetle postępu technicznego dokumentacja techniczna zawierała wszystkie informacje niezbędne do oceny zgodności systemu z wymogami ustanowionymi w niniejszej sekcji.
Nadzór ze strony człowieka
1. Suure riskiga tehisintellektisüsteeme projekteeritakse ja arendatakse selliselt, et füüsilised isikud saaksid teha süsteemide kasutamise ajal nende üle reaalset järelevalvet, muu hulgas asjakohaste inimene-masin kasutajaliideste abil.
1. Systemy AI wysokiego ryzyka projektuje się i rozwija w taki sposób, w tym poprzez uwzględnienie odpowiednich narzędzi interfejsu człowiek-maszyna, aby w okresie ich wykorzystywania systemu AI mogły być skutecznie nadzorowane przez osoby fizyczne.
2. Inimjärelevalve eesmärk on hoida ära või minimeerida tervist, ohutust või põhiõigusi ähvardavaid riske, mis võivad tekkida, kui suure riskiga tehisintellektisüsteemi kasutatakse vastavalt selle sihtotstarbele või mõistlikult prognoositava väärkasutamise tingimustes, eeskätt juhul, kui sellised riskid jäävad alles ka siis, kui kohaldatakse muid käesolevas jaos sätestatud nõudeid.
2. Nadzór ze strony człowieka ma na celu zapobieganie ryzyku dla zdrowia, bezpieczeństwa lub praw podstawowych lub minimalizowanie takiego ryzyka, które może się pojawić, gdy system AI wysokiego ryzyka jest wykorzystywany zgodnie z jego przeznaczeniem lub w warunkach dającego się racjonalnie przewidzieć niewłaściwego wykorzystania, w szczególności gdy takie ryzyko utrzymuje się pomimo stosowania innych wymogów ustanowionych w niniejszej sekcji.
3. Järelevalvemeetmed peavad vastama suure riskiga tehisintellektisüsteemi riskidele, autonoomsuse tasemele ja kasutuskontekstile ning need tagatakse kas ühe järgmist liiki meetme või kõigi järgmist liiki meetmetega:
3. Środki nadzoru muszą być współmierne do ryzyka, poziomu autonomii i kontekstu wykorzystywania danego systemu AI wysokiego ryzyka, a nadzór zapewnia się za pomocą co najmniej jednego z następujących rodzajów środków:
a)
meetmed, mille pakkuja on enne suure riskiga tehisintellektisüsteemi turule laskmist või kasutusele võtmist kindlaks teinud, ja kui see on tehniliselt teostatav, sellisesse süsteemi sisse ehitanud;
a)
środków określonych i wbudowanych, jeżeli jest to technicznie wykonalne, w system AI wysokiego ryzyka przez dostawcę przed wprowadzeniem systemu do obrotu lub oddaniem do użytku;
b)
meetmed, mille pakkuja on enne suure riskiga tehisintellektisüsteemi turule laskmist või kasutusele võtmist kindlaks teinud ja mis sobivad selleks, et juurutaja saaks neid rakendada.
b)
środków określonych przez dostawcę przed wprowadzeniem systemu AI wysokiego ryzyka do obrotu lub oddaniem go do użytku i które to środki nadają się do wdrożenia przez podmiot stosujący.
4. Lõigete 1, 2 ja 3 rakendamiseks antakse suure riskiga tehisintellektisüsteem juurutajale sellisel viisil, et füüsilistel isikutel, kellele on antud ülesanne teha inimjärelevalvet, oleks võimalik, kui see on olenevalt asjaoludest asjakohane ja proportsionaalne:
4. Do celów wykonania ust. 1, 2 i 3 system AI wysokiego ryzyka udostępnia się podmiotowi stosującemu w taki sposób, aby umożliwić osobom fizycznym, którym powierzono sprawowanie nadzoru ze strony człowieka, odpowiednio i proporcjonalnie:
a)
mõista nõuetekohaselt suure riskiga tehisintellektisüsteemi asjakohaseid võimeid ja piire ning teha igakülgset seiret selle toimimise üle, sealhulgas selleks, et avastada kõrvalekaldeid, väärtalitlusi ja ootamatut toimimist ning nendega tegeleda;
a)
należyte zrozumienie odpowiednich możliwości i ograniczeń systemu AI wysokiego ryzyka oraz należyte monitorowanie jego działania, w tym w celu wykrywania anomalii, nieprawidłowego funkcjonowania i nieoczekiwanych wyników działania oraz zaradzeniu im w przypadku ich wystąpienia;
b)
olla pidevalt teadlik võimalusest, et tekib kalduvus hakata automaatselt tuginema või liigselt tuginema suure riskiga tehisintellektisüsteemi toodetud väljundile (nn kalduvus eelistada automatiseerimist), seda eriti siis, kui tegemist on suure riskiga tehisintellektisüsteemidega, mida kasutatakse, et saada teavet või soovitusi füüsiliste isikute tehtavate otsuste jaoks;
b)
pozostawanie świadomym potencjalnej tendencji do automatycznego polegania lub nadmiernego polegania na wyniku wytworzonym przez system AI wysokiego ryzyka (tzw. „błąd automatyzacji”), w szczególności w przypadku systemów AI wysokiego ryzyka wykorzystywanych do udzielania informacji lub zaleceń na potrzeby decyzji podejmowanych przez osoby fizyczne;
c)
korrektselt tõlgendada suure riskiga tehisintellektisüsteemi väljundit, võttes arvesse näiteks kättesaadavaid tõlgendamisvahendeid ja -meetodeid;
c)
prawidłową interpretację wyniku systemu AI wysokiego ryzyka, biorąc pod uwagę na przykład dostępne narzędzia i metody interpretacji;
d)
otsustada igas konkreetses olukorras, et suure riskiga tehisintellektisüsteemi ei kasutata, või jätta suure riskiga tehisintellektisüsteemi väljund muul moel kõrvale, sürjutada või tagasi võtta;
d)
podjęcie decyzji, w każdej konkretnej sytuacji, o niekorzystaniu z systemu AI wysokiego ryzyka lub w inny sposób zignorowanie, unieważnienie lub odwrócenie wyniku systemu AI wysokiego ryzyka;
e)
sekkuda suure riskiga tehisintellektisüsteemi toimimisse või katkestada süsteemi töö stopp-nupu või muu sarnase protseduuriga, mis võimaldab süsteemil ohutus olekus peatuda.
e)
ingerowanie w działanie systemu AI wysokiego ryzyka lub przerwanie działania systemu za pomocą przycisku „stop” lub podobnej procedury, która pozwala na zatrzymanie systemu w stanie bezpiecznym.
5. III lisa punkti 1 alapunktis a osutatud suure riskiga tehisintellektisüsteemide puhul tagatakse käesoleva artikli lõikes 3 osutatud meetmetega, et lisaks sellele ei tee ega otsusta juurutaja süsteemist saadud tuvastamise põhjal midagi, kui seda tuvastamist ei ole eraldi kontrollinud ja kinnitanud vähemalt kaks füüsilist isikut, kellel on vajalik pädevus, väljaõpe ja volitused.
5. W przypadku systemów AI wysokiego ryzyka, o których mowa w załączniku III pkt 1 lit. a), środki, o których mowa w ust. 3 niniejszego artykułu, muszą ponadto zapewniać, aby podmiot stosujący nie podejmował żadnego działania ani decyzji na podstawie identyfikacji będącej wynikiem działania systemu, jeżeli identyfikacji tej nie zweryfikowały ani nie potwierdziły odrębnie co najmniej dwie osoby fizyczne mające wymagane kompetencje, przeszkolenie i uprawnienia.
Nõuet, et vähemalt kaks füüsilist isikut peavad eraldi kontrollima neid suure riskiga tehisintellektisüsteeme, mida kasutatakse õiguskaitse, rände, piirikontrolli või varjupaigaga seotud eesmärgil, ei kohaldata, kui liidu või riigi õiguse kohaselt peetakse selle nõude kohaldamist ebaproportsionaalseks.
Wymóg odrębnej weryfikacji przez co najmniej dwie osoby fizyczne nie ma zastosowania do systemów AI wysokiego ryzyka wykorzystywanych do celów ścigania przestępstw, migracji, kontroli granicznej lub azylu, w przypadkach gdy prawo Unii lub prawo krajowe uznaje stosowanie tego wymogu za nieproporcjonalne.
Täpsus, stabiilsus ja küberturvalisus
Dokładność, solidność i cyberbezpieczeństwo
1. Suure riskiga tehisintellektisüsteeme projekteeritakse ja arendatakse selliselt, et need saavutaksid asjakohase täpsuse, stabiilsuse ja küberturvalisuse taseme ning et nad toimiksid nendes aspektides järjekindlalt oma kogu elutsükli jooksul.
1. Systemy AI wysokiego ryzyka projektuje się i rozwija w taki sposób, aby osiągały odpowiedni poziom dokładności, solidności i cyberbezpieczeństwa oraz by działały konsekwentnie pod tymi względami w całym cyklu życia.
2. Selleks et käsitleda lõikes 1 sätestatud asjakohase täpsuse ja stabiilsuse taseme mõõtmise ning muude asjakohaste tulemusnäitajate tehnilisi aspekte, julgustab komisjon koostöös asjaomaste sidusrühmade ja organisatsioonidega, nagu metroloogia- ja võrdlusuuringuasutused, vajaduse korral võrdlusaluste ja mõõtmismeetodite väljatöötamist.
2. Aby odnieść się do technicznych aspektów pomiaru odpowiednich poziomów dokładności i solidności określonych w ust. 1 oraz wszelkich innych istotnych wskaźników skuteczności działania, Komisja we współpracy z odpowiednimi zainteresowanymi stronami i organizacjami, takimi jak organy metrologiczne i organy ds. analizy porównawczej, zachęca w stosownych przypadkach do opracowywania poziomów odniesienia i metod pomiarowych.
3. Suure riskiga tehisintellektisüsteemide täpsuse tasemed ja asjakohased täpsuse parameetrid tuleb deklareerida süsteemiga kaasas olevas kasutusjuhendis.
3. Poziomy dokładności i odpowiednie wskaźniki dokładności systemów AI wysokiego ryzyka deklaruje się w dołączonych do nich instrukcjach obsługi.
4. Suure riskiga tehisintellektisüsteemid peavad olema süsteemis või süsteemi töökeskkonnas tekkida võivate vigade, rikete või ebakõlade suhtes võimalikult vastupidavad, eriti juhul, kui põhjuseks on süsteemi interaktsioon füüsiliste isikute või muude süsteemidega. Selleks võetakse tehnilisi ja korralduslikke meetmeid.
4. Systemy AI wysokiego ryzyka muszą być możliwie jak najodporniejsze na błędy, usterki lub niespójności, które mogą wystąpić w systemie lub w środowisku, w którym działa system, w szczególności w wyniku interakcji z osobami fizycznymi lub innymi systemami. W tym zakresie podejmuje się środki techniczne i organizacyjne.
Suure riskiga tehisintellektisüsteemide stabiilsuse võib saavutada tehnilise liiasuse lahendustega, mis võivad hõlmata varuplaane või tõrkekindluse plaane.
Solidność systemów AI wysokiego ryzyka można osiągnąć dzięki rozwiązaniom technicznym gwarantującym redundancję, które mogą obejmować plany zakładające dostępność systemu zapasowego lub plany zapewniające przejście systemu w stan bezpieczny (tzw. „fail-safe”).
Suure riskiga tehisintellektisüsteeme, mis õpivad edasi ka pärast turule laskmist või kasutusele võtmist, arendatakse selliselt, et kõrvaldada või vähendada niipalju kui võimalik potentsiaalselt kallutatud väljundite riski, mis võivad mõjutada edasiste toimingute sisendit (edaspidi „tagasisideahelad“) ning tagada, et selliseid tagasisideahelaid käsitletakse igakülgselt asjakohaste leevendusmeetmete kaudu.
Systemy AI wysokiego ryzyka, które po wprowadzeniu na rynek lub oddaniu do użytku nadal się uczą, rozwija się w taki sposób, aby w możliwie największym stopniu wyeliminować lub ograniczyć ryzyko potencjalnie stronniczych wyników wpływających na dane wejściowe wykorzystywane na potrzeby przyszłych operacji (sprzężenie zwrotne) oraz aby zapewnić, by wszelkie tego typu sprzężenie zwrotne zostało odpowiednio uwzględnione przy pomocy odpowiednich środków ograniczających ryzyko.
5. Suure riskiga tehisintellektisüsteemid peavad pidama vastu volitamata kolmandate isikute katsetele muuta süsteemi kasutamist, väljundit või toimimist, kasutades ära süsteemi nõrkusi.
5. Systemy AI wysokiego ryzyka muszą być odporne na próby nieupoważnionych osób trzecich mające na celu zmianę ich wykorzystania, wyników lub skuteczności działania poprzez wykorzystanie słabych punktów systemu.
Suure riskiga tehisintellektisüsteemide küberturvalisuse tagamiseks kasutatavad tehnilised lahendused peavad vastama asjaomastele asjaoludele ja riskidele.
Rozwiązania techniczne mające na celu zapewnienie cyberbezpieczeństwa systemów AI wysokiego ryzyka muszą być dostosowane do odpowiednich okoliczności i ryzyka.
Tehisintellektile iseloomulike nõrkuste käsitlemiseks kasutatavad tehnilised lahendused hõlmavad olenevalt asjaoludest meetmeid, millega hoida ära, avastada, tõrjuda, lahendada ja kontrollida ründeid, millega püütakse manipuleerida treenimisandmestikku („andmemürgitus“) või treenimisel kasutatavaid eeltreenitud komponente („mudelimürgitus“), sisendeid, mille eesmärk on panna tehisintellektimudel viga tegema („vastandnäited“ või „mudelist kõrvalehoidumine“), konfidentsiaalsusründeid või mudelivigu.
Rozwiązania techniczne mające na celu eliminowanie słabych punktów charakterystycznych dla AI obejmują, w stosownych przypadkach, środki służące zapobieganiu atakom mającym na celu manipulowanie zbiorem danych treningowych (zatruwanie danych) lub elementami stosowanymi przy trenowaniu, które zostały poddane pretrenowaniu (zatruwanie modelu), wprowadzaniu danych wejściowych, które mają na celu spowodowanie błędu w modelu AI (przykłady kontradyktoryjne lub omijanie modelu), atakom na poufność lub wadom modelu, a także środki w zakresie wykrywania tych zagrożeń, reagowania na nie, ich rozwiązywania i ich kontrolowania.
Kvaliteedijuhtimissüsteem
System zarządzania jakością
1. Suure riskiga tehisintellektisüsteemide pakkujad võtavad kasutusele kvaliteedijuhtimissüsteemi, mis tagab käesoleva määruse järgimise. Kvaliteedijuhtimissüsteem peab olema kirjalike põhimõtete, menetluste ja juhendite kujul süsteemselt ja nõuetekohaselt dokumenteeritud ning sisaldama vähemalt järgmisi aspekte:
1. Dostawcy systemów AI wysokiego ryzyka wprowadzają system zarządzania jakością, który zapewnia zgodność z niniejszym rozporządzeniem. System ten dokumentuje się w systematyczny i uporządkowany sposób w formie pisemnych polityk, procedur i instrukcji oraz obejmuje on co najmniej następujące aspekty:
a)
strateegia õigusnormidele vastavuse tagamiseks, sealhulgas vastavushindamise ja suure riskiga tehisintellektisüsteemis tehtavate muudatuste haldamismenetluste järgimiseks;
a)
strategię na rzecz zgodności regulacyjnej, w tym zgodności z procedurami oceny zgodności i procedurami zarządzania zmianami w systemie AI wysokiego ryzyka;
b)
meetodid, menetlused ja süstemaatilised meetmed, mida kasutatakse suure riskiga tehisintellektisüsteemi projekteerimiseks, projekteerimise järelevalveks ja projektide kontrollimiseks;
b)
techniki, procedury i systematyczne działania, które należy stosować na potrzeby projektowania oraz kontroli i weryfikacji projektu systemu AI wysokiego ryzyka;
c)
meetodid, menetlused ja süstemaatilised meetmed, mida kasutatakse suure riskiga tehisintellektisüsteemi arendamiseks, kvaliteedi kontrollimiseks ja kvaliteedi tagamiseks;
c)
techniki, procedury i systematyczne działania, które należy stosować na potrzeby rozwoju, kontroli jakości i zapewniania jakości systemu AI wysokiego ryzyka;
d)
enne suure riskiga tehisintellektisüsteemi arendamist, selle ajal ja pärast seda teostatavad läbivaatamis-, testimis- ja valideerimismenetlused ning nende teostamise sagedus;
d)
procedury badania, testowania i walidacji, które należy przeprowadzić przed przystąpieniem do rozwoju systemu AI wysokiego ryzyka, w trakcie tego rozwoju i po jego zakończeniu, oraz częstotliwość, z jaką mają być przeprowadzane;
e)
kohaldatavad tehnilised kirjeldused, sh standardid, ja juhul, kui asjaomaseid harmoneeritud standardeid ei kohaldata täies mahus või need ei hõlma kõiki 2. jaos sätestatud asjakohaseid nõudeid, siis ka vahendid, mida kasutatakse, et tagada suure riskiga tehisintellektisüsteemi vastavus kõnealustele nõuetele;
e)
specyfikacje techniczne, w tym normy, które należy zastosować, oraz w przypadkach gdy normy zharmonizowane nie są stosowane w pełni lub nie obejmują wszystkich odpowiednich wymogów ustanowionych w sekcji 2, środki, które należy zastosować do zapewnienia, by system AI wysokiego ryzyka był zgodny z tymi wymogami;
f)
andmehalduse süsteemid ja menetlused, sealhulgas andmete hankimine, andmete kogumine, andmeanalüüs, andmete märgendamine, andmete talletamine, andmete filtreerimine, andmekaeve, andmete agregeerimine, andmesäilitus ja mis tahes muud andmetega seotud toimingud, mida teostatakse suure riskiga tehisintellektisüsteemide turule laskmise või kasutusele võtmise eel ja eesmärgil;
f)
systemy i procedury zarządzania danymi, w tym dotyczące nabywania danych, zbierania danych, analizy danych, etykietowania danych, przechowywania danych, filtrowania danych, eksploracji danych, agregacji danych, zatrzymywania danych i wszelkich innych operacji dotyczących danych, które przeprowadza się przed wprowadzeniem do obrotu lub oddaniem do użytku systemów AI wysokiego ryzyka i do celu wprowadzenia ich do obrotu lub oddania ich do użytku;
g)
artiklis 9 osutatud riskijuhtimissüsteem;
g)
system zarządzania ryzykiem, o którym mowa w art. 9;
h)
turustamisjärgse seire süsteemi loomine, rakendamine ja toimivana hoidmine vastavalt artiklile 72;
h)
ustanowienie, wdrożenie i obsługa systemu monitorowania po wprowadzeniu do obrotu, zgodnie z art. 72;
i)
menetlused, mis on seotud tõsisest intsidendist teatamisega vastavalt artiklile 73;
i)
procedury związane ze zgłaszaniem poważnego incydentu zgodnie z art. 73;
j)
suhtlemine riikide pädevate asutustega, teiste asjaomaste asutustega, sealhulgas nendega, kes pakuvad või toetavad juurdepääsu andmetele, teada antud asutustega, teiste operaatoritega, klientidega või muude huvitatud isikutega;
j)
porozumiewanie się z właściwymi organami krajowymi, innymi właściwymi organami, w tym organami zapewniającymi lub wspierającymi dostęp do danych, jednostkami notyfikowanymi, innymi operatorami, klientami lub innymi zainteresowanymi stronami;
k)
kõigi vajalike dokumentide ja teabega seotud andmete säilitamise süsteemid ja menetlused;
k)
systemy i procedury rejestrowania wszelkiej istotnej dokumentacji i wszelkich istotnych informacji;
l)
ressursside haldamine, sealhulgas varustuskindlusega seotud meetmed;
l)
zarządzanie zasobami, w tym środki związane z bezpieczeństwem dostaw;
m)
aruandekohustuse raamistik, millega nähakse ette juhtkonna ja muude töötajate vastutus seoses kõigi käesolevas lõikes loetletud aspektidega.
m)
ramy odpowiedzialności służące określeniu odpowiedzialności kierownictwa i pozostałego personelu w odniesieniu do wszystkich aspektów wymienionych w niniejszym ustępie.
2. Lõikes 1 osutatud aspektide rakendamine peab olema proportsionaalne pakkuja organisatsiooni suurusega. Pakkujad austavad igal juhul sellist rangusastet ja kaitsetaset, mis on vajalik, et tagada oma suure riskiga tehisintellektisüsteemide vastavus käesolevale määrusele.
2. Wdrożenie aspektów, o których mowa w ust. 1, musi być proporcjonalne do wielkości organizacji dostawcy. W każdym przypadku dostawcy przestrzegają stopnia rygoryzmu i poziomu ochrony wymaganych do zapewnienia zgodności ich systemów AI wysokiego ryzyka z niniejszym rozporządzeniem.
3. Suure riskiga tehisintellektisüsteemide pakkujate jaoks, kes peavad täitma asjaomase valdkondliku liidu õiguse alusel kvaliteedijuhtimissüsteeme või samaväärset funktsiooni käsitlevaid kohustusi, võivad lõikes 1 loetletud aspektid olla osa kõnealuse õiguse kohastest kvaliteedijuhtimissüsteemidest.
3. Dostawcy systemów AI wysokiego ryzyka, którzy podlegają obowiązkom dotyczącym systemów zarządzania jakością lub równoważnym obowiązkom na podstawie odpowiednich sektorowych przepisów prawa Unii, mogą uwzględnić aspekty wymienione w ust. 1 jako część systemów zarządzania jakością zgodnie z tymi przepisami.
4. Finantsasutustest pakkujate puhul, kes peavad täitma finantsteenuseid käsitleva liidu õiguse kohaseid nõudeid seoses nende sisemise juhtimissüsteemi, korra või protsessidega, loetakse kvaliteedijuhtimissüsteemi loomise kohustus, välja arvatud käesoleva artikli lõike 1 punktide g, h ja i osas, täidetuks, kui järgitakse nõudeid seoses sisemise juhtimissüsteemi, korra või protsessidega vastavalt finantsteenuseid käsitlevatele asjaomasele liidu õigusele. Seda silmas pidades võetakse arvesse artiklis 40 osutatud harmoneeritud standardeid.
4. W odniesieniu do dostawców będących instytucjami finansowymi, które podlegają wymogom dotyczącym ich systemu zarządzania wewnętrznego, uzgodnień lub procedur na podstawie przepisów prawa Unii dotyczących usług finansowych, obowiązek wprowadzenia systemu zarządzania jakością, z wyjątkiem ust. 1 lit. g), h) oraz i) niniejszego artykułu, uznaje się za spełniony w przypadku zapewnienia zgodności z przepisami dotyczącymi zarządzania wewnętrznego, uzgodnień lub procedur zgodnie z odpowiednimi przepisami prawa Unii dotyczącymi usług finansowych. W tym celu uwzględnia się wszelkie normy zharmonizowane, o których mowa w art. 40.
Parandusmeetmed ja teavitamiskohustus
Działania naprawcze i obowiązek informacyjny
1. Suure riskiga tehisintellektisüsteemide pakkujad, kes arvavad või kellel on põhjust arvata, et suure riskiga tehisintellektisüsteem, mille nad on turule lasknud või kasutusele võtnud, ei vasta käesolevale määrusele, võtavad viivitamatult vajalikud parandusmeetmed, et viia süsteem vastavusse, võtta see turult tagasi, desaktiveerida või nõuda tagasi, nagu on asjakohane. Nad teavitavad sellest asjaomase suure riskiga tehisintellektisüsteemi turustajaid ning kohaldataval juhul juurutajaid, volitatud esindajat ja importijaid.
1. Dostawcy systemów AI wysokiego ryzyka, którzy uważają lub mają powody, by uważać, że system AI wysokiego ryzyka, który wprowadzili do obrotu lub oddali do użytku, nie jest zgodny z niniejszym rozporządzeniem, natychmiast podejmują niezbędne działania naprawcze w celu, stosownie do przypadku, zapewnienia zgodności tego systemu, wycofania go z rynku, wyłączenia go lub wycofania go z użytku. Informują oni o tym dystrybutorów danego systemu AI wysokiego ryzyka oraz, w stosownych przypadkach, odpowiednio podmioty stosujące, upoważnionego przedstawiciela i importerów.
2. Kui suure riskiga tehisintellektisüsteem kujutab endast riski artikli 79 lõike 1 tähenduses ja pakkuja saab sellest riskist teada, peab ta viivitamata uurima selle põhjuseid koostöös aruandva juurutajaga, kui see on kohaldatav, ning teavitama turujärelevalveasutusi, kes on asjaomase suure riskiga süsteemi osas pädevad, ning kui see on kohaldatav, teada antud asutust, kes andis selle suure riskiga tehisintellektisüsteemi jaoks välja artikli 44 kohase sertifikaadi, esitades eelkõige teabe mittevastavuse laadi ja võetud asjakohaste parandusmeetmete kohta.
2. W przypadku gdy system AI wysokiego ryzyka stwarza ryzyko w rozumieniu art. 79 ust. 1 i dostawca danego systemu dowie się o tym ryzyku, dostawca ten natychmiast wyjaśnia przyczyny tego ryzyka, w stosownych przypadkach we współpracy ze zgłaszającym podmiotem stosującym, oraz informuje organy nadzoru rynku właściwe w zakresie przedmiotowych systemów AI wysokiego ryzyka, oraz, w stosownych przypadkach, jednostkę notyfikowaną, która zgodnie z art. 44 wydała certyfikat dla danego systemu AI wysokiego ryzyka, w szczególności o charakterze danej niezgodności oraz o wszelkich podjętych działaniach naprawczych.
Suure riskiga tehisintellektisüsteemide pakkujate volitatud esindajad
Upoważnieni przedstawiciele dostawców systemów AI wysokiego ryzyka
1. Kolmandates riikides asutatud pakkujad peavad enne oma suure riskiga tehisintellektisüsteemide liidu turul kättesaadavaks tegemist määrama kirjaliku volitusega liidus asutatud volitatud esindaja.
1. Przed udostępnieniem swoich systemów AI wysokiego ryzyka na rynku Unii dostawcy mający miejsce zamieszkania lub siedzibę w państwach trzecich ustanawiają – na podstawie pisemnego pełnomocnictwa – upoważnionego przedstawiciela mającego miejsce zamieszkania lub siedzibę w Unii.
2. Pakkuja võimaldab oma volitatud esindajal täita pakkujalt saadud volituses kindlaksmääratud ülesandeid.
2. Dostawca umożliwia swojemu upoważnionemu przedstawicielowi wykonywanie zadań powierzonych mu na mocy pełnomocnictwa udzielonego przez dostawcę.
3. Volitatud esindaja täidab pakkujalt saadud volituses kindlaksmääratud ülesandeid. Volitatud esindaja esitab turujärelevalveasutuste nõudmisel neile volituse koopia pädeva asutuse poolt osutatud liidu institutsioonide ühes ametlikus keeles. Käesoleva määruse kohaldamisel annab volitus volitatud esindajale õiguse täita järgmisi ülesandeid:
3. Upoważniony przedstawiciel wykonuje zadania powierzone mu na mocy pełnomocnictwa udzielonego przez dostawcę. Upoważniony przedstawiciel przekazuje organom nadzoru rynku, na wniosek, kopię pełnomocnictwa w jednym z oficjalnych języków instytucji Unii wskazanym przez właściwy organ. Do celów niniejszego rozporządzenia pełnomocnictwo uprawnia upoważnionego przedstawiciela do wykonywania następujących zadań:
a)
kontrollida, et koostatud on artiklis 47 osutatud ELi vastavusdeklaratsioon ja artiklis 11 osutatud tehniline dokumentatsioon ning et pakkuja on teostanud asjakohase vastavushindamismenetluse;
a)
sprawdzenie, czy zostały sporządzone deklaracja zgodności UE, o której mowa w art. 47, i dokumentacja techniczna, o której mowa w art. 11, oraz czy została przeprowadzona przez dostawcę odpowiednia procedura oceny zgodności;
b)
säilitada pädevate asutuste ja artikli 74 lõikes 10 osutatud riiklike asutuste või organite jaoks kättesaadavana kümne aasta jooksul pärast suure riskiga tehisintellektisüsteemi turule laskmist või kasutusele võtmist pakkuja kontaktandmed, mida kasutades on volitatud esindaja nimetatud, artiklis 47 osutatud ELi vastavusdeklaratsiooni koopia, tehnilise dokumentatsiooni, ning kui see on asjakohane, teada antud asutuse väljastatud sertifikaadi;
b)
przechowywanie do dyspozycji właściwych organów i krajowych organów lub jednostek, o których mowa w art. 74 ust. 10, przez okres 10 lat od wprowadzenia systemu AI wysokiego ryzyka do obrotu lub oddania go do użytku, danych kontaktowych dostawcy, który ustanowił upoważnionego przedstawiciela, kopii deklaracji zgodności UE, o której mowa w art. 47, dokumentacji technicznej oraz, w stosownych przypadkach, certyfikatu wydanego przez jednostkę notyfikowaną;
c)
esitada pädevale asutusele põhjendatud taotluse korral kogu teave ja dokumentatsioon, sealhulgas käesoleva lõigu punktis b osutatud teave ja dokumentatsioon, mis on vajalik, et tõendada suure riskiga tehisintellektisüsteemi vastavust 2. jaos sätestatud nõuetele, sealhulgas pakkuda juurdepääsu suure riskiga tehisintellektisüsteemi automaatselt genereeritud logidele, nagu on osutatud artikli 12 lõikes 1, niivõrd, kuivõrd sellised logid on pakkuja kontrolli all;
c)
przekazywanie właściwemu organowi, na uzasadniony wniosek, wszelkich informacji i dokumentów, w tym tych, o których mowa w lit. b) niniejszego ustępu, niezbędnych do wykazania zgodności systemu AI wysokiego ryzyka z wymogami ustanowionymi w sekcji 2, w tym zapewnienie temu organowi dostępu do generowanych automatycznie przez system AI wysokiego ryzyka rejestrów zdarzeń, o których mowa w art. 12 ust. 1, w zakresie, w jakim tego rodzaju rejestry zdarzeń znajdują się pod kontrolą dostawcy;
d)
teha pädevate asutustega põhjendatud taotluse korral koostööd kõigis toimingutes, mida pädev asutus seoses suure riskiga tehisintellektisüsteemiga ette võtab; eelkõige selleks, et vähendada ja maandada suure riskiga tehisintellektisüsteemist tulenevaid riske;
d)
współpraca z właściwymi organami, na uzasadniony wniosek, w zakresie wszelkich działań, które organy te podejmują w odniesieniu do danego systemu AI wysokiego ryzyka, w szczególności, aby zmniejszyć i ograniczyć ryzyko, jakie stwarza ten system AI wysokiego ryzyka;
e)
täita kohaldataval juhul artikli 49 lõikes 1 osutatud registreerimiskohustusi, või kui registreerimise teeb pakkuja ise, tagada VIII lisa A. jao punktis 3 osutatud teabe õigsus.
e)
w stosownych przypadkach spełnianie obowiązków rejestracyjnych, o których mowa w art. 49 ust. 1, lub, jeżeli rejestracji dokonuje sam dostawca, zapewnienie, by informacje, o których mowa w załączniku VIII sekcja A pkt 3, były prawidłowe.
Volitusega antakse volitatud esindajale õigus, et tema poole võivad pöörduda lisaks pakkujale või selle asemel, pädevad asutused kõigis küsimustes, mis on seotud käesoleva määruse järgimise tagamisega.
Pełnomocnictwo daje upoważnionemu przedstawicielowi prawo do tego, aby właściwe organy mogły się zwracać do niego, obok albo zamiast do dostawcy, we wszystkich kwestiach dotyczących zapewnienia zgodności z niniejszym rozporządzeniem.
4. Volitatud esindaja peatab volituse, kui ta arvab või tal on põhjust arvata, et pakkuja tegevus on vastuolus tema käesolevast määrusest tulenevate kohustustega. Sellisel juhul teatab ta volituse lõpetamisest ja selle põhjustest viivitamata asjakohasele turujärelevalveasutusele ning kui see on kohaldatav, asjaomasele teada antud asutusele.
4. Upoważniony przedstawiciel wypowiada pełnomocnictwo, jeśli uważa lub ma powody uważać, że dostawca działa w sposób sprzeczny ze swoimi obowiązkami wynikającymi z niniejszego rozporządzenia. W takim przypadku upoważniony przedstawiciel natychmiast informuje o wypowiedzeniu pełnomocnictwa i jego przyczynach odpowiedni organ nadzoru rynku, a także, w stosownych przypadkach, odpowiednią jednostkę notyfikowaną.
1. Enne suure riskiga tehisintellektisüsteemi turule laskmist peavad importijad tagama süsteemi vastavuse käesolevale määrusele, kontrollides, et:
1. Przed wprowadzeniem do obrotu systemu AI wysokiego ryzyka importerzy zapewniają jego zgodność z niniejszym rozporządzeniem, sprawdzając, czy:
a)
suure riskiga tehisintellektisüsteemi pakkuja on teostanud artiklis 43 osutatud asjakohase vastavushindamise;
a)
dostawca systemu AI wysokiego ryzyka przeprowadził odpowiednią procedurę oceny zgodności, o której mowa w art. 43;
b)
pakkuja on koostanud tehnilise dokumentatsiooni kooskõlas artikliga 11 ja IV lisaga;
b)
dostawca sporządził dokumentację techniczną zgodnie z art. 11 i załącznikiem IV;
c)
süsteemil on nõutav CE-märgis ning sellega on kaasas artiklis 47 osutatud ELi vastavusdeklaratsioon ja kasutusjuhendid;
c)
system opatrzono wymaganym oznakowaniem CE oraz dołączono do niego deklarację zgodności UE, o której mowa w art. 47, oraz instrukcję obsługi;
d)
pakkuja on määranud volitatud esindaja kooskõlas artikli 22 lõikega 1.
d)
dostawca ustanowił upoważnionego przedstawiciela zgodnie z art. 22 ust. 1.
2. Kui importijal on piisavalt põhjust arvata, et suure riskiga tehisintellektisüsteem ei ole käesoleva määrusega vastavuses või on võltsitud või sellega on kaasas võltsitud dokumentatsioon, ei vii ta süsteemi turule enne, kui see on viidud määrusega vastavusse. Kui suure riskiga tehisintellektisüsteem kujutab endast riski artikli 79 lõike 1 tähenduses, teavitab importija sellest süsteemi pakkujat, volitatud esindajaid ja turujärelevalveasutusi.
2. W przypadku gdy importer ma wystarczające powody, aby uważać, że system AI wysokiego ryzyka jest niezgodny z niniejszym rozporządzeniem lub został sfałszowany lub sfałszowana została dołączona do niego dokumentacja, nie wprowadza tego systemu do obrotu, dopóki nie zostanie zapewniona jego zgodność z niniejszym rozporządzeniem. W przypadku gdy system AI wysokiego ryzyka stwarza ryzyko w rozumieniu art. 79 ust. 1, importer informuje o tym dostawcę systemu, upoważnionych przedstawicieli oraz organy nadzoru rynku.
3. Importijad märgivad oma nime, registreeritud kaubanime või registreeritud kaubamärgi ja aadressi, millel nendega saab suure riskiga tehisintellektisüsteemi teemal ühendust võtta, selle pakendile või kaasasolevatesse dokumentidesse, kui see on kohaldatav.
3. Importerzy podają w systemie AI wysokiego ryzyka, na opakowaniu tego systemu lub, w stosownych przypadkach, w dołączonej do niego dokumentacji swoją nazwę, zarejestrowaną nazwę handlową lub zarejestrowany znak towarowy i adres, pod którym można się z nimi skontaktować.
4. Importijad tagavad vastavalt asjaoludele, et sel ajal, kui suure riskiga tehisintellektisüsteem on nende vastutuse all, ei ohusta ladustamise ega transpordi tingimused kohaldataval juhul selle vastavust 2. jaos sätestatud nõuetele.
4. Importerzy zapewniają, aby w okresie, w którym ponoszą odpowiedzialność za system AI wysokiego ryzyka, warunki jego – stosownie do przypadku – przechowywania lub transportu nie zagrażały jego zgodności z wymogami ustanowionymi w sekcji 2.
5. Importijad säilitavad kümne aasta jooksul pärast suure riskiga tehisintellektisüsteemi turule laskmist või kasutusele võtmist koopia teada antud asutuse väljastatud sertifikaadist, kui see on kohaldatav, kasutusjuhendist ning artiklis 47 osutatud ELi vastavusdeklaratsioonist.
5. Przez okres 10 lat od wprowadzenia systemu AI wysokiego ryzyka do obrotu lub oddania go do użytku, importerzy przechowują kopię certyfikatu wydanego przez jednostkę notyfikowaną, w stosownych przypadkach, kopię instrukcji obsługi oraz deklaracji zgodności UE, o której mowa w art. 47.
6. Importijad esitavad asjakohasele pädevale asutusele põhjendatud taotluse korral neile kergesti arusaadavas keeles kogu teabe ja dokumentatsiooni, sealhulgas lõikes 5 osutatud teabe ja dokumentatsiooni, mis on vajalik, et tõendada suure riskiga tehisintellektisüsteemi vastavust 2. jaos sätestatud nõuetele. Seda silmas pidades tagavad nad ka selle, et nendele asutustele saab kättesaadavaks teha tehnilise dokumentatsiooni.
6. Na uzasadniony wniosek odpowiednich właściwych organów importerzy przekazują im wszelkie niezbędne informacje i dokumentację, w tym te, o których mowa w ust. 5, w celu wykazania zgodności systemu AI wysokiego ryzyka z wymogami ustanowionymi w sekcji 2, w języku łatwo zrozumiałym dla tych organów. W tym celu importerzy zapewniają również możliwość udostępnienia tym organom dokumentacji technicznej.
7. Importijad teevad asjakohaste pädevate asutustega koostööd kõigis toimingutes, mida need asutused võtavad ette seoses suure riskiga tehisintellektisüsteemiga, mille importijad on turule lasknud, eelkõige selleks, et vähendada ja maandada sellest tulenevaid riske.
7. Importerzy współpracują z odpowiednimi właściwymi organami w zakresie wszelkich działań, które organy te podejmują w odniesieniu do systemu AI wysokiego ryzyka wprowadzonego do obrotu przez importerów, w szczególności aby zmniejszyć i ograniczyć stwarzane przez ten system ryzyko.
1. Enne suure riskiga tehisintellektisüsteemi turul kättesaadavaks tegemist kontrollivad turustajad, et see kannab nõutavat CE-märgist, et sellega on kaasas koopia artiklis 47 osutatud ELi vastavusdeklaratsioonist ja kasutusjuhend ning et olenevalt asjaoludest on kas selle süsteemi pakkuja või importija täitnud oma vastavad kohustused, mis on sätestatud artikli 16 punktides b ja c ning artikli 23 lõikes 3.
1. Przed udostępnieniem na rynku systemu AI wysokiego ryzyka dystrybutorzy sprawdzają, czy został on opatrzony wymaganym oznakowaniem zgodności CE, czy dołączono do niego kopię deklaracji zgodności UE, o której mowa w art. 47, i instrukcję obsługi oraz czy dostawca oraz – w stosownych przypadkach – importer tego systemu spełnili swoje obowiązki ustanowione w art. 16 lit. b) i c) oraz w art. 23 ust. 3.
2. Kui turustaja arvab või tal on põhjust tema käsutuses oleva teabe põhjal arvata, et suure riskiga tehisintellektisüsteem ei ole vastavuses 2. jaos sätestatud nõuetega, ei tee ta seda suure riskiga tehisintellektisüsteemi turul kättesaadavaks enne, kui see süsteem on viidud nende nõuetega vastavusse. Peale selle, kui suure riskiga tehisintellektisüsteem kujutab endast riski artikli 79 lõike 1 tähenduses, teavitab turustaja sellest süsteemi pakkujat või importijat, nagu on asjakohane.
2. W przypadku gdy dystrybutor – na podstawie dostępnych mu informacji – uważa lub ma powód, aby uważać, że system AI wysokiego ryzyka nie jest zgodny z wymogami ustanowionymi w sekcji 2 niniejszego tytułu, nie udostępnia na rynku tego systemu AI wysokiego ryzyka, dopóki nie zostanie zapewniona zgodność systemu z tymi wymogami. Ponadto, jeżeli system AI wysokiego ryzyka stwarza ryzyko w rozumieniu art. 79 ust. 1, dystrybutor informuje o tym stosownie do przypadku dostawcę lub importera systemu.
3. Turustaja tagab, et sel ajal, kui suure riskiga tehisintellektisüsteem on tema vastutuse all, ei ohusta ladustamise ega transpordi tingimused kohaldataval juhul süsteemi vastavust 2. jaos sätestatud nõuetele.
3. Dystrybutorzy zapewniają, aby w okresie, w którym ponoszą odpowiedzialność za system AI wysokiego ryzyka, warunki jego przechowywania lub transportu – stosownie do przypadku – nie zagrażały zgodności systemu z wymogami ustanowionymi w sekcji 2.
4. Turustaja, kes arvab või kellel on põhjust tema käsutuses oleva teabe põhjal arvata, et suure riskiga tehisintellektisüsteem, mille ta on turul kättesaadavaks teinud, ei vasta 2. jaos sätestatud nõuetele, võtab parandusmeetmeid, mis on vajalikud, et viia süsteem nende nõuetega vastavusse, võtta see turult tagasi või nõuda tagasi, või tagab, et olenevalt asjaoludest kas pakkuja, importija või mõni asjaomane operaator võtab sellised parandusmeetmed. Kui suure riskiga tehisintellektisüsteem kujutab endast riski artikli 79 lõike 1 tähenduses, teavitab turustaja sellest viivitamata süsteemi pakkujat või importijat ja asjaomase suure riskiga tehisintellektisüsteemi osas pädevaid asutusi, esitades eelkõige üksikasjad mittevastavuse ja võimalike võetud parandusmeetmete kohta.
4. Dystrybutor, który uważa lub ma powód, aby – na podstawie dostępnych mu informacji – uważać, że system AI wysokiego ryzyka udostępniony przez niego na rynku jest niezgodny z wymogami ustanowionymi w sekcji 2, podejmuje działania naprawcze konieczne do zapewnienia zgodności tego systemu z tymi wymogami, do wycofania go z rynku lub wycofania go z użytku lub zapewnia podjęcie takich działań naprawczych przez, stosownie do przypadku, dostawcę, importera lub odpowiedniego operatora. W przypadku gdy system AI wysokiego ryzyka stwarza ryzyko w rozumieniu art. 79 ust. 1, dystrybutor natychmiast informuje o tym dostawcę lub importera systemu oraz organy właściwe w zakresie przedmiotowego system AI wysokiego ryzyka, przekazując szczegółowe informacje w szczególności na temat niezgodności systemu z wymogami i wszelkich podjętych działań naprawczych.
5. Asjakohase pädeva asutuse põhjendatud taotluse korral esitavad suure riskiga tehisintellektisüsteemi turustajad sellele asutusele kogu teabe ja dokumentatsiooni lõigete 1–4 kohaselt võetud meetmete kohta, mis on vajalik, et tõendada kõnealuse süsteemi vastavust 2. jaos sätestatud nõuetele.
5. Na uzasadniony wniosek odpowiedniego organu dystrybutorzy systemów AI wysokiego ryzyka przekazują temu organowi wszelkie informacje i dokumentację dotyczące ich działań zgodnie z ust. 1–4, niezbędne do wykazania zgodności tego systemu z wymogami określonymi w sekcji 2.
6. Turustajad teevad asjakohaste pädevate asutustega koostööd kõigis toimingutes, mida need asutused võtavad ette seoses suure riskiga tehisintellektisüsteemiga, mille turustajad on turul kättesaadavaks teinud, eelkõige selleks, et vähendada või maandada sellest tulenevat riski.
6. Dystrybutorzy współpracują z odpowiednimi organami krajowymi w zakresie wszelkich działań, które organy te podejmują w odniesieniu do systemu AI wysokiego ryzyka udostępnionego na rynku przez dystrybutorów, w szczególności aby zmniejszyć lub ograniczyć stwarzane przez ten system ryzyko.
Vastutus tehisintellekti väärtusahelas
Odpowiedzialność w całym łańcuchu wartości AI
1. Turustajat, importijat, juurutajat või muud kolmandat isikut käsitatakse käesoleva määruse kohaldamisel suure riskiga tehisintellektisüsteemi pakkujana ning tema suhtes kohaldatakse artiklist 16 tulenevaid pakkuja kohustusi mis tahes järgmisel juhul:
1. Do celów niniejszego rozporządzenia za dostawcę systemu AI wysokiego ryzyka uznaje się i obejmuje obowiązkami dostawcy ustanowionymi w art. 16 każdego dystrybutora, importera, podmiot stosujący lub inną stronę trzecią, jeżeli zachodzi którakolwiek z następujących okoliczności:
a)
ta lisab juba turule lastud või kasutusele võetud suure riskiga tehisintellektisüsteemile oma nime või kaubamärgi, ilma et see piiraks selliste lepinguliste kokkulepete kohaldamist, milles sätestatakse, et kohustused on muul viisil jaotatud;
a)
umieszczają oni swoją nazwę lub znak towarowy w systemie AI wysokiego ryzyka, który został już wprowadzony do obrotu lub oddany do użytku, bez uszczerbku dla ustaleń umownych przewidujących, że podział obowiązków następuje w inny sposób;
b)
nad teevad suure riskiga tehisintellektisüsteemi, mis on juba turule lastud või kasutusele võetud, olulise muudatuse viisil, et see jääb suure riskiga tehisintellektisüsteemiks vastavalt artiklile 6;
b)
we wprowadzonym już do obrotu lub oddanym do użytku systemie AI wysokiego ryzyka dokonują oni istotnej zmiany w taki sposób, że pozostaje on systemem AI wysokiego ryzyka zgodnie z art. 6;
c)
nad muudavad tehisintellektisüsteemi, sealhulgas üldotstarbelisse tehisintellektisüsteemi, mida ei ole liigitatud suure riskiga tehisintellektisüsteemiks ja mis on juba turule lastud või kasutusele võetud, sihtotstarvet, nii et asjaomasest tehisintellektisüsteemist saab suure riskiga tehisintellektisüsteem vastavalt artiklile 6.
c)
zmieniają oni przeznaczenie systemu AI, w tym systemu AI ogólnego przeznaczenia, który nie został zaklasyfikowany jako system AI wysokiego ryzyka i który został już wprowadzony do obrotu lub oddany do użytku, w taki sposób, że dany system AI staje się systemem AI wysokiego ryzyka zgodnie z art. 6.
2. Lõikes 1 osutatud asjaolude ilmnemise korral ei käsitata tehisintellektisüsteemi algselt turule lasknud või kasutusele võtnud pakkujat enam käesoleva määruse kohaldamisel selle konkreetse tehisintellektisüsteemi pakkujana. Kõnealune algne pakkuja teeb tihedat koostööd uute pakkujatega ning teeb kättesaadavaks vajaliku teabe ja annab mõistlikult eeldatava tehnilise juurdepääsu ja osutab muud abi, mida on vaja käesolevas määruses sätestatud kohustuste täitmiseks, eelkõige seoses suure riskiga tehisintellektisüsteemide vastavushindamise järgimisega. Käesolevat lõiget ei kohaldata juhul, kui algne pakkuja on selgelt täpsustanud, et tema tehisintellektisüsteemi ei tohi muuta suure riskiga tehisintellektisüsteemiks, ja seetõttu ei kohaldata tema suhtes dokumentide üleandmise kohustust.
2. W przypadku zaistnienia okoliczności, o których mowa w ust. 1, dostawcy, który pierwotnie wprowadził do obrotu lub oddał do użytku ten system AI, nie uznaje się już do celów niniejszego rozporządzenia za dostawcę tego konkretnego systemu AI. Ten pierwotny dostawca ściśle współpracuje z nowymi dostawcami i udostępnia niezbędne informacje oraz udziela racjonalnie oczekiwanego dostępu technicznego i innego wsparcia niezbędnych do spełnienia obowiązków określonych w niniejszym rozporządzeniu, w szczególności w odniesieniu do zgodności z kryteriami oceny zgodności systemów AI wysokiego ryzyka. Niniejszego ustępu nie stosuje się w przypadkach, gdy pierwotny dostawca wyraźnie określił, że jego system AI nie może zostać zmieniony w system AI wysokiego ryzyka, a zatem nie dotyczy go obowiązek przekazania dokumentacji.
3. Suure riskiga tehisintellektisüsteemide puhul, mis on selliste toodete turvakomponendid, mille suhtes kohaldatakse I lisa A jaos loetletud liidu ühtlustamisõigusakte, käsitatakse nende toodete valmistajat suure riskiga tehisintellektisüsteemi pakkujana ja ta peab täitma artikli 16 kohaseid kohustusi ühel järgmistest juhtudest:
3. W przypadku systemów AI wysokiego ryzyka, które stanowią związane z bezpieczeństwem elementy produktów objętych zakresem unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I sekcja A, producenta produktów uznaje się za dostawcę systemu AI wysokiego ryzyka i podlega on obowiązkom ustanowionym w art. 16, jeżeli zachodzi którakolwiek z następujących okoliczności:
a)
suure riskiga tehisintellektisüsteem lastakse turule koos tootega toote valmistaja nime või kaubamärgi all;
a)
system AI wysokiego ryzyka jest wprowadzany do obrotu wraz z produktem pod nazwą lub znakiem towarowym producenta produktu;
b)
suure riskiga tehisintellektisüsteem võetakse kasutusele toote valmistaja nime või kaubamärgi all pärast toote turule laskmist.
b)
system AI wysokiego ryzyka jest oddawany do użytku pod nazwą lub znakiem towarowym producenta produktu po wprowadzeniu produktu do obrotu.
4. Suure riskiga tehisintellektisüsteemi pakkuja ja kolmas isik, kes tarnib tehisintellektisüsteemi, vahendeid, teenuseid, komponente või protsesse, mida kasutatakse suure riskiga tehisintellektisüsteemis või mis on sellesse integreeritud, määravad tehnika üldtunnustatud tasemele tuginedes kirjaliku kokkuleppega kindlaks vajaliku teabe, võimekuse, tehnilise juurdepääsu ja või muu abi, et võimaldada suure riskiga tehisintellektisüsteemi pakkujal täielikult täita käesolevast määrusest tulenevaid kohustusi. Käesolevat lõiget ei kohaldata kolmandate isikute suhtes, kes teevad vaba ja avatud lähtekoodi litsentsi alusel avalikele vahenditele, teenustele, protsessidele või komponentidele kättesaadavaks muud kui üldotstarbelised tehisintellektimudelid.
4. Dostawca systemu AI wysokiego ryzyka i osoba trzecia dostarczająca system AI, narzędzia, usługi, komponenty lub procesy, które są wykorzystywane w systemie AI wysokiego ryzyka lub z nim zintegrowane, wskazują, w drodze pisemnej umowy, informacje, zdolności, dostęp techniczny i innego rodzaju pomoc opartą na powszechnie uznanym stanie wiedzy technicznej wymagane, aby umożliwić dostawcy systemu AI wysokiego ryzyka pełne spełnienie obowiązków ustanowionych w niniejszym rozporządzeniu. Niniejszego ustępu nie stosuje się do osób trzecich udostępniających publicznie na podstawie bezpłatnej licencji otwartego oprogramowania narzędzia, usługi, procesy lub komponenty inne niż modele AI ogólnego przeznaczenia.
Tehisintellektiamet võib välja töötada ja soovitada vabatahtlikke näidis-lepingutingimusi kasutamiseks suure riskiga tehisintellektisüsteemide pakkujate ja kolmandate isikute vahel, kes pakuvad suure riskiga tehisintellektisüsteemides kasutatavaid või integreeritud vahendeid, teenuseid, komponente või protsesse. Vabatahtlike näidistingimuste väljatöötamisel peaks tehisintellektiamet arvesse võtma konkreetsetes sektorites või ärimudelites kohaldatavaid võimalikke lepingulisi nõudeid. Vabatahtlikud näidistingimused avaldatakse ja tehakse tasuta kättesaadavaks kergesti kasutatavas elektroonilises vormingus.
Urząd ds. AI może opracować i zalecić dobrowolne wzorcowe postanowienia umowne dla umów zawieranych między dostawcami systemów AI wysokiego ryzyka a osobami trzecimi dostarczającymi narzędzia, usługi, komponenty lub procesy, które są wykorzystywane na potrzeby systemów AI wysokiego ryzyka lub zintegrowane z tymi systemami. Przy opracowywaniu dobrowolnych wzorcowych postanowień umownych, Urząd ds. AI bierze również pod uwagę ewentualne wymogi umowne mające zastosowanie w określonych sektorach lub przypadkach biznesowych. Dobrowolne wzorcowe postanowienia umowne są publikowane i udostępniane bezpłatnie w łatwym w użyciu formacie elektronicznym.
5. Lõiked 2 ja 3 ei piira vajadust järgida ja kaitsta intellektuaalomandi õigusi, konfidentsiaalset äriteavet ja ärisaladusi kooskõlas liidu ja siseriikliku õigusega.
5. Ust. 2 i 3 pozostają bez uszczerbku dla konieczności przestrzegania i ochrony praw własności intelektualnej, poufnych informacji handlowych i tajemnic przedsiębiorstwa zgodnie z prawem Unii i prawem krajowym.
Suure riskiga tehisintellektisüsteemide juurutajate kohustused
Obowiązki podmiotów stosujących systemy AI wysokiego ryzyka
1. Suure riskiga tehisintellektisüsteemide juurutajad võtavad asjakohaseid tehnilisi ja organisatsioonilisi meetmeid eesmärgiga tagada, et nad kasutavad selliseid süsteeme vastavalt süsteemiga kaasas olevale kasutusjuhendile kooskõlas lõigetega 3 ja 6.
1. Podmioty stosujące systemy AI wysokiego ryzyka podejmują – na podstawie ust. 3 i 6 – odpowiednie środki techniczne i organizacyjne w celu zapewnienia, aby systemy takie były wykorzystywane zgodnie z dołączoną do nich instrukcją obsługi.
2. Juurutajad annavad inimjärelevalve ülesande sellistele füüsilistele isikutele, kellel on vajalik pädevus, väljaõpe ja vastavad volitused ning vajalikud tugistruktuurid.
2. Podmioty stosujące powierzają sprawowanie nadzoru ze strony człowieka osobom fizycznym, które mają niezbędne kompetencje, przeszkolenie i uprawnienia, a także niezbędne wsparcie.
3. Lõigetes 1 ja 2 sätestatud kohustused ei piira muid liidu või liikmesriigi õigusest tulenevaid juurutaja kohustusi ega juurutaja vabadust oma vahendite ja tegevuse korraldamisel, et rakendada pakkuja märgitud inimjärelevalve meetmeid.
3. Obowiązki ustanowione w ust. 1 i 2 pozostają bez uszczerbku dla innych obowiązków podmiotu stosującego wynikających z prawa Unii lub prawa krajowego oraz dla przysługującej podmiotowi stosującemu swobody organizowania swoich zasobów własnych i działań w celu wdrożenia wskazanych przez dostawcę środków nadzoru ze strony człowieka.
4. Niivõrd, kuivõrd juurutajal on kontroll sisendandmete üle, tagab see juurutaja, et sisendandmed on suure riskiga tehisintellektisüsteemi sihtotstarbe seisukohast asjakohased ja piisavalt esinduslikud, ilma et see piiraks lõigete 1 ja 2 kohaldamist.
4. Bez uszczerbku dla ust. 1 i 2 podmiot stosujący zapewnia, w zakresie, w jakim sprawuje on kontrolę nad danymi wejściowymi, adekwatność i wystarczającą reprezentatywność danych wejściowych w odniesieniu do przeznaczenia systemu AI wysokiego ryzyka.
5. Juurutajad tegelevad suure riskiga tehisintellektisüsteemi toimimise seirega kasutusjuhendi alusel ja asjakohasel juhul teavitavad pakkujaid vastavalt artiklile 72. Kui juurutajatel on põhjust arvata, et kasutusjuhendi kohase kasutamise tulemusena võib suure riskiga tehisintellektisüsteem kujutada endast riski artikli 79 lõike 1 tähenduses, teavitavad nad põhjendamatu viivituseta pakkujat või turustajat ja asjaomast turujärelevalveasutust ning peatavad selle süsteemi kasutamise. Kui juurutajad on tuvastanud tõsise intsidendi, teavitavad nad sellest intsidendist viivitamata ka kõigepealt pakkujat ning seejärel importijat või turustajat ja asjaomaseid turujärelevalveasutusi. Kui juurutaja ei saa pakkujaga ühendust, kohaldatakse artiklit 73 mutatis mutandis. See kohustus ei hõlma õiguskaitseasutustest tehisintellektisüsteemide juurutajate tundlikke operatiivandmeid.
5. Podmioty stosujące monitorują działanie systemu AI wysokiego ryzyka w oparciu o instrukcję obsługi i w stosownych przypadkach informują dostawców zgodnie z art. 72. W przypadku gdy podmioty stosujące mają powody uważać, że wykorzystanie systemu AI wysokiego ryzyka zgodnie z instrukcją obsługi może powodować, że ten system AI będzie stwarzał ryzyko w rozumieniu art. 79 ust. 1, bez zbędnej zwłoki informują o tym dostawcę lub dystrybutora oraz odpowiedni organ nadzoru rynku i zawieszają wykorzystywanie systemu. W przypadku gdy podmioty stosujące stwierdziły wystąpienie poważnego incydentu, natychmiast informują o tym incydencie najpierw dostawcę, a następnie importera lub dystrybutora oraz odpowiednie organy nadzoru rynku. Jeżeli podmiot stosujący nie jest w stanie skontaktować się z dostawcą, art. 73 stosuje się odpowiednio. Obowiązek ten nie obejmuje wrażliwych danych operacyjnych podmiotów stosujących systemy AI będących organami ścigania.
Finantsasutustest juurutajate puhul, kes peavad täitma finantsteenuseid käsitleva liidu õiguse kohaseid nõudeid seoses nende sisemise juhtimissüsteemi, korra või protsessidega, loetakse esimeses lõigus sätestatud seirekohustus täidetuks, kui vastavalt finantsteenuseid käsitlevale asjaomasele õigusele on täidetud sisemise juhtimissüsteemi, protsesside ja mehhanismide alased nõuded.
W odniesieniu do podmiotów stosujących będących instytucjami finansowymi, które podlegają wymogom dotyczącym ich systemu zarządzania wewnętrznego, uzgodnień lub procedur na podstawie przepisów prawa Unii dotyczących usług finansowych, obowiązek w zakresie monitorowania, o którym mowa w akapicie pierwszym, uznaje się za spełniony w przypadku zapewnienia zgodności z przepisami dotyczącymi uzgodnień, procedur i mechanizmów zarządzania wewnętrznego na podstawie odpowiednich przepisów dotyczących usług finansowych.
6. Suure riskiga tehisintellektisüsteemide juurutajad säilitavad selle suure riskiga tehisintellektisüsteemi poolt automaatselt genereeritud logisid niivõrd, kuivõrd sellised logid on nende kontrolli all, ajavahemiku jooksul, mis vastab suure riskiga tehisintellektisüsteemi sihtotstarbele ning vähemalt kuue kuu jooksul, välja arvatud juhul, kui kohaldatavas liidu või siseriiklikus õiguses, eelkõige isikuandmete kaitset käsitlevas liidu õiguses on sätestatud teisiti.
6. Podmioty stosujące systemy AI wysokiego ryzyka przechowują generowane automatycznie przez system AI wysokiego ryzyka rejestry zdarzeń – w zakresie, w jakim rejestry te znajdują się pod ich kontrolą – przez stosowny ze względu na przeznaczenie danego systemu AI wysokiego ryzyka okres, wynoszący co najmniej sześć miesięcy, o ile mające zastosowanie prawo Unii lub prawo krajowe, w szczególności prawo Unii dotyczące ochrony danych osobowych, nie stanowi inaczej.
Finantsasutustest juurutajad, kes peavad täitma finantsteenuseid käsitleva liidu õiguse kohaseid nõudeid seoses nende sisemise juhtimissüsteemi, korra või protsessidega, säilitavad logisid osana dokumentatsioonist, mida tuleb säilitada vastavalt finantsteenuseid käsitlevale asjaomasele liidu õigusele.
Podmioty stosujące będące instytucjami finansowymi, które podlegają wymogom dotyczącym ich systemu zarządzania wewnętrznego, uzgodnień lub procedur na podstawie przepisów prawa Unii dotyczących usług finansowych, prowadzą rejestry zdarzeń jako część dokumentacji prowadzonej na podstawie odpowiednich unijnych przepisów dotyczących usług finansowych.
7. Enne suure riskiga tehisintellektisüsteemi kasutusele võtmist või kasutamist töökohal teavitavad tööandjatest juurutajad töötajate esindajaid ja mõjutatud töötajaid sellest, et nende suhtes hakatakse kasutama suure riskiga tehisintellektisüsteemi. See teave esitatakse kohaldataval juhul kooskõlas töötajate ja nende esindajate teavitamist käsitlevates liidu ja siseriiklikes õigusaktides ja tavades sätestatud õigusnormide ja menetlustega.
7. Przed oddaniem do użytku lub wykorzystaniem systemu AI wysokiego ryzyka w miejscu pracy podmioty stosujące będące pracodawcami informują przedstawicieli pracowników i pracowników, których to dotyczy, że będzie w stosunku do nich wykorzystywany system AI wysokiego ryzyka. Informacje te przekazuje się, w stosownych przypadkach, zgodnie z zasadami i procedurami ustanowionymi w prawie Unii i prawie krajowym oraz praktyką w zakresie informowania pracowników i ich przedstawicieli.
8. Suure riskiga tehisintellektisüsteemide juurutajad, kes on avaliku sektori asutused või liidu institutsioonid, organid või asutused, täidavad artiklis 49 osutatud registreerimiskohustusi. Kui sellised juurutajad leiavad, et suure riskiga tehisintellektisüsteem, mida nad kavatsevad kasutada, ei ole registreeritud ELi andmebaasis, millele on osutatud artiklis 71, siis nad seda süsteemi ei kasuta ning teavitavad pakkujat või turustajat.
8. Podmioty stosujące systemy AI wysokiego ryzyka, będące publicznymi organami lub instytucjami, organami i jednostkami organizacyjnymi Unii, spełniają obowiązki rejestracji, o których mowa w art. 49. Jeżeli takie podmioty stosujące ustalą, że system AI wysokiego ryzyka, który zamierzają wykorzystywać, nie został zarejestrowany w bazie danych UE, o której mowa w art. 71, nie stosują tego systemu i informują o tym dostawcę lub dystrybutora.
9. Suure riskiga tehisintellektisüsteemide juurutajad kasutavad käesoleva määruse artikli 13 alusel esitatavat teavet, et täita oma kohustust koostada vajaduse korral andmekaitsealane mõjuhinnang vastavalt määruse (EL) 2016/679 artiklile 35 või direktiivi (EL) 2016/680 artiklile 27.
9. W stosownych przypadkach, podmioty stosujące systemy AI wysokiego ryzyka korzystają z informacji przekazanych na podstawie art. 13 niniejszego rozporządzenia, aby spełnić spoczywając na nich obowiązki przeprowadzenia oceny skutków dla ochrony danych zgodnie z art. 35 rozporządzenia (UE) 2016/679 lub art. 27 dyrektywy (UE) 2016/680.
10. Ilma et see piiraks direktiivi (EL) 2016/680 kohaldamist, taotleb tagantjärele toimuvaks biomeetriliseks kaugtuvastamiseks mõeldud suure riskiga tehisintellektisüsteemi juurutaja kuriteo toimepanemises kahtlustatava või süüdi mõistetud isiku sihipärase otsingu raames selle süsteemi kasutamiseks eelnevalt või põhjendamatu viivituseta, kuid mitte hiljem kui 48 tunni jooksul luba õigusasutuselt või haldusasutuselt, kelle otsus on siduv ja mille suhtes kohaldatakse kohtulikku kontrolli, välja arvatud juhul, kui seda kasutatakse võimaliku kahtlustatava esmaseks tuvastamiseks kuriteoga otseselt seotud objektiivsete ja kontrollitavate faktide põhjal. Iga kasutamine piirdub sellega, mis on rangelt vajalik konkreetse kuriteo uurimiseks.
10. Bez uszczerbku dla dyrektywy (UE) 2016/680, w ramach postępowania przygotowawczego dotyczącego ukierunkowanego poszukiwania osoby podejrzanej o popełnienie przestępstwa lub skazanej za popełnienie przestępstwa podmiot stosujący system AI wysokiego ryzyka do celów zdalnej identyfikacji biometrycznej post factum zwraca się – ex ante lub bez zbędnej zwłoki, nie później jednak niż w ciągu 48 godzin – do organu wymiaru sprawiedliwości lub organu administracyjnego, którego decyzja jest wiążąca i podlega kontroli sądowej, z wnioskiem o zezwolenie na wykorzystanie tego systemu, z wyjątkiem sytuacji, gdy jest on wykorzystywany do wstępnej identyfikacji potencjalnego podejrzanego w oparciu o obiektywne i możliwe do zweryfikowania fakty bezpośrednio związane z przestępstwem. Każde wykorzystanie takiego systemu musi być ograniczone do tego, co jest bezwzględnie konieczne do prowadzenia postępowań przygotowawczych w sprawie konkretnego przestępstwa.
Kui esimese lõigu kohane loataotlus lükatakse tagasi, peatatakse viivitamata taotletud loaga seotud tagantjärele toimuva biomeetrilise kaugtuvastamise süsteemi kasutamine ja selle suure riskiga tehisintellektisüsteemi kasutamisega seotud isikuandmed, mille jaoks luba taotleti, kustutatakse.
W przypadku gdy wniosek o zezwolenie, o którym mowa w akapicie pierwszym, zostanie odrzucony, korzystanie z systemu zdalnej identyfikacji biometrycznej post factum, będące przedmiotem wniosku o zezwolenie, zostaje wstrzymane ze skutkiem natychmiastowym, a dane osobowe związane z wykorzystaniem systemu AI wysokiego ryzyka, w odniesieniu do którego złożono wniosek o zezwolenie, zostają usunięte.
Ühelgi juhul ei tohi sellist suure riskiga tehisintellektisüsteemi tagantjärele toimuvaks biomeetriliseks kaugtuvastamiseks kasutada õiguskaitse eesmärkidel kindla suunitluseta, ilma et see oleks mingil viisil seotud kuriteo, kriminaalmenetluse, kuriteo tegeliku ja olemasoleva või tegeliku ja prognoositava ohuga või konkreetse teadmata kadunud isiku otsimisega. Ühtki isiku suhtes kahjulikke õiguslikke tagajärgi põhjustavat otsust ei tohi teha üksnes tagantjärele toimuva biomeetrilise kaugtuvastamise süsteemi tulemuste põhjal.
W żadnym przypadku taki system AI wysokiego ryzyka służący do zdalnej identyfikacji biometrycznej post factum nie może być wykorzystywany do celów ścigania przestępstw w sposób nieukierunkowany, bez związku z przestępstwem, postępowaniem karnym, rzeczywistym i obecnym lub rzeczywistym i dającym się przewidzieć zagrożeniem popełnieniem przestępstwa lub poszukiwaniem konkretnej osoby zaginionej. Zapewnia się, aby organy ścigania mogły wydać żadnej decyzji wywołującej niepożądane skutki prawne dla danej osoby wyłącznie na podstawie wyników uzyskanych z systemu zdalnej identyfikacji biometrycznej post factum.
Käesolev lõige ei piira määruse (EL) 2016/679 artikli 9 ja direktiivi (EL) 2016/680 artikli 10 kohaldamist biomeetriliste andmete töötlemisel.
Niniejszy ustęp pozostaje bez uszczerbku dla art. 9 rozporządzenia (UE) 2016/679 i art. 10 dyrektywy (UE) 2016/680 w odniesieniu do przetwarzania danych biometrycznych.
Olenemata eesmärgist või juurutajast, dokumenteeritakse selliste suure riskiga tehisintellektisüsteemide iga kasutamine asjaomases politseitoimikus ning tehakse taotluse korral kättesaadavaks asjaomasele turujärelevalveasutusele ja riiklikule andmekaitseasutusele, välistades õiguskaitsega seotud tundlike operatiivandmete avalikustamise. Käesolev lõik ei piira direktiiviga (EL) 2016/680 järelevalveasutustele antud volitusi.
Niezależnie od celu lub podmiotu stosującego każde wykorzystanie takich systemów AI wysokiego ryzyka musi zostać udokumentowane w odpowiednich aktach policyjnych i udostępnione na wniosek właściwego organu nadzoru rynku i krajowemu organowi ochrony danych, z wyłączeniem ujawniania wrażliwych danych operacyjnych związanych ze ściganiem przestępstw. Niniejszy akapit pozostaje bez uszczerbku dla uprawnień powierzonych organom nadzorczym dyrektywą (UE) 2016/680.
Juurutajad esitavad asjaomastele turujärelevalve- ja riiklikele andmekaitseasutustele aastaaruanded tagantjärele toimuva biomeetrilise tuvastamise süsteemide kasutamise kohta, välistades õiguskaitsega seotud tundlike operatiivandmete avalikustamise. Aruanded võib koondada nii, et need hõlmaksid rohkem kui ühte kasutamist.
Podmioty stosujące przedkładają właściwym organom nadzoru rynku i krajowym organom ochrony danych roczne sprawozdania dotyczące wykorzystania przez nie systemów zdalnej identyfikacji biometrycznej post factum, z wyłączeniem ujawniania wrażliwych danych operacyjnych związanych ze ściganiem przestępstw. Sprawozdania te mogą zostać zagregowane w celu uwzględnienia stosowania więcej niż jednego systemu.
Liikmesriigid võivad kooskõlas liidu õigusega kehtestada tagantjärele toimuva biomeetrilise kaugtuvastamise süsteemide kasutamise kohta piiravamaid õigusakte.
Państwa członkowskie mogą wprowadzić, zgodnie z prawem Unii, bardziej restrykcyjne przepisy dotyczące korzystania z systemów zdalnej identyfikacji biometrycznej post factum.
11. Ilma et see mõjutaks käesoleva määruse artikli 50 kohaldamist, teavitavad selliste III lisas osutatud suure riskiga tehisintellektisüsteemide juurutajad, mis teevad füüsiliste isikutega seotud otsuseid või aitavad neid otsuseid teha, füüsilisi isikuid sellest, et nende suhtes kasutakse suure riskiga tehisintellektisüsteemi. Õiguskaitse eesmärgil kasutatavate suure riskiga tehisintellektisüsteemide suhtes kohaldatakse direktiivi (EL) 2016/680 artiklit 13.
11. Bez uszczerbku dla art. 50 niniejszego rozporządzenia podmioty stosujące systemy wysokiego ryzyka, o których mowa w załączniku III, które to podmioty podejmują decyzje lub uczestniczą w podejmowaniu decyzji dotyczących osób fizycznych, informują osoby fizyczne o tym, że jest w stosunku do nich wykorzystywany system AI wysokiego ryzyka. W przypadku systemów AI wysokiego ryzyka wykorzystywanych do celów ścigania przestępstw stosuje się art. 13 dyrektywy (UE) 2016/680.
12. Juurutajad teevad asjakohaste pädevate asutustega koostööd kõigis toimingutes, mida kõnealused asutused võtavad ette seoses suure riskiga tehisintellektisüsteemiga käesoleva määruse rakendamiseks.
12. Podmioty stosujące współpracują z odpowiednimi właściwymi organami przy wszelkich działaniach, które organy te podejmują w odniesieniu do systemu AI wysokiego ryzyka, w celu wykonywania niniejszego rozporządzenia.
Põhiõigustele avaldatava mõju hindamine suure riskiga tehisintellektisüsteemide puhul
Ocena skutków systemów AI wysokiego ryzyka dla praw podstawowych
1. Enne artikli 6 lõikes 2 osutatud suure riskiga tehisintellektisüsteemi juurutamist, välja arvatud suure riskiga tehisintellektisüsteemide puhul, mis on ette nähtud kasutamiseks III lisa punktis 2 loetletud valdkonnas, hindavad juurutajad, kes on avalik-õiguslikud asutused või avalikke teenuseid osutavad eraõiguslikud üksused, ning III lisa punkti 5 alapunktides b ja c osutatud suure riskiga tehisintellektisüsteemide juurutajad põhiõigustele avalduvat mõju, mida sellise süsteemi kasutamine võib avaldada. Selleks viivad juurutajad läbi hindamise, mis hõlmab järgmist:
1. Przed wdrożeniem systemu AI wysokiego ryzyka, o którym mowa w art. 6 ust. 2, z wyjątkiem systemów AI wysokiego ryzyka przeznaczonych do stosowania w obszarze wymienionym w załączniku III pkt 2, podmioty stosujące będące podmiotami prawa publicznego lub podmiotami prywatnymi świadczącymi usługi publiczne, oraz podmioty stosujące systemy AI wysokiego ryzyka, o których mowa w załączniku III pkt 5 lit. b) i c), przeprowadzają ocenę skutków w zakresie praw podstawowych, jakie może wywołać wykorzystanie takiego systemu. W tym celu podmioty stosujące przeprowadzają ocenę obejmującą:
a)
juurutaja kirjeldus protsessidest, milles suure riskiga tehisintellektisüsteemi kasutatakse kooskõlas selle sihtotstarbega;
a)
opis procesów podmiotu stosującego, w których system AI wysokiego ryzyka będzie wykorzystywany zgodnie z jego przeznaczeniem;
b)
viide ajavahemikule, mille jooksul iga suure riskiga tehisintellektisüsteemi kavatsetakse kasutada, ja kasutamise sagedus;
b)
opis okresu, w którym każdy system AI wysokiego ryzyka ma być wykorzystywany i opis częstotliwości tego wykorzystywania;
c)
füüsiliste isikute ja rühmade kategooriad, keda süsteemi kasutamine konkreetses kontekstis tõenäoliselt mõjutab;
c)
kategorie osób fizycznych i grup, na które może mieć wpływ wykorzystywanie systemu;
d)
konkreetsed käesoleva lõike punkti c kohaselt kindlaks tehtud füüsiliste isikute või isikute rühmade kategooriaid mõjutada võiva kahju riskid, võttes arvesse pakkuja poolt artikli 13 kohaselt esitatud teavet;
d)
szczególne ryzyko szkody, które może mieć wpływ na kategorie osób fizycznych lub grupy osób zidentyfikowane zgodnie z lit. c) niniejszego ustępu, z uwzględnieniem informacji przekazanych przez dostawcę zgodnie z art. 13;
e)
inimjärelevalve meetmete rakendamise kirjeldus vastavalt kasutusjuhendile;
e)
opis wdrożenia środków nadzoru ze strony człowieka, zgodnie z instrukcją obsługi;
f)
nende riskide realiseerumise korral võetavad meetmed, sealhulgas sisejuhtimise kord ja kaebuste esitamise mehhanismid.
f)
środki, jakie należy podjąć w przypadku urzeczywistnienia się tego ryzyka, w tym ustalenia dotyczące zarządzania wewnętrznego i mechanizmów rozpatrywania skarg.
2. Lõikes 1 sätestatud kohustus kehtib suure riskiga tehisintellektisüsteemi esimese kasutamise korral. Sarnastel juhtudel võib juurutaja tugineda varem läbi viidud põhiõiguste mõjuhinnangutele või olemasolevatele pakkuja tehtud mõjuhinnangutele. Kui juurutaja leiab suure riskiga tehisintellektisüsteemi kasutamise ajal, et mõni lõikes 1 loetletud elementidest on muutunud või ei ole enam ajakohane, võtab juurutaja vajalikud meetmed teabe ajakohastamiseks.
2. Obowiązek ustanowiony w ust. 1 ma zastosowanie do wykorzystania systemu AI wysokiego ryzyka po raz pierwszy. W podobnych przypadkach podmiot stosujący może polegać na wcześniej przeprowadzonych ocenach skutków dla praw podstawowych lub na istniejących ocenach skutków przeprowadzonych przez dostawcę. Jeżeli w trakcie wykorzystania systemu AI wysokiego ryzyka podmiot stosujący uzna, że którykolwiek z elementów wymienionych w ust. 1 uległ zmianie lub nie jest już aktualny, podmiot ten podejmuje niezbędne kroki w celu aktualizacji informacji.
3. Kui käesoleva artikli lõikes 1 osutatud hindamine on tehtud, teavitab juurutaja turujärelevalveasutust selle tulemustest, esitades täidetuna käesoleva artikli lõikes 5 osutatud vormi teavituse osana. Artikli 46 lõikes 1 osutatud juhul võib juurutajad nimetatud teavitamiskohustusest vabastada.
3. Po przeprowadzeniu oceny, o której mowa w ust. 1 niniejszego artykułu, podmiot stosujący powiadamia organ nadzoru rynku o jej wynikach, przedkładając jako element tego powiadomienia wypełniony wzór, o którym mowa w ust. 5 niniejszego artykułu. W przypadku, o którym mowa w art. 46 ust. 1, podmioty stosujące mogą zostać zwolnione z obowiązku dokonania powiadomienia.
4. Kui mõni käesolevas artiklis sätestatud kohustustest on määruse (EL) 2016/679 artikli 35 või direktiivi (EL) 2016/680 artikli 27 kohaselt tehtud andmekaitsealase mõjuhinnangu tulemusel juba täidetud, täiendab käesoleva artikli lõikes 1 osutatud põhiõiguste mõjuhinnang kõnealust andmekaitsealast mõjuhinnangut.
4. Jeżeli którykolwiek z obowiązków ustanowionych w niniejszym artykule został już spełniony w wyniku oceny skutków dla ochrony danych przeprowadzonej zgodnie z art. 35 rozporządzenia (UE) 2016/679 lub art. 27 dyrektywy (UE) 2016/680, ocena skutków w zakresie praw podstawowych, o której mowa w ust. 1 niniejszego artykułu, stanowi uzupełnieniem tej oceny skutków dla ochrony danych.
5. Tehisintellektiamet töötab välja küsimustiku vormi, sealhulgas automaatse vahendi abil, et hõlbustada juurutajatel täita käesolevast artiklist tulenevaid kohustusi lihtsustatud viisil.
5. Urząd ds. AI opracowuje wzór kwestionariusza, w tym za pomocą zautomatyzowanego narzędzia, aby ułatwić podmiotom stosującym spełnianie ich obowiązków wynikających z niniejszego artykułu w sposób uproszczony.
1. Iga liikmesriik määrab või loob vähemalt ühe teavitava asutuse, kes vastutab vastavushindamisasutuste hindamise, määramise ja neist teavitamise ning nende järelevalve jaoks vajalike menetluste väljatöötamise ja läbiviimise eest. Nimetatud menetlused töötatakse välja kõigi liikmesriikide teavitavate asutuste koostöös.
1. Każde państwo członkowskie wyznacza lub ustanawia przynajmniej jeden organ notyfikujący odpowiedzialny za opracowanie i stosowanie procedur koniecznych do oceny, wyznaczania i notyfikowania jednostek oceniających zgodność oraz za ich monitorowanie. Procedury te są przygotowywane wspólnie przez organy notyfikujące wszystkich państw członkowskich.
2. Liikmesriigid võivad otsustada, et lõikes 1 osutatud hindamist ja järelevalvet teostab riiklik akrediteerimisasutus määruse (EÜ) nr 765/2008 tähenduses ja sellega kooskõlas.
2. Państwa członkowskie mogą zdecydować, że ocena oraz monitorowanie, o których mowa w ust. 1, są prowadzone przez krajową jednostkę akredytującą w rozumieniu rozporządzenia (WE) nr 765/2008 oraz zgodnie z tym rozporządzeniem.
3. Teavitavad asutused tuleb luua, nende töö korraldada ja neid juhtida nii, et ei tekiks huvide konflikti vastavushindamisasutustega ning et oleks kindlustatud nende tegevuse objektiivsus ja erapooletus.
3. Organy notyfikujące ustanawia się, organizuje się i zarządza się nimi w taki sposób, aby nie dopuścić do wystąpienia konfliktu interesów z jednostkami oceniającymi zgodność i aby zapewnić obiektywny i bezstronny charakter ich działalności.
4. Teavitavate asutuste töö korraldatakse nii, et kõik vastavushindamisasutusest teavitamisega seotud otsused teevad pädevad isikud, kes ei ole nende asutuste hindamist läbi viinud isikud.
4. Działalność organów notyfikujących organizuje się w taki sposób, aby decyzje dotyczące notyfikacji jednostek oceniających zgodność podejmowały kompetentne osoby, które nie przeprowadzały oceny tych jednostek.
5. Teavitavad asutused ei tohi pakkuda ega osutada teenuseid, mida osutavad vastavushindamisasutused, ega nõustamisteenuseid ärilisel või konkureerival alusel.
5. Organy notyfikujące nie mogą oferować ani podejmować żadnych działań realizowanych przez jednostki oceniające zgodność ani świadczyć żadnych usług doradztwa na zasadzie komercyjnej lub konkurencyjnej.
6. Teavitavad asutused tagavad saadud teabe konfidentsiaalsuse kooskõlas artikliga 78.
6. Organy notyfikujące zapewniają poufność otrzymywanych informacji zgodnie z art. 78.
7. Teavitavatel asutustel on oma ülesannete nõuetekohaseks täitmiseks piisavalt pädevaid töötajaid. Pädevatel töötajatel on kohaldataval juhul oma ülesannete täitmiseks vajalikud eksperditeadmised infotehnoloogia, tehisintellekti ja õiguse, sealhulgas põhiõiguste järelevalve valdkonnas.
7. Organy notyfikujące muszą dysponować odpowiednią liczbą kompetentnych pracowników, aby należycie wykonywać powierzone im zadania. Kompetentni pracownicy muszą posiadać, w odpowiednich przypadkach, wiedzę fachową niezbędną do pełnienia ich funkcji w dziedzinach, takich jak technologie informacyjne, AI i prawo, w tym nadzór nad prawami podstawowymi.
Vastavushindamisasutuse teavitamistaotlus
Wniosek jednostki oceniającej zgodność o notyfikację
1. Vastavushindamisasutus esitab teavitamistaotluse selle liikmesriigi teavitavale asutusele, mille territooriumil ta on asutatud.
1. Jednostki oceniające zgodność przekazują wniosek o notyfikację organowi notyfikującemu państwa członkowskiego, w którym znajduje się ich siedziba.
2. Teavitamistaotlusega koos esitatakse dokument, kus kirjeldatakse vastavushindamistoiminguid, vastavushindamismoodulit või -mooduleid ja tehisintellektisüsteemide liike, millega tegelemiseks väidab see vastavushindamisasutus end pädev olevat, ning riikliku akrediteerimisasutuse väljastatud akrediteerimistunnistus (kui see on olemas), mis tõendab, et vastavushindamisasutus vastab artiklis 31 sätestatud nõuetele.
2. Do wniosku o notyfikację załącza się opis czynności z zakresu oceny zgodności, modułu lub modułów oceny zgodności i rodzajów systemów AI, w odniesieniu do których jednostka oceniająca zgodność uważa się za kompetentną, a także wydany przez krajową jednostkę akredytującą certyfikat akredytacji (o ile takowy istnieje) poświadczający, że jednostka oceniająca zgodność spełnia wymogi ustanowione w art. 31.
Lisatakse mis tahes kehtivad dokumendid, mis on seotud taotlust esitava teada antud asutuse olemasolevate määramistega mõne muu liidu ühtlustamisõigusakti alusel.
Do wniosku załącza się również wszelkie ważne dokumenty dotyczące obowiązującego wyznaczenia – na podstawie innego unijnego prawodawstwa harmonizacyjnego – występującej z wnioskiem jednostki notyfikowanej.
3. Kui vastavushindamisasutus ei saa akrediteerimistunnistust esitada, siis esitab ta teavitavale asutusele kõik dokumentaalsed tõendid, mis on vajalikud, et kontrollida, tunnistada ja korrapäraselt jälgida tema vastavust artiklis 31 sätestatud nõuetele.
3. Jeżeli dana jednostka oceniająca zgodność nie jest w stanie przedstawić certyfikatu akredytacji, przekazuje organowi notyfikującemu wszystkie dowody w postaci dokumentów niezbędne do zweryfikowania, potwierdzenia i regularnego monitorowania spełnienia przez tę jednostkę wymogów ustanowionych w art. 31.
4. Kui tegemist on teada antud asutusega, mis on määratud mõne muu liidu ühtlustamisõigusakti alusel, võib vastavalt vajadusele kasutada kõiki kõnealuste määramistega seotud dokumente ja tõendeid nende määramise toetuseks käesoleva määruse alusel. Teada antud asutus ajakohastab käesoleva artikli lõigetes 2 ja 3 osutatud dokumentatsiooni alati, kui tehakse asjakohaseid muudatusi, et teada antud asutuste eest vastutav asutus saaks jälgida ja kontrollida pidevat vastavust kõigile artiklis 31 sätestatud nõuetele.
4. W odniesieniu do jednostek notyfikowanych wyznaczonych na podstawie innego unijnego prawodawstwa harmonizacyjnego w stosownych przypadkach dopuszcza się możliwość wykorzystania wszelkich dokumentów i certyfikatów dotyczących takiego wyznaczenia w charakterze dowodów w toku procedury wyznaczania przeprowadzanej zgodnie z niniejszym rozporządzeniem. Jednostka notyfikowana aktualizuje dokumentację, o której mowa w ust. 2 i 3 niniejszego artykułu, w każdym przypadku gdy wystąpią istotne zmiany, aby umożliwić organowi odpowiedzialnemu za jednostki notyfikowane monitorowanie i weryfikowanie, czy zapewniona jest ciągła zgodność ze wszystkimi wymogami ustanowionymi w art. 31.
1. Teavitavad asutused võivad teavitada ainult neist vastavushindamisasutustest, mis vastavad artiklis 31 sätestatud nõuetele.
1. Organy notyfikujące mogą dokonywać notyfikacji wyłącznie w odniesieniu do tych jednostek oceniających zgodność, które spełniają wymogi ustanowione w art. 31.
2. Teavitavad asutused kasutavad komisjoni ja teiste liikmesriikide teavitamiseks igast lõikes 1 osutatud vastavushindamisasutusest komisjoni välja töötatud ja hallatavat elektroonilist teavitamisvahendit.
2. Organy notyfikujące dokonują notyfikacji Komisji i pozostałym państwom członkowskim za pomocą narzędzia do notyfikacji elektronicznej opracowanego i obsługiwanego przez Komisję, o każdej jednostce oceniającej zgodność, o której mowa w ust. 1.
3. Käesoleva artikli lõikes 2 nimetatud teavitus sisaldab kõiki üksikasju vastavushindamistoimingutest, vastavushindamismoodulist või -moodulitest ja asjaomastest tehisintellektisüsteemide liikidest ning asjakohast pädevuse kinnitust. Kui teavitus ei põhine artikli 29 lõikes 2 osutatud akrediteerimistunnistusel, esitab teavitav asutus komisjonile ja teistele liikmesriikidele dokumentaalsed tõendid, mis kinnitavad, et vastavushindamisasutus on pädev ja et on kehtestatud asutuse korrapärast järelevalvet tagav kord, millega tagatakse ka edaspidi vastavus artiklis 31 sätestatud nõuetele.
3. Notyfikacja, o której mowa w ust. 2 niniejszego artykułu, zawiera wyczerpujące informacje na temat czynności z zakresu oceny zgodności, modułu lub modułów oceny zgodności i przedmiotowych rodzajów systemów AI oraz odpowiednie poświadczenie kompetencji. W przypadku gdy podstawą notyfikacji nie jest certyfikat akredytacji, o którym mowa w art. 29 ust. 2, organ notyfikujący przedkłada Komisji i pozostałym państwom członkowskim dowody w postaci dokumentów potwierdzające kompetencje jednostki oceniającej zgodność oraz wdrożone rozwiązania zapewniające regularne monitorowanie tej jednostki i nieustanne spełnianie przez nią wymagań ustanowionych w art. 31.
4. Asjaomane vastavushindamisasutus võib teada antud asutuse toiminguid teha ainult juhul, kui komisjon või teised liikmesriigid ei esita vastuväiteid kahe nädala jooksul alates teavitava asutuse poolsest teavitamisest, kui teavitus sisaldab artikli 29 lõikes 2 osutatud akrediteerimistunnistust, või kahe kuu jooksul alates teavitava asutuse poolsest teavitamisest, kui teavitus sisaldab artikli 29 lõikes 3 osutatud dokumentaalseid tõendeid.
4. Dana jednostka oceniająca zgodność może wykonywać czynności jednostki notyfikowanej tylko wówczas, gdy Komisja lub pozostałe państwa członkowskie nie zgłosiły sprzeciwu w terminie dwóch tygodni od notyfikacji przez organ notyfikujący, w przypadku gdy notyfikacja ta obejmuje certyfikat akredytacji, o którym mowa w art. 29 ust. 2, lub w terminie dwóch miesięcy od notyfikacji przez organ notyfikujący, w przypadku gdy notyfikacja ta obejmuje dowody w postaci dokumentów, o których mowa w art. 29 ust. 3.
5. Kui esitatakse vastuväiteid, alustab komisjon viivitamata konsultatsioone asjaomaste liikmesriikide ja vastavushindamisasutusega. Komisjon otsustab neid konsultatsioone silmas pidades, kas luba on põhjendatud. Komisjon saadab oma otsuse asjaomasele liikmesriigile ja asjaomasele vastavushindamisasutusele.
5. W przypadku zgłoszenia sprzeciwu Komisja niezwłocznie przystępuje do konsultacji z odpowiednimi państwami członkowskimi i jednostką oceniającą zgodność. Na podstawie tych konsultacji Komisja podejmuje decyzję, czy dane zezwolenie jest uzasadnione. Komisja kieruje swoją decyzję do zainteresowanego państwa członkowskiego i odpowiedniej jednostki oceniającej zgodność.
Teada antud asutusi puudutavad nõuded
Wymogi dotyczące jednostek notyfikowanych
1. Teada antud asutus asutatakse liikmesriigi õiguse alusel ning ta on juriidiline isik.
1. Jednostkę notyfikowaną ustanawia się zgodnie z prawem krajowym danego państwa członkowskiego i ma ona osobowość prawną.
2. Teada antud asutused täidavad organisatsioonilisi, kvaliteedijuhtimise, ressursside ja protsessidega seotud nõudeid, mis on vajalikud nende ülesannete täitmiseks, ning vastavaid küberturvalisuse nõudeid.
2. Jednostki notyfikowane muszą spełniać wymogi organizacyjne, wymogi w zakresie zarządzania jakością oraz wymogi dotyczące zasobów i procesów niezbędne do tego, aby mogły wykonywać powierzone im zadania, jak również odpowiednie wymogi w zakresie cyberbezpieczeństwa.
3. Teada antud asutuste organisatsiooniline struktuur, vastutusalade jaotus, aruandlusahelad ja tegevus peavad tagama usalduse teada antud asutuste tegevuse ja nende teostatud vastavushindamistoimingute tulemuste suhtes.
3. Struktura organizacyjna jednostek notyfikowanych, podział obowiązków w tych jednostkach, obowiązująca w nich hierarchia służbowa oraz ich funkcjonowanie zapewniają, by działalność jednostek notyfikowanych oraz wyniki czynności z zakresu oceny zgodności prowadzonych przez te jednostki nie budziły żadnych wątpliwości.
4. Teada antud asutused peavad olema sõltumatud suure riskiga tehisintellektisüsteemi pakkujast, mille vastavushindamisega nad tegelevad. Samuti peavad teada antud asutused olema sõltumatud mis tahes muust operaatorist, kellel on majanduslik huvi hinnatava suure riskiga tehisintellektisüsteemi vastu, ja kõigist pakkuja konkurentidest. See ei välista vastavushindamisasutuse tegevuseks vajalike hinnatud suure riskiga tehisintellektisüsteemide kasutamist ega selliste suure riskiga tehisintellektisüsteemide kasutamist isiklikel eesmärkidel.
4. Jednostki notyfikowane muszą być niezależne od dostawcy systemu AI wysokiego ryzyka, wobec którego podejmują czynności z zakresu oceny zgodności. Jednostki notyfikowane muszą być również niezależne od wszelkich innych operatorów, których interes gospodarczy wiąże się z systemami AI wysokiego ryzyka będącymi przedmiotem oceny, a także od wszelkich innych konkurentów dostawcy. Nie wyklucza to wykorzystania będących przedmiotem oceny systemów AI wysokiego ryzyka, które są niezbędne do prowadzenia działalności jednostki oceniającej zgodność, ani wykorzystania takich systemów AI wysokiego ryzyka do celów prywatnych.
5. Vastavushindamisasutus, selle juhtkond ega selle vastavushindamisülesannete täitmise eest vastutavad töötajad ei tohi olla otseselt seotud suure riskiga tehisintellektisüsteemide projekteerimise, arendamise, turustamise või kasutamisega ega esindada ühtegi isikut, kes nimetatud tegevustega tegeleb. Nad ei tohi osaleda üheski tegevuses, mis võib olla vastuolus nende otsuste sõltumatuse ja vastavushindamistoimingute usaldusväärsusega, mille teostamiseks on neist teada antud. See kehtib eelkõige nõustamisteenuste puhul.
5. Jednostka oceniająca zgodność, jej kierownictwo najwyższego szczebla ani pracownicy odpowiedzialni za realizację zadań związanych z oceną zgodności nie mogą być bezpośrednio zaangażowani w projektowanie, rozwój, sprzedaż ani wykorzystywanie systemów AI wysokiego ryzyka, nie mogą też reprezentować stron zaangażowanych w taką działalność. Nie angażują się oni w żadną działalność, która może zagrozić niezależności ich osądów i wiarygodności w związku z czynnościami z zakresu oceny zgodności, do której zostali notyfikowani. Dotyczy to w szczególności usług konsultingowych.
6. Teada antud asutuste töö korraldatakse ja neid juhitakse nii, et tagada nende tegevuse sõltumatus, objektiivsus ja erapooletus. Teada antud asutused dokumenteerivad ja rakendavad struktuuri ja menetlused, millega tagatakse erapooletus ning mille abil edendatakse ja kohaldatakse erapooletuse põhimõtteid kogu nende organisatsiooni, töötajate ja hindamistoimingute osas.
6. Jednostki notyfikowane organizuje się i zarządza się nimi w sposób gwarantujący niezależność, obiektywizm i bezstronność podejmowanych przez nie czynności. Jednostki notyfikowane dokumentują i wdrażają strukturę i procedury służące zagwarantowaniu ich bezstronności oraz propagowaniu i stosowaniu zasad bezstronności we wszystkich podejmowanych przez nie czynnościach organizacyjnych i kadrowych oraz we wszystkich ich czynnościach związanych z oceną.
7. Teada antud asutustel peavad olema dokumenteeritud menetlused, millega tagatakse, et nende töötajad, komiteed, tütarettevõtjad, alltöövõtjad ja kõik nendega seotud asutused või väliste asutuste töötajad austavad kooskõlas artikliga 78 vastavushindamistoimingute teostamise käigus saadud teabe konfidentsiaalsust, välja arvatud juhul, kui avalikustamine on seadusega nõutud. Teada antud asutuste töötajad on kohustatud kaitsma ametisaladusena teavet, mille nad on saanud käesoleva määruse alusel oma ülesandeid täites, välja arvatud suhetes selle liikmesriigi teavitavate asutustega, kus teada antud asutus tegutseb.
7. Jednostki notyfikowane dysponują udokumentowanymi procedurami, które zapewniają zachowanie poufności informacji – zgodnie z art. 78 – przez ich personel, komitety, jednostki zależne, podwykonawców oraz wszelkie stowarzyszone z nimi jednostki lub pracowników podmiotów zewnętrznych, które to informacje znalazły się w ich posiadaniu w toku czynności z zakresu oceny zgodności, chyba że ujawnienie takich informacji jest wymagane na mocy obowiązującego prawa. Personel jednostek notyfikowanych pozostaje związany tajemnicą zawodową w kwestii wszystkich informacji pozyskiwanych w toku wykonywania zadań powierzonych mu zgodnie z niniejszym rozporządzeniem, jednak nie w stosunku do organów notyfikujących państwa członkowskiego, w którym jednostki notyfikowane podejmują czynności.
8. Teada antud asutustel peavad olema menetlused selliste toimingute teostamiseks, milles võetakse asjakohaselt arvesse pakkuja suurust, tegutsemisvaldkonda, tema struktuuri ning asjaomase tehisintellektisüsteemi keerukuse astet.
8. Jednostki notyfikowane dysponują procedurami prowadzenia czynności z uwzględnieniem rozmiaru dostawcy, sektora, w którym prowadzi on działalność, jego struktury oraz stopnia złożoności danego systemu AI.
9. Teada antud asutused peavad võtma endale asjakohase vastutuskindlustuse seoses oma vastavushindamistoimingutega, välja arvatud juhul, kui vastutust kannab liikmesriik, milles nad on asutatud, vastavalt selle liikmesriigi õigusele, või kui see liikmesriik vastutab ise otseselt vastavushindamise eest.
9. Jednostki notyfikowane zawierają odpowiednie umowy ubezpieczenia od odpowiedzialności cywilnej w odniesieniu do podejmowanych przez siebie czynności z zakresu oceny zgodności, chyba że państwo członkowskie, w którym mają siedzibę, bierze na siebie odpowiedzialność z tego tytułu zgodnie z prawem krajowym lub bezpośrednia odpowiedzialność za ocenę zgodności spoczywa na danym państwie członkowskim.
10. Teada antud asutused peavad olema võimelised täitma kõiki oma käesoleva määruse kohaseid ülesandeid suurima erialase usaldusväärsuse ja nõutava erialase pädevusega nii siis, kui neid ülesandeid täidavad teada antud asutused ise, kui ka siis, kui seda tehakse nende nimel ja nende vastutusel.
10. Jednostki notyfikowane posiadają zdolność wykonywania wszystkich zadań wynikających z niniejszego rozporządzenia z zachowaniem najwyższego poziomu uczciwości zawodowej i wymaganych kompetencji w danej dziedzinie, niezależnie od tego, czy zadania te są wykonywane przez nie samodzielnie, czy też w ich imieniu i na ich odpowiedzialność.
11. Teada antud asutustel peab olema piisav sisepädevus, et tulemuslikult hinnata väliste isikute poolt nende nimel täidetud ülesandeid. Teada antud asutusele peab olema alaliselt kättesaadav piisavalt haldus-, tehnilisi, õigus- ja teadustöötajaid, kellel on kogemused ja teadmised asjaomaste tehisintellektisüsteemide liikide, andmete ja andmetöötlusega ning seoses 2. jaos sätestatud nõuetega.
11. Jednostki notyfikowane dysponują wystarczającymi kompetencjami wewnętrznymi pozwalającymi im skutecznie oceniać zadania wykonywane w ich imieniu przez podmioty zewnętrzne. Jednostka notyfikowana dysponuje stałą dostępnością wystarczającej liczby pracowników odpowiedzialnych za aspekty administracyjne, techniczne, prawne i naukowe dysponujących doświadczeniem i wiedzą w zakresie odnośnych rodzajów systemów AI, danych i metod przetwarzania danych oraz w zakresie wymogów ustanowionych w sekcji 2.
12. Teada antud asutused osalevad artiklis 38 osutatud koordineerimistegevuses. Samuti osalevad nad otseselt või esindajate kaudu Euroopa standardiorganisatsioonides või tagavad, et nad on asjakohastest standarditest teadlikud ja nende viimase arenguga kursis.
12. Jednostki notyfikowane biorą udział w działaniach koordynacyjnych, o których mowa w art. 38. Angażują się także w działalność europejskich organizacji normalizacyjnych bezpośrednio lub za pośrednictwem swoich przedstawicieli lub zapewniają, by same posiadały znajomość odpowiednich norm i dysponowały zawsze aktualną wiedzą na ich temat.
1. Teavitav asutus teavitab komisjoni ja teisi liikmesriike kõigist asjakohastest muudatustest teada antud asutuse teavituses artikli 30 lõikes 2 osutatud elektroonilise teavitamisvahendi kaudu.
1. Organ notyfikujący powiadamia Komisję i pozostałe państwa członkowskie za pomocą systemu notyfikacji elektronicznej, o którym mowa w art. 30 ust. 2, o wszelkich istotnych zmianach w notyfikacji danej jednostki notyfikowanej.
2. Teavituse ulatuse laiendamise suhtes kohaldatakse artiklites 29 ja 30 sätestatud menetlusi.
2. Procedury ustanowione w art. 29 i 30 stosuje się do rozszerzenia zakresu notyfikacji.
Muude kui teavituse ulatuse laiendamisega seotud muudatuste puhul kohaldatakse lõigetes 3–9 sätestatud menetlusi.
W przypadku zmian w notyfikacji innych niż rozszerzenie jej zakresu stosuje się procedury ustanowione w ust. 3-9.
3. Kui teada antud asutus otsustab vastavushindamisalase tegevuse lõpetada, teatab ta sellest teavitavale asutusele ja asjaomastele pakkujatele nii kiiresti kui võimalik ning ettekavatsetud lõpetamise korral vähemalt üks aasta enne tegevuse lõpetamist. Teada antud asutuse sertifikaadid võivad pärast teada antud asutuse tegevuse lõpetamist jääda kehtima üheksaks kuuks tingimusel, et mõni teine teada antud asutus on kirjalikult kinnitanud, et ta võtab nende sertifikaatidega hõlmatud suure riskiga tehisintellektisüsteemide eest vastutuse üle. Enne asjaomastele tehisintellektisüsteemidele uute sertifikaatide väljastamist viib viimati nimetatud teada antud asutus selle üheksakuulise ajavahemiku lõpuks läbi nende suure riskiga süsteemide täieliku hindamise. Kui teada antud asutus on oma tegevuse lõpetanud, tühistab teavitav asutus määramise.
3. W przypadku gdy jednostka notyfikowana podejmie decyzję o zaprzestaniu prowadzenia czynności z zakresu oceny zgodności, jak najszybciej informuje o tym organ notyfikujący i zainteresowanych dostawców, a w przypadku planowanego zaprzestania działalności – na co najmniej rok przed zaprzestaniem działalności. Certyfikaty wydane przez jednostkę notyfikowaną mogą pozostać ważne przez okres dziewięciu miesięcy po zaprzestaniu działalności jednostki notyfikowanej, pod warunkiem że inna jednostka notyfikowana potwierdzi na piśmie, że przejmie odpowiedzialność za objęte tymi certyfikatami systemy AI wysokiego ryzyka. Przed upływem tego okresu dziewięciu miesięcy ta inna jednostka notyfikowana przeprowadza pełną ocenę odnośnych systemów AI wysokiego ryzyka, zanim wyda nowe certyfikaty dla tych systemów. W przypadku gdy jednostka notyfikowana zaprzestała działalności, organ notyfikujący cofa jej wyznaczenie.
4. Kui teavitaval asutusel on piisavalt põhjust arvata, et teada antud asutus ei vasta enam artiklis 31 sätestatud nõuetele või et ta ei täida oma kohustusi, siis uurib teavitav asutus seda küsimust viivitamata ja äärmiselt hoolikalt. Seoses sellega teatab ta asjaomasele teada antud asutusele tekkinud vastuväidetest ja annab talle võimaluse esitada oma seisukohad. Kui teavitav asutus on jõudnud järeldusele, et teada antud asutus ei vasta enam artiklis 31 sätestatud nõuetele või et ta ei täida oma kohustusi, siis vastavalt vajadusele seab teavitav asutus määramisele piirangud või peatab või tühistab selle sõltuvalt nõuetele mittevastavuse või kohustuste mittetäitmise raskusastmest. Ta teatab sellest viivitamata komisjonile ja teistele liikmesriikidele.
4. W przypadku gdy organ notyfikujący ma wystarczające powody, by uważać, że jednostka notyfikowana przestała spełniać wymogi określone w art. 31 lub nie spełnia swoich obowiązków, organ notyfikujący niezwłocznie wszczyna postępowanie wyjaśniające w tej sprawie z zachowaniem największej staranności. W takim przypadku organ notyfikujący informuje daną jednostkę notyfikowaną o zgłoszonym sprzeciwu i zapewnia jej możliwość ustosunkowania się do tego sprzeciwu. Jeżeli organ notyfikujący dojdzie do wniosku, że jednostka notyfikowana przestała spełniać wymogi ustanowione w art. 31 lub nie spełnia swoich obowiązków, organ ten, stosownie do przypadku, ogranicza, zawiesza lub cofa wyznaczenie, w zależności od powagi niespełnienia tych wymogów lub tych obowiązków. Informuje on o tym natychmiast Komisję i pozostałe państwa członkowskie.
5. Kui määramine on peatatud, piiratud või täielikult või osaliselt tühistatud, peab teada antud asutus asjaomaseid pakkujaid sellest teavitama kümne päeva jooksul.
5. W przypadku gdy wyznaczenie zostało zawieszone, ograniczone lub całkowicie lub częściowo cofnięte, jednostka notyfikowana informuje o tym zainteresowanych dostawców w terminie 10 dni.
6. Määramise piiramise, peatamise või tühistamise korral võtab teavitav asutus asjakohaseid meetmeid tagamaks, et asjaomase teada antud asutuse toimikud hoitakse alles ja tehakse teistes liikmesriikides asuvatele teavitavatele asutustele ja turujärelevalveasutustele nende taotluse alusel kättesaadavaks.
6. W przypadku ograniczenia, zawieszenia lub cofnięcia wyznaczenia organ notyfikujący podejmuje odpowiednie kroki w celu zapewnienia, by zachowana została dokumentacja danej jednostki notyfikowanej i była ona udostępniana organom notyfikującym w pozostałych państwach członkowskich oraz organom nadzoru rynku na ich wniosek.
7. Määramise piiramise, peatamise või tühistamise korral teavitav asutus:
7. W przypadku ograniczenia, zawieszenia lub cofnięcia wyznaczenia organ notyfikujący:
a)
hindab mõju teada antud asutuse väljastatud sertifikaatidele;
a)
ocenia skutki dla certyfikatów wydanych przez daną jednostkę notyfikowaną;
b)
esitab komisjonile ja teistele liikmesriikidele kolme kuu jooksul pärast määramise muudatustest teatamist aruande oma järelduste kohta;
b)
przedkłada Komisji i pozostałym państwom członkowskim sprawozdanie ze swoich ustaleń w terminie trzech miesięcy od powiadomienia o zmianach w wyznaczeniu;
c)
nõuab, et teada antud asutus peataks või tunnistaks riikliku asutuse määratud mõistliku aja jooksul kõik alusetult väljastatud sertifikaadid kehtetuks, et tagada turul olevate suure riskiga tehisintellektisüsteemide jätkuv nõuetele vastavus;
c)
zwraca się do jednostki notyfikowanej z żądaniem, by w celu zapewnienia ciągłości zgodności systemów AI wysokiego ryzyka na rynku zawiesiła lub cofnęła, w rozsądnym terminie ustalonym przez ten organ, wszelkie certyfikaty, które zostały nienależnie wydane;
d)
teavitab komisjoni ja liikmesriike sertifikaatidest, mille peatamist või kehtetuks tunnistamist ta on nõudnud;
d)
informuje Komisję i państwa członkowskie o certyfikatach, których zawieszenia lub cofnięcia zażądał;
e)
esitab selle liikmesriigi pädevatele asutustele, kus on pakkuja registreeritud tegevuskoht, kogu asjakohase teabe sertifikaatide kohta, mille peatamist või kehtetuks tunnistamist ta on nõudnud. Nimetatud asutus võtab vajaduse korral asjakohaseid meetmeid, et ära hoida võimalik risk tervisele, ohutusele või põhiõigustele.
e)
przekazuje właściwym organom krajowym państwa członkowskiego, w którym dostawca ma zarejestrowane miejsce prowadzenia działalności, wszelkie istotne informacje na temat certyfikatów, których zawieszenia lub cofnięcia zażądał; organy te podejmują w stosownych przypadkach odpowiednie środki w celu uniknięcia potencjalnego ryzyka dla zdrowia, bezpieczeństwa lub praw podstawowych.
8. Välja arvatud alusetult väljastatud sertifikaatide puhul ning kui määramine on peatatud või piiratud, jäävad sertifikaadid kehtima ühel järgmistel tingimustel:
8. Z wyjątkiem certyfikatów nienależnie wydanych, w przypadkach, w których wyznaczenie zostało zawieszone lub ograniczone, certyfikaty pozostają ważne, jeżeli zachodzi którakolwiek z następujących okoliczności:
a)
teavitav asutus on ühe kuu jooksul alates peatamisest või piirangu kehtestamisest kinnitanud, et nende sertifikaatide puhul, mida peatamine või piirang puudutab, puudub risk tervisele, ohutusele või põhiõigustele, ning teavitav asutus on esitanud ajakava ja meetmed peatamise või piirangu tühistamiseks, või
a)
organ notyfikujący potwierdził, w terminie jednego miesiąca od zawieszenia lub ograniczenia, że w odniesieniu do certyfikatów, których dotyczy zawieszenie lub ograniczenie, nie występuje ryzyko dla zdrowia, bezpieczeństwa lub praw podstawowych i określił czas działań służących temu, by znieść zawieszenie lub ograniczenie; lub
b)
teavitav asutus on kinnitanud, et peatamisega seoses ei anta välja, ei muudeta ega anta uuesti välja ühtegi sertifikaati peatamise või piirangu kehtivuse jooksul, ning märgib, kas teada antud asutus on suuteline järelevalvet jätkama ja jätkuvalt vastutama olemasolevate sertifikaatide eest, mis on välja antud peatamise või piirangu kehtivuse ajaks; juhul kui teavitatav asutus teeb kindlaks, et teada antud asutus ei ole suuteline olemasolevate väljastatud sertifikaatide eest vastutama, esitab sertifikaadiga hõlmatud süsteemi pakkuja oma registreeritud tegevuskoha liikmesriigi pädevatele asutustele kolme kuu jooksul alates peatamisest või piirangu kehtestamisest, et mõni teine kvalifitseeritud teada antud asutus võtab peatamise või piirangu kehtimise ajaks ajutiselt üle teada antud asutuse järelevalve ja sertifikaatide eest vastutamisega seotud ülesanded.
b)
organ notyfikujący potwierdził, że w czasie trwania zawieszenia lub ograniczenia nie będą wydawane, zmieniane ani wydawane ponownie żadne certyfikaty powiązane z danym zawieszeniem, oraz stwierdza, czy dana jednostka notyfikowana jest zdolna do dalszego monitorowania i bycia odpowiedzialną za wydane już certyfikaty obowiązujące w okresie pokrywającym się z tym zawieszeniem lub ograniczeniem; w przypadku gdy organ notyfikujący ustali, że jednostka notyfikowana nie posiada zdolności do obsługi wydanych certyfikatów, dostawca systemu objętego danym certyfikatem – w terminie trzech miesięcy od zawieszenia lub ograniczenia – przekazuje właściwym organom krajowym w państwie członkowskim, w którym ma zarejestrowane miejsce prowadzenia działalności, potwierdzenie na piśmie, że inna wykwalifikowana jednostka notyfikowana tymczasowo przejmuje funkcje jednostki notyfikowanej w zakresie monitorowania certyfikatów i pozostanie ona odpowiedzialna za te certyfikaty w okresie zawieszenia lub ograniczenia wyznaczenia.
9. Välja arvatud alusetult väljastatud sertifikaatide puhul ja kui määramine on kehtetuks tunnistatud, jäävad sertifikaadid kehtima üheksaks kuuks järgmistel tingimustel:
9. Z wyjątkiem certyfikatów nienależnie wydanych, w przypadkach, w których wyznaczenie zostało cofnięte, certyfikaty pozostają ważne przez okres dziewięciu miesięcy w następujących okolicznościach:
a)
selle liikmesriigi pädev asutus, kus on sertifikaadiga hõlmatud kõrge riskiga tehisintellektisüsteemi pakkuja registreeritud tegevuskoht, on kinnitanud, et asjaomaste suure riskiga tehisintellektisüsteemidega ei kaasne riski tervisele, ohutusele ega põhiõigustele, ning
a)
właściwy organ krajowy w państwie członkowskim, w którym dostawca systemu AI wysokiego ryzyka objętego certyfikatem ma zarejestrowane miejsce prowadzenia działalności, potwierdził, że nie występuje ryzyko dla zdrowia, bezpieczeństwa lub praw podstawowych związane z danymi systemami AI wysokiego ryzyka; oraz
b)
mõni teine teada antud asutus on kirjalikult kinnitanud, et ta võtab üle otsese vastutuse nende tehisintellektisüsteemide eest ning viib nende hindamise lõpule 12 kuu jooksul alates määramise kehtetuks tunnistamisest.
b)
inna jednostka notyfikowana potwierdziła na piśmie, że przejmie bezpośrednią odpowiedzialność za te systemy AI i zakończy swoją ocenę w terminie dwunastu miesięcy od cofnięcia wyznaczenia.
Esimeses lõigus osutatud tingimustel võib selle liikmesriigi pädev asutus, kus on sertifikaadiga hõlmatud tehisintellektisüsteemi pakkuja registreeritud tegevuskoht, pikendada sertifikaatide ajutist kehtivust kolme kuu kaupa, mis kokku ei tohi ületada 12 kuud.
W okolicznościach, o których mowa w akapicie pierwszym, właściwy organ krajowy w państwie członkowskim, w którym dostawca systemu objętego certyfikatem ma zarejestrowane miejsce prowadzenia działalności, może przedłużyć tymczasową ważność tych certyfikatów o dodatkowe trzymiesięczne okresy, które łącznie nie mogą przekraczać dwunastu miesięcy.
Riigi pädev asutus või teada antud asutus, kes täidab selle teada antud asutuse ülesandeid, keda määramise muutmine puudutab, teavitab sellest viivitamata komisjoni, teisi liikmesriike ja teisi teada antud asutusi.
Właściwy organ krajowy lub jednostka notyfikowana przejmująca funkcje jednostki notyfikowanej, której dotyczy zmiana wyznaczenia, natychmiast powiadamiają o tym Komisję, pozostałe państwa członkowskie i pozostałe jednostki notyfikowane.
Harmoneeritud standardid ja standardimisdokumendid
Normy zharmonizowane i dokumenty normalizacyjne
1. Eeldatakse, et suure riskiga tehisintellektisüsteemid või üldotstarbelised tehisintellektimudelid, mis vastavad harmoneeritud standarditele või nende osadele, mille viited on avaldatud Euroopa Liidu Teatajas kooskõlas määrusega (EL) nr 1025/2012, on vastavuses käesoleva peatüki 2. jaos sätestatud nõuetega, või kui see on asjakohane, käesoleva määruse V peatüki 2. ja 3. jaos sätestatud kohustustega niivõrd, kuivõrd nimetatud standardid hõlmavad neid nõudeid või kohustusi.
1. W przypadku systemów AI wysokiego ryzyka oraz systemów AI ogólnego przeznaczenia spełniających normy zharmonizowane lub części tych norm, do których odniesienia opublikowano w Dzienniku Urzędowym Unii Europejskiej zgodnie z rozporządzeniem (UE) nr 1025/2012, domniemuje się, że spełniają one wymogi ustanowione w sekcji 2 niniejszego rozdziału lub, w stosownych przypadkach, obowiązki ustanowione w rozdziale V sekcja 2 i 3 niniejszego rozporządzenia, w zakresie, w jakim normy te obejmują te wymogi lub obowiązki.
2. Komisjon esitab kooskõlas määruse (EL) nr 1025/2012 artikliga 10 põhjendamatu viivituseta standardimistaotlused, mis hõlmavad kõiki käesoleva peatüki 2. jaos sätestatud nõudeid ja vajaduse korral käesoleva määruse V peatüki 2. ja 3. jaos sätestatud kohustusi hõlmavaid standardimistaotlusi. Standardimistaotluses nõutakse ka aruandlus- ja dokumenteerimisprotsesside tulemusi, et parandada tehisintellektisüsteemide ressursinäitajaid, näiteks vähendada suure riskiga tehisintellektisüsteemi energia- ja muude ressursside tarbimist selle olelusringi jooksul, ning üldotstarbeliste tehisintellektimudelite energiatõhuse tulemusi. Standardimistaotluse koostamisel konsulteerib komisjon nõukoja ja asjaomaste sidusrühmadega, sealhulgas nõuandva koguga.
2. Zgodnie z art. 10 rozporządzenia (UE) nr 1025/2012 Komisja wydaje bez zbędnej zwłoki wnioski o normalizację obejmujące wszystkie wymogi ustanowione w sekcji 2 niniejszego rozdziału oraz, w stosownych przypadkach, wnioski o normalizację obejmujące obowiązki ustanowione w rozdziale V sekcja 2 i 3 niniejszego rozporządzenia. We wniosku o normalizację zwraca się również o przedstawienie wyników sprawozdawczości i procesów dokumentowania w celu poprawy skuteczności działania zasobów systemów AI, takich jak zmniejszenie zużycia energii i innych zasobów przez system AI wysokiego ryzyka w jego cyklu życia, oraz wyników dotyczących efektywnego energetycznie rozwoju modeli AI ogólnego przeznaczenia. Przygotowując wniosek o normalizację, Komisja konsultuje się z Radą ds. AI i odpowiednimi zainteresowanymi stronami, w tym z forum doradczym.
Euroopa standardiorganisatsioonidele standardimistaotluse esitamisel täpsustab komisjon, et standardid peavad olema selged ja sidusad, sealhulgas kooskõlas standarditega, mis on välja töötatud eri sektorites I lisas loetletud kehtivate liidu ühtlustamisõigusaktidega hõlmatud toodete jaoks, ning nende eesmärk on tagada, et liidus turule lastud või kasutusele võetud suure riskiga tehisintellektisüsteemid või üldotstarbelised tehisintellektimudelid vastavad käesolevas määruses sätestatud asjakohastele nõuetele või kohustustele.
Wydając wniosek o normalizację do europejskich organizacji normalizacyjnych, Komisja określa, że normy muszą być jasne, spójne, w tym z normami opracowanymi w poszczególnych sektorach dla produktów objętych zakresem stosowania obowiązującego unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I, i mieć na celu zapewnienie, by systemy AI wysokiego ryzyka lub modele AI ogólnego przeznaczenia wprowadzane do obrotu lub oddawane do użytku w Unii spełniały odpowiednie wymogi lub obowiązki ustanowione w niniejszym rozporządzeniu.
Komisjon palub Euroopa standardiorganisatsioonidel esitada tõendid selle kohta, et nad on andnud endast parima käesoleva lõike esimeses ja teises lõigus osutatud eesmärkide saavutamiseks kooskõlas määruse (EL) nr 1025/2012 artikliga 2.
Komisja zwraca się do europejskich organizacji normalizacyjnych o przedstawienie dowodów, że dokładają wszelkich starań, aby osiągnąć cele, o których mowa w akapicie pierwszym i drugim niniejszego ustępu, zgodnie z art. 24 rozporządzenia (UE) nr 1025/2012.
3. Standardimisprotsessis osalejad püüavad edendada tehisintellekti investeerimist ja innovatsiooni, sealhulgas õiguskindluse suurendamise kaudu, ning liidu turu konkurentsivõimet ja kasvu, aitavad tugevdada ülemaailmset standardimisalast koostööd ja võtta arvesse tehisintellekti valdkonnas kehtivaid rahvusvahelisi standardeid, mis on kooskõlas liidu väärtuste, põhiõiguste ja huvidega, ning tõhustavad mitmeid sidusrühmi hõlmavat juhtimist, tagades huvide tasakaalustatud esindatuse ja kõigi asjaomaste sidusrühmade tõhusa osalemise kooskõlas määruse (EL) nr 1025/2012 artiklitega 5, 6 ja 7.
3. Uczestnicy procesu normalizacji dążą do promowania inwestycji i innowacji w dziedzinie AI, w tym poprzez zwiększenie pewności prawa, a także konkurencyjności i wzrostu rynku Unii, do przyczynienia się do wzmocnienia globalnej współpracy w zakresie normalizacji, z uwzględnieniem istniejących w dziedzinie AI norm międzynarodowych zgodnych z wartościami Unii, prawami podstawowymi i interesem Unii, a także do poprawy zarządzania wielostronnego, zapewniając wyważoną reprezentację interesów i skuteczny udział wszystkich odpowiednich zainteresowanych stron zgodnie z art. 5, 6 i 7 rozporządzenia (UE) nr 1025/2012.
1. Komisjonil võib võtta vastu rakendusakte, millega kehtestatakse ühtsed kirjeldused käesoleva peatüki 2. jaos sätestatud nõuete või vajaduse korral V peatüki 2. ja 3. jaos sätestatud kohustuste kohta, kui on täidetud järgmised tingimused:
1. Komisja może przyjmować akty wykonawcze ustanawiające wspólne specyfikacje w odniesieniu do wymogów ustanowionych w sekcji 2 niniejszego rozdziału lub, w stosownych przypadkach, obowiązków ustanowionych w rozdziale V sekcja 2 i 3, w przypadku gdy spełnione są następujące warunki:
a)
komisjon on esitanud määruse (EL) nr 1025/2012 artikli 10 lõike 1 kohaselt taotluse ühele või mitmele Euroopa standardiorganisatsioonile koostada harmoneeritud standard käesoleva peatüki 2. jaos sätestatud nõuete kohta või kui see on asjakohane, siis V peatüki 2. ja 3. jaos sätestatud kohustuste kohta, ning;
a)
Komisja wystąpiła zgodnie z art. 10 ust. 1 rozporządzenia (UE) nr 1025/2012 do jednej lub kilku europejskich organizacji normalizacyjnych z wnioskiem o opracowanie normy zharmonizowanej w odniesieniu do wymogów określonych w sekcji 2 niniejszego rozdziału, lub, w stosownych przypadkach, w odniesieniu do obowiązków ustanowionych w rozdziale V sekcja 2 i 3, oraz:
i)
ükski Euroopa standardiorganisatsioon ei ole taotlust vastu võtnud või
(i)
wniosek ten nie został przyjęty przez żadną z europejskich organizacji normalizacyjnych; lub
ii)
kõnealust taotlust käsitlevaid harmoneeritud standardeid ei esitatud määruse (EL) nr 1025/2012 artikli 10 lõikes 1 sätestatud tähtaja jooksul või
(ii)
normy zharmonizowane stanowiące odpowiedź na ten wniosek nie zostały wydane w terminie określonym zgodnie z art. 10 ust. 1 rozporządzenia (UE) nr 1025/2012; lub
iii)
asjakohastes harmoneeritud standardites ei käsitleta piisavalt põhiõigustega seotud probleeme või
(iii)
odpowiednie normy zharmonizowane w niewystarczającym stopniu uwzględniają obawy dotyczące praw podstawowych; lub
iv)
harmoneeritud standardid ei vasta taotlusele ning
(iv)
normy zharmonizowane nie są zgodne z wnioskiem; oraz
b)
Euroopa Liidu Teatajas ei ole avaldatud ühtegi määruse (EL) nr 1025/2012 kohast viidet harmoneeritud standarditele, mis hõlmaks käesoleva peatüki 2. jaos sätestatud olulisi nõudeid või kui see on asjakohane, siis V peatüki 2. ja 3. jaos sätestatud kohustusi, ning tõenäoliselt sellist viidet mõistliku aja jooksul ei avaldata.
b)
w Dzienniku Urzędowym Unii Europejskiej nie opublikowano odniesienia do zharmonizowanych norm obejmujących wymogi, o których mowa w sekcji 2 niniejszego rozdziału, lub, w stosownych przypadkach, obowiązki, o których mowa w rozdziale V sekcja 2 i 3, zgodnie z przepisami rozporządzenia (UE) nr 1025/2012 i nie przewiduje się opublikowania takiego odniesienia w rozsądnym terminie.
Ühtsete kirjelduste koostamisel konsulteerib komisjon artiklis 67 osutatud nõuandva koguga.
Przygotowując projekt wspólnych specyfikacji, Komisja konsultuje się z forum doradczym, o którym mowa w art. 67.
Käesoleva lõike esimeses lõigus osutatud rakendusaktid võetakse vastu kooskõlas artikli 98 lõikes 2 osutatud kontrollimenetlusega.
Akty wykonawcze, o których mowa w akapicie pierwszym niniejszego ustępu, przyjmuje się zgodnie z procedurą sprawdzającą, o której mowa w art. 98 ust. 2.
2. Enne rakendusakti eelnõu koostamist teavitab komisjon määruse (EL) nr 1025/2012 artiklis 22 osutatud komiteed sellest, et tema hinnangul on käesoleva artikli lõikes 1 sätestatud tingimused täidetud.
2. Przed przygotowaniem projektu aktu wykonawczego Komisja informuje komitet, o którym mowa w art. 22 rozporządzenia (UE) nr 1025/2012, że uważa za spełnione warunki ustanowione w ust. 1 niniejszego artykułu.
3. Eeldatakse, et suure riskiga tehisintellektisüsteemid või üldotstarbelised tehisintellektimudelid, mis vastavad lõikes 1 osutatud ühtsetele kirjeldustele või osale nimetatud kirjeldustest, on vastavuses käesoleva peatüki 2. jaos sätestatud oluliste nõuete või kui see on asjakohane, siis V peatüki 2. ja 3. jaos sätestatud kohustustega niivõrd, kuivõrd nimetatud ühtsed kirjeldused hõlmavad neid nõudeid.
3. W przypadku systemów AI wysokiego ryzyka lub modeli AI ogólnego przeznaczenia zgodnych ze wspólnymi specyfikacjami, o których mowa w ust. 1, lub z częściami tych specyfikacji domniemuje się, że są one zgodne z wymogami ustanowionymi w sekcji 2 niniejszego rozdziału lub, w stosownych przypadkach, spełniają obowiązki ustanowione w rozdziale V sekcja 2 i 3, w zakresie, w jakim te wspólne specyfikacje obejmują te wymogi i te obowiązki.
4. Kui Euroopa standardiorganisatsioon võtab vastu harmoneeritud standardi ning see on esitatud komisjonile standardi viite avaldamiseks Euroopa Liidu Teatajas, hindab komisjon seda standardit kooskõlas määrusega (EL) nr 1025/2012. Kui harmoneeritud standardi viide avaldatakse Euroopa Liidu Teatajas, tunnistab komisjon kehtetuks lõikes 1 osutatud rakendusaktid või nende osad, mis hõlmavad samu nõudeid, mis on sätestatud käesoleva peatüki 2. jaos või kui see on asjakohane, siis samu kohustusi, mis on sätestatud V peatüki 2. ja 3. jaos.
4. W przypadku gdy europejska organizacja normalizacyjna przyjmuje normę zharmonizowaną i proponuje Komisji opublikowanie odniesienia do niej w Dzienniku Urzędowym Unii Europejskiej, Komisja ocenia normę zharmonizowaną zgodnie z rozporządzeniem (UE) nr 1025/2012. W przypadku opublikowania odniesienia do normy zharmonizowanej w Dzienniku Urzędowym Unii Europejskiej Komisja uchyla akty wykonawcze, o których mowa w ust. 1, lub ich części, które obejmują te same wymogi ustanowione w sekcji 2 niniejszego rozdziału lub, w stosownych przypadkach, te same obowiązki ustanowione w rozdziale V sekcja 2 i 3.
5. Kui suure riskiga tehisintellektisüsteemide või üldotstarbeliste tehisintellektimudelite pakkujad ei täida lõikes 1 osutatud ühtseid kirjeldusi, peavad nad põhjendama, et nad on võtnud kasutusele käesoleva peatüki 2. jaos osutatud nõuetele või kui see on asjakohane, siis V peatüki 2. ja 3. jaos sätestatud kohustustele vähemalt samaväärsel tasemel vastavad tehnilised lahendused.
5. W przypadku gdy dostawcy systemów AI wysokiego ryzyka lub modeli AI ogólnego przeznaczenia nie zapewnią zgodności ze wspólnymi specyfikacjami, o których mowa w ust. 1, należycie wykazują oni, że przyjęli rozwiązania techniczne, które są zgodne z wymogami, o których mowa w rozdziale I sekcja 2, lub, w stosownych przypadkach, spełniają obowiązki ustanowione w rozdziale V sekcja 2 i 3, na poziomie co najmniej równoważnym tym wspólnym specyfikacjom.
6. Kui liikmesriik on seisukohal, et ühtne spetsifikatsioon ei vasta täielikult käesoleva peatüki 2. jaos sätestatud nõuetele või kui see on asjakohane, siis V peatüki 2. ja 3. jaos sätestatud kohustustele, teatab ta sellest komisjonile, esitades üksikasjaliku selgituse. Komisjon hindab seda teavet ja võib asjakohasel juhul muuta rakendusakti, millega asjaomane ühtne spetsifikatsioon kehtestatakse.
6. W przypadku gdy państwo członkowskie uważa, że wspólna specyfikacja nie jest całkowicie zgodna z wymogami ustanowionymi w sekcji 2 lub, w stosownych przypadkach, nie spełnia całkowicie obowiązków ustanowionych w rozdziale V sekcja 2 i 3, informuje o tym Komisję, przedstawiając szczegółowe wyjaśnienie. Komisja ocenia te informacje i w stosownym przypadku zmienia akt wykonawczy ustanawiający daną wspólną specyfikację.
1. Kui pakkuja on rakendanud artiklis 40 osutatud harmoneeritud standardeid, või kui see on kohaldatav, artiklis 41 osutatud ühtset kirjeldust, et tõendada III lisa punktis 1 loetletud suure riskiga tehisintellektisüsteemide vastavust 2. jaos sätestatud nõuetele, järgib pakkuja üht järgmistest vastavushindamismenetlustest, mis põhineb:
1. W odniesieniu do systemów AI wysokiego ryzyka wymienionych w załączniku III pkt 1, w przypadku gdy do wykazania zgodności systemu AI wysokiego ryzyka z wymogami ustanowionymi w sekcji 2 dostawca zastosował normy zharmonizowane, o których mowa w art. 40, lub, w stosownych przypadkach, wspólne specyfikacje, o których mowa w art. 41, dostawca wybiera jedną z następujących procedur oceny zgodności w oparciu o:
a)
VI lisas osutatud sisekontrollil või
a)
kontrolę wewnętrzną, o której mowa w załączniku VI; lub
b)
VII lisas osutatud kvaliteedijuhtimissüsteemi hindamisel ja tehnilise dokumentatsiooni hindamisel ning milles osaleb teada antud asutus.
b)
ocenę systemu zarządzania jakością i ocenę dokumentacji technicznej przeprowadzaną z udziałem jednostki notyfikowanej, o której to procedurze mowa w załączniku VII.
Tõendades suure riskiga tehisintellektisüsteemi vastavust 2. jaos sätestatud nõuetele, järgib pakkuja VII lisas sätestatud vastavushindamist järgmistel juhtudel:
Przy wykazywaniu zgodności systemu AI wysokiego ryzyka z wymogami ustanowionymi w sekcji 2 dostawca postępuje zgodnie z procedurą oceny zgodności ustanowioną w załączniku VII, w przypadku gdy:
a)
artiklis 40 osutatud harmoneeritud standardeid ei ole olemas ja artiklis 41 osutatud ühtsed kirjeldused ei ole kättesaadavad;
a)
normy zharmonizowane, o których mowa w art. 40, nie istnieją, a wspólne specyfikacje, o których mowa w art. 41, nie są dostępne;
b)
pakkuja ei ole harmoneeritud standardit kohaldanud või on seda kohaldanud ainult osaliselt;
b)
dostawca nie zastosował normy zharmonizowanej lub zastosował jedynie jej część;
c)
punktis a osutatud ühtsed kirjeldused on olemas, kuid pakkuja ei ole neid kohaldanud;
c)
wspólne specyfikacje, o których mowa w lit. a), istnieją, ale dostawca ich nie zastosował;
d)
punktis a osutatud harmoneeritud standardid või mõni neist on avaldatud piiranguga ja üksnes standardi selles osas, mida piirang puudutab.
d)
co najmniej jedna z norm zharmonizowanych, o których mowa w lit. a), została opublikowana z ograniczeniem i jedynie w odniesieniu do tej części normy, której dotyczy ograniczenie.
VII lisas osutatud vastavushindamise jaoks võib pakkuja valida mis tahes teada antud asutuse. Kui aga suure riskiga tehisintellektisüsteemi kavatsevad kasutusele võtta õiguskaitse-, rände- või varjupaigaasutused või liidu institutsioonid, organid või asutused, tegutseb teada antud asutusena artikli 74 lõikes 8 või kohaldataval juhul lõikes 9 osutatud turujärelevalveasutus.
Na potrzeby procedury oceny zgodności, o której mowa w załączniku VII, dostawca może wybrać dowolną jednostkę notyfikowaną. Jednak w przypadku gdy system ma zostać oddany do użytku przez organy ścigania, organy imigracyjne lub organy azylowe lub przez instytucje, organy i jednostki organizacyjne Unii, funkcję jednostki notyfikowanej pełni organ nadzoru rynku, o którym mowa odpowiednio w art. 74 ust. 8 lub ust. 9.
2. III lisa punktides 2–8 osutatud suure riskiga tehisintellektisüsteemide puhul järgivad pakkujad VI lisas osutatud sisekontrollil põhinevat vastavushindamist, mille korral ei ole teada antud asutuse osalemist ette nähtud.
2. W przypadku systemów AI wysokiego ryzyka, o których mowa w załączniku III pkt 2–8, dostawcy postępują zgodnie z procedurą oceny zgodności opierającą się na kontroli wewnętrznej, o której mowa w załączniku VI i która nie przewiduje udziału jednostki notyfikowanej.
3. I lisa A jaos loetletud liidu ühtlustamisõigusaktidega hõlmatud suure riskiga tehisintellektisüsteemide puhul, järgib pakkuja nende õigusaktide kohaselt nõutavat asjaomast vastavushindamismenetlust. Selliste suure riskiga tehisintellektisüsteemide suhtes kohaldatakse käesoleva peatüki 2. jaos sätestatud nõudeid ning need nõuded on vastavushindamise osa. Kohaldatakse ka VII lisa punkte 4.3, 4.4, 4.5 ja punkti 4.6 viiendat lõiku.
3. W przypadku systemów AI wysokiego ryzyka objętych zakresem stosowania unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I sekcja A, dostawca postępuje zgodnie z odpowiednią procedurą oceny zgodności wymaganą na podstawie tych aktów prawnych. W odniesieniu do tego rodzaju systemów AI wysokiego ryzyka zastosowanie mają wymogi ustanowione w sekcji 2 niniejszego rozdziału i stanowią one jeden z elementów tej oceny. Zastosowanie mają również przepisy załącznika VII pkt 4.3, pkt 4.4, pkt 4.5 i pkt 4.6 akapit piąty.
Teada antud asutustel, kellest on teavitatud nende õigusaktide alusel, on selliseks hindamiseks õigus kontrollida, kas suure riskiga tehisintellektisüsteemid vastavad 2. jaos sätestatud nõuetele, tingimusel et nende teada antud asutuste vastavust artikli 31 lõigetes 4, 10 ja 11 sätestatud nõuetele on hinnatud nende õigusaktide kohase teavitamismenetluse raames.
Na potrzeby tej oceny jednostki notyfikowane, które notyfikowano zgodnie z tymi aktami prawnymi, są uprawnione do przeprowadzania kontroli zgodności systemów AI wysokiego ryzyka z wymogami ustanowionymi w sekcji 2, o ile zgodność tych jednostek notyfikowanych z wymogami ustanowionymi w art. 31 ust. 4, 5, 10 i 11 została oceniona w kontekście procedury notyfikacyjnej przewidzianej w tych aktach prawnych.
Kui I lisa A jaos loetletud õigusaktid võimaldavad toote valmistajal loobuda kolmanda isiku tehtavast vastavushindamisest, tingimusel et see valmistaja on rakendanud kõiki harmoneeritud standardeid, mis hõlmavad kõiki olulisi nõudeid, võib see valmistaja nimetatud võimalust kasutada ainult siis, kui ta rakendab ka harmoneeritud standardeid, või kui see on kohaldatav, artiklis 41 osutatud ühtseid kirjeldusi, mis hõlmavad kõiki käesoleva peatüki 2. osas sätestatud nõudeid.
W przypadku gdy akt prawny wymieniony w załączniku I sekcja A zapewnia producentowi produktu możliwość zrezygnowania z oceny zgodności przeprowadzanej przez stronę trzecią, pod warunkiem że producent ten zapewnił zgodność ze wszystkimi normami zharmonizowanymi obejmującymi wszystkie stosowne wymogi, taki producent może skorzystać z tej możliwości wyłącznie w przypadku, gdy zapewnił również zgodność z normami zharmonizowanymi lub – w stosownych przypadkach – wspólnymi specyfikacjami, o których mowa w art. 41, obejmującymi wszystkie wymogi ustanowione w sekcji 2 niniejszego rozdziału.
4. Suure riskiga tehisintellektisüsteemidele, mis on juba läbinud vastavushindamise, tuleb teha uus vastavushindamine alati, kui süsteeme oluliselt muudetakse, olenemata sellest, kas muudetud süsteemi kavatsetakse edasi turustada või jätkab selle kasutamist praegune juurutaja.
4. Systemy AI wysokiego ryzyka, które poddano już procedurze oceny zgodności, poddaje się nowej procedurze oceny zgodności w przypadku gdy wprowadza się w nich istotne zmiany, niezależnie od tego, czy zmieniony system jest przeznaczony do dalszej dystrybucji lub czy ma być nadal wykorzystywany przez obecny podmiot stosujący.
Kui tegemist on suure riskiga tehisintellektisüsteemiga, mis õpib edasi ka pärast turule laskmist või kasutusele võtmist, ei käsitata oluliste muudatustena suure riskiga tehisintellektisüsteemi ja selle toimimise muudatusi, mille pakkuja on eelnevalt esialgse vastavushindamise ajal määratlenud ja mis on osa IV lisa punkti 2 alapunktis f osutatud tehnilises dokumentatsioonis sisalduvast teabest;
W przypadku systemów AI wysokiego ryzyka, które nadal uczą się po wprowadzeniu ich do obrotu lub po oddaniu ich do użytku, istotnej zmiany nie stanowią zmiany w systemie AI wysokiego ryzyka i jego skuteczności działania, które dostawca z góry zaplanował w chwili przeprowadzania początkowej oceny zgodności i które są częścią informacji zawartych w dokumentacji technicznej, o której mowa w pkt 2 lit. f) załącznika IV.
5. Komisjonil on õigus võtta kooskõlas artikliga 97 vastu delegeeritud õigusaktid, et muuta VI ja VII lisa ajakohastades neid tehnika arengut silmas pidades.
5. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 97 w celu zmiany załączników VI i VII poprzez ich zmianę w świetle postępu technicznego.
6. Komisjonil on õigus võtta kooskõlas artikliga 97 vastu delegeeritud õigusaktid käesoleva artikli lõigete 1 ja 2 muutmiseks, et kohaldada III lisa punktides 2–8 osutatud suure riskiga tehisintellektisüsteemide suhtes VII lisas osutatud vastavushindamist või selle osi. Komisjon arvestab selliseid delegeeritud õigusakte vastu võttes seda, kui mõjus on VI lisas osutatud sisekontrollil põhinev vastavushindamine, et hoida ära või minimeerida tervist, ohutust ja põhiõiguste kaitset ähvardavaid riske, mida sellised süsteemid põhjustavad, ning piisava suutlikkuse ja ressursside kättesaadavust teada antud asutustes.
6. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 97 w celu zmiany ust. 1 i 2 niniejszego artykułu, aby objąć systemy AI wysokiego ryzyka, o których mowa w załączniku III pkt 2–8, procedurą oceny zgodności, o której mowa w załączniku VII, lub elementami tej procedury. Komisja przyjmuje takie akty delegowane, biorąc pod uwagę skuteczność procedury oceny zgodności opierającej się na kontroli wewnętrznej, o której mowa w załączniku VI, w zapobieganiu ryzyku dla zdrowia i bezpieczeństwa oraz ryzyku związanemu z ochroną praw podstawowych stwarzanemu przez takie systemy lub minimalizowaniu takiego ryzyka, a także uwzględniając dostępność odpowiednich zdolności i zasobów wśród jednostek notyfikowanych.
1. Teada antud asutuste poolt VII lisa kohaselt välja antavad sertifikaadid koostatakse keeles, mis on teada antud asutuse asutamisliikmesriigi asjaomastele asutustele kergesti arusaadav.
1. Certyfikaty wydane przez jednostki notyfikowane zgodnie z załącznikiem VII są sporządzane w języku łatwo zrozumiałym dla odpowiednich organów w państwie członkowskim, w którym jednostka notyfikowana ma siedzibę.
2. Sertifikaadid kehtivad nende märgitud ajavahemiku jooksul, mis ei ületa I lisaga hõlmatud tehisintellektisüsteemide puhul viit aastat ja III lisaga hõlmatud tehisintellektisüsteemide puhul nelja aastat. Pakkuja taotlusel võib sertifikaadi kehtivust pikendada korraga mitte rohkem kui viie aasta kaupa I lisaga hõlmatud tehisintellektisüsteemide puhul ja nelja aasta kaupa III lisaga hõlmatud tehisintellektisüsteemide puhul, võttes aluseks kohaldatavate vastavushindamismenetluste kohaselt tehtava uue hindamise. Sertifikaadi mis tahes lisad on kehtivad eeldusel, et sertifikaat kehtib.
2. Certyfikaty zachowują ważność przez wskazany w nich okres, który nie może przekraczać pięciu lat – w odniesieniu do systemów AI objętych zakresem stosowania załącznika I oraz czterech lat – w odniesieniu do systemów AI objętych zakresem stosowania załącznika III. Na wniosek dostawcy ważność certyfikatu można przedłużyć na kolejne okresy, które nie mogą każdorazowo przekraczać pięciu lat – w odniesieniu do systemów AI objętych zakresem stosowania załącznika I oraz czterech lat – w odniesieniu do systemów AI objętych zakresem stosowania załącznika III, w oparciu o wyniki ponownej oceny przeprowadzonej zgodnie z mającymi zastosowanie procedurami oceny zgodności. Wszelkie uzupełnienia do certyfikatu pozostają ważne, pod warunkiem, że uzupełniany certyfikat jest ważny.
3. Kui teada antud asutus leiab, et tehisintellektisüsteem ei vasta enam 2. jaos sätestatud nõuetele, peatab ta väljastatud sertifikaadi, tunnistab selle kehtetuks või kehtestab selle suhtes piirangud, võttes seejuures arvesse proportsionaalsuse põhimõtet, välja arvatud juhul, kui nimetatud nõuete täitmine tagatakse sellega, et süsteemi pakkuja võtab teada antud asutuse määratud asjakohase tähtaja jooksul asjakohaseid parandusmeetmeid. Teada antud asutus põhjendab oma otsust.
3. Jeżeli jednostka notyfikowana ustali, że system AI przestał spełniać wymogi ustanowione w sekcji 2, zawiesza lub cofa wydany certyfikat lub nakłada na niego ograniczenia, biorąc pod uwagę zasadę proporcjonalności, chyba że dostawca systemu zapewni zgodność z tymi wymogami poprzez podjęcie odpowiedniego działania naprawczego w stosownym terminie wyznaczonym przez jednostkę notyfikowaną. Jednostka notyfikowana uzasadnia swoją decyzję.
Teada antud asutuse otsuste, sealhulgas välja antud vastavussertifikaate käsitlevate otsuste vaidlustamiseks nähakse ette edasikaebamise kord.
Od decyzji jednostek notyfikowanych, w tym dotyczących wydanych certyfikatów zgodności, przysługuje odwołanie.
Erand vastavushindamismenetlusest
Odstępstwo od procedury oceny zgodności
1. Erandina artiklist 43 ja põhjendatud taotluse korral võib mis tahes turujärelevalveasutus anda loa lasta asjaomase liikmesriigi territooriumil turule või võtta kasutusele konkreetne suure riskiga tehisintellektisüsteem, kui selleks on erandkorras põhjust avaliku julgeoleku või inimeste elu ja tervise kaitse, keskkonnakaitse või oluliste tööstus- ja taristuvarade kaitse tõttu. Selline luba antakse piiratud ajavahemikuks, kuni toimuvad vajalikud vastavushindamismenetlused, võttes arvesse erandi aluseks olevaid erandlikke põhjuseid. Need menetlused viiakse lõpule põhjendamatu viivituseta.
1. Na zasadzie odstępstwa od art. 43 i na należycie uzasadniony wniosek organ nadzoru rynku może wydać zezwolenie na wprowadzenie do obrotu lub oddanie do użytku konkretnych systemów AI wysokiego ryzyka na terytorium danego państwa członkowskiego w związku z wystąpieniem nadzwyczajnych względów dotyczących bezpieczeństwa publicznego lub ochrony zdrowia i życia osób, ochrony środowiska lub ochrony kluczowych aktywów przemysłowych i infrastrukturalnych. Zezwolenie to wydaje się tymczasowo na okres przeprowadzenia niezbędnych procedur oceny zgodności, uwzględniając nadzwyczajne względy uzasadniające przedmiotowe odstępstwo. Dokłada się starań, aby procedury te ukończono bez zbędnej zwłoki.
2. Põhjendatud hädaolukorras avaliku julgeoleku erandlikel põhjustel või konkreetse, olulise ja vahetu ohu korral füüsiliste isikute elule või füüsilisele turvalisusele võivad õiguskaitseasutused või elanikkonnakaitse asutused võtta kasutusele konkreetse suure riskiga tehisintellektisüsteemi ilma lõikes 1 nimetatud loata tingimusel, et sellist luba taotletakse kasutamise ajal või pärast seda ilma põhjendamatu viivituseta. Kui lõikes 1 osutatud luba lükatakse tagasi, peatatakse suure riskiga tehisintellektisüsteemi kasutamine viivitamatult ning kõik sellise kasutamise tulemused ja väljundid jäetakse viivitamata kõrvale.
2. W należycie uzasadnionych pilnych przypadkach w związku z wystąpieniem nadzwyczajnych względów bezpieczeństwa publicznego lub w przypadku konkretnego, istotnego i bezpośredniego zagrożenia życia lub bezpieczeństwa fizycznego osób fizycznych, organy ścigania lub organy ochrony ludności mogą oddać do użytku określony system AI wysokiego ryzyka bez zezwolenia, o którym mowa w ust. 1, pod warunkiem że wniosek o takie zezwolenie zostanie bez zbędnej zwłoki złożony w trakcie wykorzystywania tego systemu lub tuż po nim. W przypadku odmowy wydania zezwolenia, o którym mowa w ust. 1, wykorzystywanie tego systemu AI wysokiego ryzyka wstrzymuje się ze skutkiem natychmiastowym, a wszystkie rezultaty i wyniki tego wykorzystania muszą zostać natychmiast odrzucone.
3. Lõikes 1 osutatud luba antakse üksnes juhul, kui turujärelevalveasutus järeldab, et suure riskiga tehisintellektisüsteem vastab 2. jao nõuetele. Turujärelevalveasutus teavitab komisjoni ja teisi liikmesriike kõigist lõigete 1 ja 2 kohaselt antud lubadest. See kohustus ei hõlma õiguskaitseasutuste tegevusega seotud tundlikke operatiivandmeid.
3. Zezwolenie, o którym mowa w ust. 1, wydaje się wyłącznie wówczas, gdy organ nadzoru rynku stwierdzi, że system AI wysokiego ryzyka jest zgodny z wymogami ustanowionymi w sekcji 2. Organ nadzoru rynku informuje Komisję i pozostałe państwa członkowskie o zezwoleniach wydanych zgodnie z ust. 1 i 2. Obowiązek ten nie obejmuje wrażliwych danych operacyjnych dotyczących działań organów ścigania.
4. Kui ükski liikmesriik ega komisjon ei ole esitanud vastuväiteid liikmesriigi turujärelevalveasutuse lõike 1 kohaselt välja antud loa kohta 15 kalendripäeva jooksul alates lõikes 3 osutatud teabe kättesaamisest, loetakse luba põhjendatuks.
4. Jeżeli w terminie 15 dni kalendarzowych od dnia otrzymania informacji, o której mowa w ust. 3, ani żadne państwo członkowskie, ani Komisja nie zgłoszą sprzeciwu dotyczącego zezwolenia wydanego przez organ nadzoru rynku państwa członkowskiego zgodnie z ust. 1, takie zezwolenie uznaje się za uzasadnione.
5. Kui 15 kalendripäeva jooksul alates lõikes 3 osutatud teabe kättesaamisest esitab mõni liikmesriik vastuväiteid mõne teise liikmesriigi turujärelevalveasutuse välja antud loa kohta või kui komisjon leiab, et luba on vastuolus liidu õigusega või et lõikes 3 osutatud liikmesriikide järeldus süsteemi vastavuse kohta ei ole põhjendatud, alustab komisjon viivitamata konsultatsioone asjaomase liikmesriigiga. Konsulteeritakse asjaomaste operaatoritega ning neil on võimalus esitada oma seisukohad. Komisjon otsustab seda arvesse võttes, kas luba on põhjendatud. Komisjon adresseerib oma otsuse asjaomasele liikmesriigile ning asjaomastele operaatoritele.
5. Jeżeli w terminie 15 dni kalendarzowych od dnia otrzymania informacji, o której mowa w ust. 3, państwo członkowskie zgłosi sprzeciw dotyczący zezwolenia wydanego przez organ nadzoru rynku innego państwa członkowskiego lub w przypadku gdy Komisja uzna zezwolenie za sprzeczne z prawem Unii lub uzna za bezpodstawne dokonane przez państwo członkowskie stwierdzenie zgodności systemu, o czym mowa w ust. 3, Komisja niezwłocznie przystępuje do konsultacji z odpowiednim państwem członkowskim. W takim przypadku zasięga się opinii zainteresowanych operatorów i zapewnia się im możliwość przedstawienia ich stanowiska. Na tej podstawie Komisja podejmuje decyzję, czy dane zezwolenie jest uzasadnione. Komisja kieruje swoją decyzję do zainteresowanego państwa członkowskiego i odpowiednich operatorów.
6. Kui komisjon leiab, et luba on põhjendamata, tunnistab asjaomase liikmesriigi turujärelevalveasutus selle kehtetuks.
6. W przypadku gdy Komisja uzna zezwolenie za bezpodstawne, organ nadzoru rynku zainteresowanego państwa członkowskiego cofa je.
7. Suure riskiga tehisintellektisüsteemide suhtes, mis on seotud I lisa A jaos loetletud liidu ühtlustamisõigusaktidega hõlmatud toodetega, kohaldatakse üksnes kõnealustes liidu ühtlustamisõigusaktides sätestatud erandeid vastavushindamisest.
7. W przypadku systemów AI wysokiego ryzyka powiązanych z produktami objętymi zakresem stosowania unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I sekcja A stosuje się wyłącznie odstępstwa od oceny zgodności ustanowione w tym unijnym prawodawstwie harmonizacyjnym.
ELi vastavusdeklaratsioon
1. Pakkuja koostab iga suure riskiga tehisintellektisüsteemi kohta kirjaliku masinloetava, füüsiliselt või e-allkirjastatud ELi vastavusdeklaratsiooni ja säilitab seda riigi pädevate asutuste jaoks kättesaadavana vähemalt kümne aasta jooksul pärast suure riskiga tehisintellektisüsteemi turule laskmist või kasutusele võtmist. ELi vastavusdeklaratsioonis nimetatakse, millise suure riskiga tehisintellektisüsteemi kohta see on koostatud. Taotluse korral esitatakse ELi vastavusdeklaratsiooni koopia riigi asjaomastele pädevatele asutustele.
1. Dostawca sporządza pisemną i nadającą się do odczytu maszynowego, podpisaną fizycznie lub elektronicznie, deklarację zgodności UE dla każdego systemu AI wysokiego ryzyka i przechowuje ją do dyspozycji właściwych organów krajowych przez okres 10 lat od dnia wprowadzenia systemu AI wysokiego ryzyka do obrotu lub oddania go do użytku. W deklaracji zgodności UE wskazuje się system AI wysokiego ryzyka, dla którego ją sporządzono. Kopię deklaracji zgodności UE przedkłada się odpowiednim właściwym organom krajowym na ich wniosek.
2. ELi vastavusdeklaratsioonis kinnitatakse, et kõnealune suure riskiga tehisintellektisüsteem vastab 2. jaos sätestatud nõuetele. ELi vastavusdeklaratsioon sisaldab V lisas sätestatud teavet ning see tõlgitakse keelde, mis on kergesti arusaadav nende liikmesriikide pädevatele asutustele, kus suure riskiga tehisintellektisüsteem turule lastakse või kättesaadavaks tehakse.
2. W deklaracji zgodności UE stwierdza się, że dany system AI wysokiego ryzyka spełnia wymogi ustanowione w sekcji 2. Deklaracja zgodności UE zawiera informacje określone w załączniku V i musi zostać przetłumaczona na język łatwo zrozumiały dla właściwych organów krajowych państw członkowskich, w których dany system AI wysokiego ryzyka jest wprowadzany do obrotu lub udostępniany.
3. Kui suure riskiga tehisintellektisüsteemide suhtes kohaldatakse muid liidu ühtlustamisõigusakte, mille kohaselt on samuti nõutav ELi vastavusdeklaratsioon, koostatakse kõigi suure riskiga tehisintellektisüsteemi suhtes kohaldatava liidu õiguse jaoks üks ainus ELi vastavusdeklaratsioon. Vastavusdeklaratsioon sisaldab kogu teavet, mida on vaja deklaratsiooniga seotud liidu ühtlustamisõigusaktide kindlakstegemiseks.
3. W przypadku gdy systemy AI wysokiego ryzyka podlegają innemu unijnemu prawodawstwu harmonizacyjnemu, w którym również ustanowiono wymóg sporządzenia deklaracji zgodności UE, na potrzeby wszystkich przepisów prawa Unii mających zastosowanie do systemu AI wysokiego ryzyka sporządza się jedną deklarację zgodności UE. W deklaracji zamieszcza się wszystkie informacje niezbędne do zidentyfikowania unijnego prawodawstwa harmonizacyjnego, do którego się ona odnosi.
4. ELi vastavusdeklaratsiooni koostamisega võtab pakkuja vastutuse 2. jaos sätestatud nõuete täitmise eest. Pakkuja ajakohastab ELi vastavusdeklaratsiooni vastavalt vajadusele.
4. Sporządzając deklarację zgodności UE, dostawca bierze na siebie odpowiedzialność za zgodność z wymogami ustanowionymi w sekcji 2. Dostawca odpowiednio zapewnia aktualność deklaracji zgodności UE.
5. Komisjonil on õigus võtta kooskõlas artikliga 97 vastu delegeeritud õigusaktid, et muuta V lisa, ajakohastades selles lisas esitatud ELi vastavusdeklaratsiooni sisu, et lisada sinna elemente, mis muutuvad vajalikuks tulenevalt tehnika arengust.
5. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 97 w celu zmiany załącznika V poprzez zaktualizowanie treści deklaracji zgodności UE określonej w tym załączniku w celu wprowadzenia elementów, które stały się konieczne w świetle postępu technicznego.
1. CE-märgise suhtes kohaldatakse määruse (EÜ) nr 765/2008 artiklis 30 sätestatud üldpõhimõtteid.
1. Oznakowanie CE podlega ogólnym zasadom określonym w art. 30 rozporządzenia (WE) nr 765/2008.
2. Digitaalselt pakutavate suure riskiga tehisintellektisüsteemide puhul kasutatakse digitaalset CE-märgist üksnes juhul, kui sellele on lihtne juurde pääseda liidese abil, mille kaudu kõnealusele süsteemile juurde pääsetakse, või kergesti juurdepääsetava masinloetava koodi või muude elektrooniliste vahendite kaudu.
2. W przypadku systemów AI wysokiego ryzyka dostarczanych w formie cyfrowej cyfrowe oznakowanie CE stosuje się wyłącznie wtedy, gdy można do niego łatwo dotrzeć za pośrednictwem interfejsu, poprzez który uzyskuje się dostęp do tego systemu, lub za pomocą łatwo dostępnego kodu nadającego się do odczytu maszynowego lub innych środków elektronicznych.
3. CE-märgis kinnitatakse suure riskiga tehisintellektisüsteemile nähtaval, loetaval ja kustutamatul viisil. Kui see ei ole suure riskiga tehisintellektisüsteemi olemuse tõttu võimalik või otstarbekas, kinnitatakse märgis olenevalt asjaoludest kas pakendile või süsteemiga kaasas olevatele dokumentidele.
3. Oznakowanie CE umieszcza się na systemie AI wysokiego ryzyka w sposób widoczny, czytelny i trwały. W przypadku gdy z uwagi na charakter systemu AI wysokiego ryzyka oznakowanie systemu w taki sposób nie jest możliwe lub zasadne, oznakowanie to umieszcza się na opakowaniu lub – w stosownych przypadkach – w dołączonej do systemu dokumentacji.
4. Kui see on kohaldatav, järgneb CE-märgisele artiklis 43 sätestatud vastavushindamismenetluste eest vastutava teada antud asutuse identifitseerimisnumber. Teada antud asutuse identifitseerimisnumbri kinnitab kas asutus ise või tema juhiste järgi pakkuja või pakkuja volitatud esindaja. Identifitseerimisnumber esitatakse ka kõigis reklaammaterjalides, kus on öeldud, et suure riskiga tehisintellektisüsteem vastab CE-märgise nõuetele.
4. W stosownych przypadkach oznakowaniu CE towarzyszy również numer identyfikacyjny jednostki notyfikowanej odpowiedzialnej za przeprowadzenie procedur oceny zgodności ustanowionych w art. 43. Numer identyfikacyjny jednostki notyfikowanej umieszcza sama jednostka lub, według wskazówek jednostki notyfikowanej, dostawca lub jego upoważniony przedstawiciel. Numer identyfikacyjny umieszcza się również na wszelkich materiałach promocyjnych zawierających informacje o tym, że system AI wysokiego ryzyka spełnia wymogi konieczne do opatrzenia go oznakowaniem CE.
5. Kui suure riskiga tehisintellektisüsteemide suhtes kohaldatakse muud liidu õigust, mis näeb samuti ette CE-märgise kinnitamise, peab CE-märgis viitama sellele, et suure riskiga tehisintellektisüsteem vastab ka selle muu õiguse nõuetele.
5. W przypadku gdy systemy AI wysokiego ryzyka podlegają innym przepisom Unii, które również przewidują umieszczenie oznakowania CE, oznakowanie CE wskazuje, że dany system AI wysokiego ryzyka spełnia także wymogi zawarte w tych innych przepisach.
1. Enne III lisas loetletud suure riskiga tehisintellektisüsteemi, välja arvatud III lisa punktis 2 osutatud suure riskiga tehisintellektisüsteemid, turule laskmist või kasutusele võtmist registreerib pakkuja või vajaduse korral volitatud esindaja ennast ja oma süsteemi artiklis 71 osutatud ELi andmebaasis.
1. Przed wprowadzeniem do obrotu lub oddaniem do użytku systemu AI wysokiego ryzyka wymienionego w załączniku III, z wyjątkiem systemów AI wysokiego ryzyka, o których mowa w załączniku III pkt 2, dostawca lub – w stosownych przypadkach – jego upoważniony przedstawiciel rejestrują się i swój system w bazie danych UE, o której mowa w art. 71.
2. Enne sellise suure riskiga tehisintellektisüsteemi turule laskmist või kasutusele võtmist, mille kohta pakkuja on vastavalt artikli 6 lõikele 3 teinud otsuse, et tegemist ei ole suure riskiga süsteemiga, registreerib pakkuja või kohaldataval juhul volitatud esindaja selle süsteemi artiklis 71 osutatud ELi andmebaasis.
2. Przed wprowadzeniem do obrotu lub oddaniem do użytku systemu AI, co do którego dostawca stwierdził, że nie jest systemem wysokiego ryzyka zgodnie z art. 6 ust. 3, dostawca ten lub – w stosownych przypadkach – jego upoważniony przedstawiciel rejestrują się i swój system w bazie danych UE, o której mowa w art. 71.
3. Enne III lisas loetletud suure riskiga tehisintellektisüsteemi kasutuselevõttu või kasutamist, välja arvatud III lisa punktis 2 loetletud suure riskiga tehisintellektisüsteemide puhul, registreerivad end juurutajad, kes on avaliku sektori asutused, liidu institutsioonid, organid, ametid või asutused või nende nimel tegutsevad isikud, valivad süsteemi ja registreerivad selle kasutamise artiklis 71 osutatud ELi andmebaasis.
3. Przed oddaniem do użytku lub wykorzystaniem systemu AI wysokiego ryzyka wymienionego w załączniku III, z wyjątkiem systemów AI wysokiego ryzyka wymienionych w załączniku III pkt 2, podmioty stosujące będące publicznymi organami, instytucjami, organami lub jednostkami organizacyjnymi Unii lub osobami działającymi w ich imieniu rejestrują się, wybierają system i rejestrują jego wykorzystanie w bazie danych UE, o której mowa w art. 71.
4. III lisa punktides 1, 6 ja 7 osutatud suure riskiga tehisintellektisüsteemide puhul õiguskaitse, rände, varjupaiga ja piirikontrolli haldamise valdkonnas toimub käesoleva artikli lõigetes 1, 2 ja 3 osutatud registreerimine artiklis 71 osutatud ELi andmebaasi turvalises mitteavalikus osas ning sisaldab üksnes järgmist teavet, nagu on asjakohane:
4. W przypadku systemów AI wysokiego ryzyka, o których mowa w załączniku III pkt 1, 6 i 7, w obszarach ścigania przestępstw, migracji, azylu i zarządzania kontrolą graniczną, rejestracji, o której mowa w ust. 1, 2 i 3 niniejszego artykułu, dokonuje się w bezpiecznej niepublicznej sekcji bazy danych UE, o której mowa w art. 71, i – stosownie do przypadku – zawiera wyłącznie następujące informacje, o których mowa w:
a)
VIII lisa A jao punktid 1–10, välja arvatud punktid 6, 8 ja 9;
a)
załączniku VIII sekcja A pkt 1–10, z wyjątkiem pkt 6, 8 i 9;
b)
VIII lisa B jao punktid 1–5 ning punktid 8 ja 9;
b)
załączniku VIII sekcja B pkt 1–5 oraz pkt 8 i 9;
c)
VIII lisa C jao punktid 1–3;
c)
załączniku VIII sekcja C pkt 1–3;
d)
IX lisa punktid 1, 2, 3 ja 5.
d)
załączniku IX pkt 1, 2, 3 i 5.
Ainult komisjonil ja artikli 74 lõikes 8 osutatud riiklikel asutustel on juurdepääs vastavatele käesoleva lõike esimeses lõigus loetletud ELi andmebaasi piiratud juurdepääsuga osadele.
Do odpowiednich zastrzeżonych sekcji bazy danych UE wymienionych w akapicie pierwszym niniejszego ustępu dostęp mają jedynie Komisja i organy krajowe, o których mowa w art. 74 ust. 8.
5. III lisa punktis 2 osutatud suure riskiga tehisintellektisüsteemid registreeritakse riiklikul tasandil.
5. Systemy AI wysokiego ryzyka, o których mowa w załączniku III pkt 2, rejestruje się na poziomie krajowym.
Teatavate tehisintellektisüsteemide pakkujate ja juurutajate läbipaistvuskohustused
Obowiązki w zakresie przejrzystości dla dostawców i podmiotów stosujących niektóre systemy AI
1. Pakkujad tagavad, et füüsiliste isikutega vahetult suhtlema mõeldud tehisintellektisüsteeme projekteeritakse ja arendatakse selliselt, et asjaomastele füüsilistele isikutele antakse teada, et nad suhtlevad tehisintellektisüsteemiga, välja arvatud juhul, kui see on piisavalt informeeritud, tähelepaneliku ja aruka füüsilise isiku jaoks ilmne, võttes arvesse asjaolusid ja kasutamise konteksti. See kohustus ei kehti tehisintellektisüsteemide suhtes, mida on seadusega lubatud kasutada kuritegude avastamiseks, tõkestamiseks ja uurimiseks või nende eest vastutusele võtmiseks, tingimusel et kolmandate isikute õiguste ja vabaduste kaitseks kohaldatakse asjakohaseid kaitsemeetmeid, välja arvatud juhul, kui sellised süsteemid on üldsusele kättesaadavad, et kuritegudest teatada.
1. Dostawcy zapewniają, aby systemy AI przeznaczone do wchodzenia w bezpośrednią interakcję z osobami fizycznymi projektowano i rozwijano w taki sposób, aby zainteresowane osoby fizyczne były informowane o tym, że prowadzą interakcję z systemem AI, chyba że jest to oczywiste z punktu widzenia osoby fizycznej, która jest dostatecznie poinformowana, uważna i ostrożna, z uwzględnieniem okoliczności i kontekstu wykorzystywania. Obowiązek ten nie ma zastosowania do systemów AI, których wykorzystywanie jest dozwolone na mocy prawa do celów wykrywania przestępstw, przeciwdziałania im, prowadzenia postępowań przygotowawczych w ich sprawie lub ścigania ich sprawców, z zastrzeżeniem odpowiednich zabezpieczeń w zakresie praw i wolności osób trzecich, chyba że systemy te udostępnia się ogółowi społeczeństwa na potrzeby składania zawiadomień o popełnieniu przestępstwa.
2. Tehisintellektisüsteemide, sealhulgas üldotstarbeliste tehisintellektisüsteemide pakkujad, kes loovad sünteetilist audio-, pildi-, video- või tekstisisu, tagavad, et tehisintellektisüsteemi väljundid on märgitud masinloetavas vormingus ja tuvastatavad kui kunstlikult loodud või manipuleeritud. Pakkujad tagavad, et nende tehnilised lahendused on tõhusad, koostalitlusvõimelised, töökindlad ja usaldusväärsed, niivõrd kui see on tehniliselt teostatav, võttes arvesse eri liiki sisu eripära ja piiranguid, rakendamise kulusid ja tehnika üldtunnustatud taset, mis võib olla kajastatud asjakohastes tehnilistes standardites. Seda kohustust ei kohaldata, kui tehisintellektisüsteemid täidavad standardse redigeerimise abifunktsiooni või ei muuda oluliselt juurutaja esitatud sisendandmeid või nende semantikat või kui see on seadusega lubatud kuritegude avastamiseks, tõkestamiseks, uurimiseks või nende eest vastutusele võtmiseks.
2. Dostawcy systemów AI, w tym systemów AI ogólnego zastosowania, generujących treści w postaci syntetycznych dźwięków, obrazów, wideo lub tekstu, zapewniają, aby wyniki systemu AI zostały oznakowane w formacie nadającym się do odczytu maszynowego i były wykrywalne jako sztucznie wygenerowane lub zmanipulowane. Dostawcy zapewniają skuteczność, interoperacyjność, solidność i niezawodność swoich rozwiązań technicznych w zakresie, w jakim jest to technicznie wykonalne, uwzględniając przy tym specyfikę i ograniczenia różnych rodzajów treści, koszty wdrażania oraz powszechnie uznany stan wiedzy technicznej, co może być odzwierciedlone w odpowiednich normach technicznych. Obowiązek ten nie ma zastosowania w zakresie, w jakim systemy AI pełnią funkcję wspomagającą w zakresie standardowej edycji lub nie zmieniają w istotny sposób przekazywanych przez podmiot stosujący danych wejściowych lub ich semantyki, ani w zakresie, w jakim jest to dozwolone na mocy prawa do celów wykrywania przestępstw, zapobiegania im, prowadzenia postępowań przygotowawczych w ich sprawie lub ścigania ich sprawców.
3. Emotsioonituvastussüsteemi või biomeetrilise liigitamise süsteemi juurutajad annavad süsteemi tööst teada füüsilistele isikutele, kes selle süsteemiga kokku puutuvad, ning töötlevad vajaduse korral isikuandmeid kooskõlas määrustega (EL) 2016/679 ja (EL) 2018/1725 ning direktiiviga (EL) 2016/680. Seda kohustust ei kohaldata biomeetriliseks liigitamiseks ja emotsioonide tuvastamiseks kasutatavate tehisintellektisüsteemide suhtes, mida on seadusega lubatud kasutada kuritegude avastamiseks, tõkestamiseks või uurimiseks, tingimusel et kolmandate isikute õiguste ja vabaduste kaitseks kohaldatakse asjakohaseid kaitsemeetmeid ja kooskõlas liidu õigusega.
3. Podmioty stosujące systemy rozpoznawania emocji lub systemy kategoryzacji biometrycznej informują osoby fizyczne, wobec których systemy te są stosowane, o fakcie ich stosowania i przetwarzają dane osobowe stosownie do przypadku zgodnie z rozporządzeniami (UE) 2016/679 i (UE) 2018/1725 oraz dyrektywą (UE) 2016/680. Obowiązek ten nie ma zastosowania do systemów AI wykorzystywanych do kategoryzacji biometrycznej i rozpoznawania emocji, których wykorzystywanie jest dozwolone z mocy prawa do celów wykrywania przestępstw, przeciwdziałania im i prowadzenia postępowań przygotowawczych w przestępstwami ich sprawach, z zastrzeżeniem odpowiednich zabezpieczeń w zakresie praw i wolności osób trzecich oraz zgodnie z prawem Unii.
4. Sellise tehisintellektisüsteemi juurutajad, mis loob või manipuleerib pildi-, audio- või videosisu, mis kujutab endast süvavõltsingut, avalikustavad, et sisu on kunstlikult loodud või manipuleeritud. Seda kohustust ei kohaldata, kui kasutamine on seadusega lubatud kuritegude avastamiseks, tõkestamiseks, uurimiseks või nende eest vastutusele võtmiseks. Kui sisu moodustab osa ilmselgelt kunstilisest, loomingulisest, satiirilisest, väljamõeldud või samalaadsest teosest või programmist, piirduvad käesolevas lõikes sätestatud läbipaistvuskohustused sellise loodud või manipuleeritud sisu olemasolu avalikustamisega asjakohasel viisil, mis ei takista teose kuvamist või kasutamist.
4. Podmioty stosujące system AI, który generuje obrazy, treści audio lub wideo stanowiące treści deepfake lub który manipuluje takimi obrazami lub treściami, ujawniają, że treści te zostały sztucznie wygenerowane lub zmanipulowane. Obowiązek ten nie ma zastosowania, w przypadku gdy wykorzystywanie jest dozwolone na mocy prawa w celu wykrywania przestępstw, zapobiegania im, prowadzenia postępowań przygotowawczych w ich sprawie lub ścigania ich sprawców. W przypadku gdy treść stanowi część pracy lub programu o wyraźnie artystycznym, twórczym, satyrycznym, fikcyjnym lub analogicznym charakterze obowiązki w zakresie przejrzystości określone w niniejszym ustępie ograniczają się do ujawnienia istnienia takich wygenerowanych lub zmanipulowanych treści w odpowiedni sposób, który nie utrudnia wyświetlania lub korzystania z utworu.
Sellise tehisintellektisüsteemi juurutajad, mis loob või manipuleerib teksti, mis avaldatakse eesmärgiga teavitada üldsust avalikku huvi pakkuvatest küsimustest, avalikustavad, et tekst on kunstlikult loodud või manipuleeritud. Seda kohustust ei kohaldata, kui kasutamine on seadusega lubatud kuritegude avastamiseks, tõkestamiseks, uurimiseks või nende eest vastutusele võtmiseks või kui tehisintellekti loodud sisu on läbinud inimkontrolli või toimetuskontrolli ning kui sisu avaldamise eest kannab toimetuslikku vastutust füüsiline või juriidiline isik.
Podmioty stosujące system AI, który generuje tekst publikowany w celu informowania społeczeństwa o sprawach leżących w interesie publicznym lub manipuluje takim tekstem, ujawniają, że tekst został sztucznie wygenerowany lub zmanipulowany. Obowiązek ten nie ma zastosowania, w przypadku gdy wykorzystywanie jest dozwolone na mocy prawa w celu wykrywania przestępstw, zapobiegania im, prowadzenia postępowań przygotowawczych w ich sprawie lub ścigania ich sprawców lub w przypadku gdy treści wygenerowane przez AI zostały poddane weryfikacji przez człowieka lub kontroli redakcyjnej i gdy za publikację treści odpowiedzialność redakcyjną ponosi osoba fizyczna lub prawna.
5. Lõigetes 1–4 osutatud teave esitatakse asjaomastele füüsilistele isikutele selgel ja eristataval viisil hiljemalt esimese suhtlemise või kokkupuute ajal. Teave peab vastama kohaldatavatele ligipääsetavusnõuetele.
5. Informacje, o których mowa w ust. 1–4, są przekazywane zainteresowanym osobom fizycznym w jasny i wyraźny sposób, najpóźniej w momencie pierwszej interakcji lub pierwszego stosowania. Informacje te muszą spełniać mające zastosowanie wymogi dostępności.
6. Lõiked 1–4 ei mõjuta III peatükis sätestatud nõudeid ja kohustusi ega piira muude liidu või riigisiseses õiguses tehisintellektisüsteemide juurutajatele sätestatud läbipaistvuskohustuste kohaldamist.
6. Ust. 1–4 nie mają wpływu na wymogi i obowiązki ustanowione w rozdziale III i pozostają bez uszczerbku dla innych obowiązków w zakresie przejrzystości ustanowionych w prawie Unii lub prawie krajowym w odniesieniu do podmiotów stosujących systemy AI.
7. Tehisintellektiamet julgustab ja hõlbustab tegevusjuhendite koostamist liidu tasandil, et lihtsustada kunstlikult loodud või manipuleeritud sisu avastamise ja märgistamisega seotud kohustuste tõhusat rakendamist. Komisjonil võib võtta vastu rakendusakte kõnealuste tegevusjuhendite heakskiitmiseks artikli 56 lõikes 6 sätestatud korras. Kui komisjon leiab, et juhend ei ole piisav, võib ta kooskõlas artikli 98 lõikes 2 sätestatud kontrollimenetlusega võtta vastu rakendusakti, milles määratakse kindlaks ühised õigusnormid kõnealuste kohustuste rakendamiseks.
7. Urząd ds. AI zachęca do opracowywania kodeksów praktyk na poziomie Unii i wspiera ich opracowanie, aby ułatwić skuteczne wykonywanie obowiązków w zakresie wykrywania i oznaczania treści sztucznie wygenerowanych lub zmanipulowanych. Komisja może przyjmować akty wykonawcze dotyczące zatwierdzenia tych kodeksów praktyk zgodnie z procedurą ustanowioną w art. 56 ust. 6. Jeżeli Komisja uzna, że kodeks nie jest odpowiedni, może przyjąć akt wykonawczy określający wspólne zasady wykonywania tych obowiązków zgodnie z procedurą sprawdzającą ustanowioną w art. 98 ust. 2.
1. Kui üldotstarbeline tehisintellektimudel vastab artikli 51 lõike 1 punktis a osutatud tingimusele, teavitab asjaomane pakkuja sellest komisjoni viivitamata ja igal juhul kahe nädala jooksul pärast selle nõude täitmist või teadasaamist, et nõue täidetakse. Kõnealune teade sisaldab teavet, mis on vajalik tõendamaks, et asjaomane nõue on täidetud. Kui komisjon saab teada üldotstarbelisest tehisintellektimudelist, millega kaasnevad süsteemsed riskid, millest teda ei ole teavitatud, võib ta otsustada liigitada selle süsteemse riskiga mudeliks.
1. W przypadku gdy model AI ogólnego przeznaczenia spełnia warunki, o których mowa w art. 51 ust. 1 lit. a), odpowiedni dostawca powiadamia Komisję niezwłocznie, a w każdym przypadku w terminie dwóch tygodni od spełnienia tego warunku lub od kiedy wiadomo, że zostanie on spełniony. Powiadomienie to zawiera informacje niezbędne do wykazania, że dany warunek został spełniony. Jeśli Komisja dowie się o stwarzającym ryzyko systemowe modelu AI ogólnego przeznaczenia, o którym nie została powiadomiona, może zdecydować o uznaniu go za model z ryzykiem systemowym.
2. Artikli 51 lõike 1 punktis a osutatud nõudele vastava üldotstarbelise tehisintellektimudeli pakkuja võib koos teatega esitada piisavalt põhjendatud väited tõendamaks, et kuigi üldotstarbeline tehisintellektimudel vastab sellele nõudele, ei kujuta see erandkorras oma erijoonte tõttu süsteemseid riske ja seetõttu ei tuleks see klassifitseerida süsteemse riskiga üldotstarbeliseks tehisintellektimudeliks.
2. Dostawca spełniający warunek, o którym mowa w art. 51 ust. 1 lit. a), modelu AI ogólnego przeznaczenia z ryzykiem systemowym może wraz ze swoim powiadomieniem przedstawić wystarczająco uzasadnione argumenty wykazujące, że wyjątkowo, pomimo spełniania przez ten model AI ogólnego przeznaczenia przedmiotowego warunku, nie stwarza on – z uwagi na swoje szczególne cechy – ryzyka systemowego i nie powinien być w związku z tym zaklasyfikowany jako model AI ogólnego przeznaczenia z ryzykiem systemowym.
3. Kui komisjon jõuab järeldusele, et lõike 2 kohaselt esitatud väited ei ole piisavalt põhjendatud ja asjaomane pakkuja ei suutnud tõendada, et üldotstarbeline tehisintellektimudel ei kujuta oma erijoonte tõttu süsteemseid riske, lükkab ta need väited tagasi ja üldotstarbelist tehisintellektimudelit käsitatakse süsteemse riskiga üldotstarbelise tehisintellektimudelina.
3. W przypadku gdy Komisja stwierdzi, że argumenty przedstawione zgodnie z ust. 2 nie są wystarczająco uzasadnione i że dany dostawca nie był w stanie wykazać, że dany model AI ogólnego przeznaczenia nie stwarza – z uwagi na swoje szczególne cechy – ryzyka systemowego, odrzuca te argumenty, a dany model AI ogólnego przeznaczenia uważa się za model AI ogólnego przeznaczenia z ryzykiem systemowym.
4. Komisjon võib liigitada üldotstarbelise tehisintellektimudeli süsteemseid riske kujutavaks mudeliks ex officio või pärast teaduskomisjonilt artikli 90 lõike 1 punkti a kohase kvalifitseeritud hoiatusteate saamist, põhinedes XIII lisas sätestatud kriteeriumidele.
4. Komisja może – z urzędu lub w następstwie ostrzeżenia kwalifikowanego wydanego przez panel naukowy zgodnie z art. 90 ust. 1 lit. a) – uznać model AI ogólnego przeznaczenia za model stwarzający ryzyko systemowe na podstawie kryteriów określonych w załączniku XIII.
Komisjonil on õigus võtta kooskõlas artikliga 97 vastu delegeeritud õigusakte, et muuta XIII lisa, täpsustades ja ajakohastades selles lisas esitatud kriteeriume.
Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 97 w celu zmiany załącznika XIII poprzez określenie i zaktualizowanie kryteriów określonych w załączniku XIII.
5. Pakkuja, kelle mudel on liigitatud artikli 4 kohaselt süsteemse riskiga üldotstarbeliseks tehisintellektimudeliks, põhjendatud taotluse korral võtab komisjon taotlust arvesse ja võib otsustada uuesti hinnata, kas seda üldotstarbelist tehisintellektimudelit saab siiski pidada süsteemseid riske kujutavaks mudeliks, põhinedes XIII lisas toodud kriteeriumidele. Selline taotlus peab sisaldama objektiivseid, üksikasjalikke ja uusi põhjuseid, mis on esile kerkinud pärast liigitamisotsust. Pakkujad võivad taotleda uut hindamist kõige varem kuus kuud pärast liigitamisotsuse tegemist. Kui komisjon otsustab pärast uuesti hindamist säilitada mudeli liigitamise süsteemse riskiga üldotstarbeliseks tehisintellektimudeliks, võivad pakkujad taotleda uuesti hindamist kõige varem kuus kuud pärast kõnealuse otsuse tegemist.
5. Na uzasadniony wniosek dostawcy, którego model został zgodnie z ust. 4 uznany za model AI ogólnego przeznaczenia z ryzykiem systemowym, Komisja bierze pod uwagę taki wniosek i może zdecydować o ponownej ocenie w celu stwierdzenia, czy dany model AI ogólnego przeznaczenia może być nadal uważany za stwarzający ryzyko systemowe na podstawie kryteriów określonych w załączniku XIII. Wniosek taki zawiera obiektywne, szczegółowe i nowe powody, które pojawiły się po podjęciu decyzji o uznaniu. Dostawcy mogą zwrócić się z wnioskiem o ponowną ocenę najwcześniej sześć miesięcy po podjęciu decyzji o uznaniu. W przypadku gdy w wyniku ponownej oceny Komisja zdecyduje się utrzymać uznanie modelu za model AI ogólnego przeznaczenia z ryzykiem systemowym, dostawcy mogą zwrócić się z wnioskiem o ponowną ocenę najwcześniej sześć miesięcy po podjęciu tej decyzji.
6. Komisjon tagab süsteemse riskiga üldotstarbeliste tehisintellektimudelite loetelu avaldamise ja ajakohastab seda, ilma et see piiraks vajadust järgida ja kaitsta intellektuaalomandi õigusi ja konfidentsiaalset äriteavet või ärisaladusi kooskõlas liidu ja riigisisese õigusega.
6. Komisja zapewnia publikację i aktualizację wykazu modeli AI ogólnego przeznaczenia z ryzykiem systemowym, bez uszczerbku dla konieczności przestrzegania i ochrony praw własności intelektualnej oraz poufnych informacji handlowych lub tajemnic przedsiębiorstwa zgodnie z prawem Unii i prawem krajowym.
Üldotstarbeliste tehisintellektimudelite pakkujate kohustused
Obowiązki dostawców modeli AI ogólnego przeznaczenia
1. Üldotstarbeliste tehisintellektimudelite pakkujad:
1. Dostawcy modeli AI ogólnego przeznaczenia:
a)
koostavad mudeli tehnilise dokumentatsiooni, sealhulgas selle treenimis- ja testimisprotsessi ning hindamistulemuste kohta, mis sisaldab vähemalt XI lisas sätestatud teavet, et esitada see taotluse korral tehisintellektiametile ja riigi pädevatele asutustele, ning ajakohastavad seda;
a)
sporządzają i aktualizują dokumentację techniczną modelu, w tym proces jego trenowania i testowania oraz wyniki jego oceny, zawierającą co najmniej informacje określone w załączniku XI do celów przekazania ich, na wniosek, Urzędowi ds. AI i właściwym organom krajowym;
b)
koostavad teabe ja dokumentatsiooni ning teevad selle kättesaadavaks tehisintellektisüsteemide pakkujatele, kes kavatsevad integreerida üldotstarbelise tehisintellektimudeli oma tehisintellektisüsteemidesse, ning ajakohastavad seda. Ilma et see piiraks vajadust jälgida ja kaitsta intellektuaalomandi õigusi ja konfidentsiaalset äriteavet või ärisaladusi kooskõlas liidu ja riigisisese õigusega, peab teave ja dokumentatsioon:
b)
sporządzają, aktualizują i udostępniają informacje i dokumentację dostawcom systemów AI, którzy zamierzają zintegrować model AI ogólnego przeznaczenia ze swoimi systemami AI. Bez uszczerbku dla potrzeby przestrzegania i ochrony praw własności intelektualnej i poufnych informacji handlowych lub tajemnic przedsiębiorstwa zgodnie prawem Unii i prawem krajowym te informacje i dokumentacja:
i)
võimaldama tehisintellektisüsteemide pakkujatel saada hea ülevaate üldotstarbelise tehisintellektimudeli võimetest ja piiridest ning täita oma käesolevast määrusest tulenevaid kohustusi, ning
(i)
umożliwiają dostawcom systemów AI dobre zrozumienie możliwości i ograniczeń danego modelu AI ogólnego przeznaczenia oraz spełnienie ich obowiązków zgodnie z niniejszym rozporządzeniem; oraz
ii)
sisaldama vähemalt XII lisas loetletud elemente;
(ii)
zawierają co najmniej elementy określone w załączniku XII;
c)
kehtestavad põhimõtted, et järgida autoriõiguse alast liidu õigust ja seotud õigusi ning eelkõige tuvastada ja järgida, sealhulgas tipptasemel tehnoloogia abil, direktiivi (EL) 2019/790 artikli 4 lõike 3 kohaselt väljendatud õiguste piiramist;
c)
wprowadzają politykę służącą zapewnieniu zgodności z prawem Unii dotyczącym prawa autorskiego i praw pokrewnych, w szczególności z myślą o identyfikacji i zastosowaniu się, w tym poprzez najnowocześniejsze technologie, do zastrzeżenia praw wyrażonego zgodnie z art. 4 ust. 3 dyrektywy (UE) 2019/790;
d)
koostavad ja teevad üldsusele kättesaadavaks piisavalt üksikasjaliku kokkuvõtte üldotstarbelise tehisintellektimudeli treenimiseks kasutatud sisu kohta vastavalt tehisintellektiameti esitatud vormile.
d)
sporządzają i podają do wiadomości publicznej wystarczająco szczegółowe streszczenie na temat treści wykorzystanych do trenowania danego modelu AI ogólnego przeznaczenia, zgodnie ze wzorem dostarczonym przez Urząd ds. AI.
2. Lõike 1 punktides a ja b sätestatud kohustusi ei kohaldata selliste tehisintellektimudelite pakkujate suhtes, mis lubatakse tarbimisse vaba ja avatud lähtekoodi litsentsi alusel, mis võimaldab mudelile juurdepääsu, selle kasutamist, muutmist ja turustamist, ning mille parameetrid, sealhulgas kaalud, teave mudeliarhitektuuri kohta ja teave mudeli kasutamise kohta, tehakse üldsusele kättesaadavaks. Seda erandit ei kohaldata süsteemse riskiga üldotstarbeliste tehisintellektimudelite suhtes.
2. Obowiązków określonych w ust. 1 lit. a) i b) nie stosuje się do dostawców modeli AI, które są udostępniane na podstawie bezpłatnej licencji otwartego oprogramowania umożliwiającej dostęp, wykorzystanie, zmianę i dystrybucję modelu i których parametry, w tym wagi, informacje o architekturze modelu oraz informacje o wykorzystaniu modelu są podawane do wiadomości publicznej. Wyjątku tego nie stosuje się do modeli AI ogólnego przeznaczenia z ryzykiem systemowym.
3. Üldotstarbeliste tehisintellektimudelite pakkujad teevad käesolevast määrusest tulenevate pädevuste ja volituste kasutamisel vajaduse korral koostööd komisjoni ja riigi pädevate asutustega.
3. Dostawcy modeli AI ogólnego przeznaczenia współpracują w razie konieczności z Komisją i właściwymi organami krajowymi przy wykonywaniu ich kompetencji i uprawnień zgodnie z niniejszym rozporządzeniem.
4. Üldotstarbeliste tehisintellektimudelite pakkujad võivad kuni harmoneeritud standardi avaldamiseni tugineda tegevusjuhenditele artikli 56 tähenduses, et tõendada käesoleva artikli lõikes 1 sätestatud kohustuste täitmist. Euroopa harmoneeritud standardi järgimine tagab pakkujatele kohustuste täidetuse eelduse niivõrd, kuivõrd need standardid hõlmavad neid kohustusi. Üldotstarbeliste tehisintellektimudelite pakkujad, kes ei järgi heakskiidetud tegevusjuhendit ega Euroopa harmoneeritud standardit, peavad tõendama nõuetele vastavust alternatiivsete asjakohaste meetodite abil, mida komisjon peab hindama.
4. Do czasu opublikowania normy zharmonizowanej dostawcy modeli AI ogólnego przeznaczenia mogą opierać się na kodeksach praktyk w rozumieniu art. 56 w celu wykazania spełnienia obowiązków ustanowionych w ust. 1 niniejszego artykułu. Zgodność z europejskimi normami zharmonizowanymi stwarza dla dostawcy domniemanie spełnienia tych obowiązków w zakresie, w jakim normy te obejmują te obowiązki. Dostawcy modeli AI ogólnego przeznaczenia, którzy nie zobowiązują się do przestrzegania zatwierdzonego kodeksu praktyk lub nie zapewniają zgodności z europejską normą zharmonizowaną, przedstawiają Komisji do oceny adekwatne alternatywne środki służące zapewnieniu zgodności.
5. XI lisa, eelkõige selle punkti 2 alapunktide d ja e järgimise hõlbustamiseks võib komisjon võtta kooskõlas artikliga 97 vastu delegeeritud õigusakte, et täpsustada mõõtmis- ja arvutusmeetodeid, pidades silmas võrreldava ja kontrollitava dokumentatsiooni võimaldamist.
5. Do celu ułatwienia zgodności z załącznikiem XI, w szczególności jego pkt 2 lit. d) i e), Komisja jest uprawniona do przyjmowania zgodnie z art. 97 aktów delegowanych dotyczących szczegółowego określenia metod pomiaru i obliczeń umożliwiających porównywalną i weryfikowalną dokumentację.
6. Komisjon võib võtta kooskõlas artikli 97 lõikega 2 vastu delegeeritud õigusakte, et ajakohastada XI ja XIII lisa, arvestades tehnika arenguga.
6. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 97 ust. 2 w celu zmiany załączników XI i XII w świetle postępu technicznego.
7. Mis tahes käesoleva artikli kohaselt saadud teavet ja dokumentatsiooni, sealhulgas ärisaladusi, käsitletakse kooskõlas artiklis 78 sätestatud konfidentsiaalsuskohustustega.
7. Wszelkie informacje lub dokumentację uzyskane zgodnie z niniejszym artykułem, w tym tajemnice przedsiębiorstwa, traktuje się zgodnie z obowiązkami dotyczącymi poufności określonymi w art. 78.
Üldotstarbeliste tehisintellektimudelite pakkujate volitatud esindajad
Upoważnieni przedstawiciele dostawców modeli AI ogólnego przeznaczenia
1. Kolmandates riikides asutatud pakkujad peavad enne oma üldotstarbelise tehisintellektisüsteemi liidu turul kättesaadavaks tegemist määrama kirjaliku volitusega liidus asutatud volitatud esindaja.
1. Przed wprowadzeniem swoich modeli AI ogólnego przeznaczenia do obrotu w Unii dostawcy mający siedzibę w państwach trzecich ustanawiają – na podstawie pisemnego pełnomocnictwa – upoważnionego przedstawiciela mającego siedzibę w Unii.
2. Pakkuja võimaldab oma volitatud esindajal täita pakkujalt saadud volituses kindlaksmääratud ülesandeid.
2. Dostawca umożliwia swojemu upoważnionemu przedstawicielowi wykonywanie zadań powierzonych mu na mocy pełnomocnictwa udzielonego przez dostawcę.
3. Volitatud esindaja täidab pakkujalt saadud volituses kindlaksmääratud ülesandeid. Volitatud esindaja esitab tehisintellektiameti taotluse korral neile volituse koopia liidu institutsioonide ühes ametlikus keeles. Käesoleva määruse kohaldamisel annab volitus volitatud esindajale õiguse täita järgmisi ülesandeid:
3. Upoważniony przedstawiciel wykonuje zadania powierzone mu na mocy pełnomocnictwa udzielonego przez dostawcę. Przekazuje on Urzędowi ds. AI na jego wniosek kopię pełnomocnictwa w jednym z oficjalnych języków instytucji Unii. Do celów niniejszego rozporządzenia pełnomocnictwo uprawnia upoważnionego przedstawiciela do wykonywania następujących zadań:
a)
kontrollida, et pakkuja on koostanud XI lisas sätestatud tehnilise dokumentatsiooni ja täitnud kõik artiklis 53 ja kohaldataval juhul artiklis 55 osutatud kohustused;
a)
sprawdzenie, czy dostawca sporządził dokumentację techniczną określoną w załączniku XI oraz czy wypełnił wszystkie obowiązki, o których mowa w art. 53, oraz, w stosownych przypadkach, w art. 55;
b)
hoida XI lisas täpsustatud tehnilise dokumentatsiooni koopiat tehisintellektiameti ja riikide pädevate asutuste jaoks kättesaadavana kümne aasta jooksul pärast üldotstarbelise tehisintellektimudeli turule laskmist ning säilitada volitatud esindaja määranud pakkuja kontaktandmeid;
b)
przechowywanie kopii dokumentacji technicznej określonej w załączniku XI do dyspozycji Urzędu ds. AI i właściwych organów krajowych przez okres 10 lat od czasu wprowadzenia danego modelu AI ogólnego przeznaczenia do obrotu oraz danych kontaktowych dostawcy, który ustanowił danego upoważnionego przedstawiciela;
c)
esitada tehisintellektiametile põhjendatud taotluse korral kogu teave ja dokumentatsioon, sealhulgas punktis b osutatud teave ja dokumentatsioon, mida on vaja, et tõendada käesolevas peatükis sätestatud kohustuste täitmist;
c)
przekazywanie Urzędowi ds. AI na uzasadniony wniosek wszystkich informacji i dokumentacji, w tym określonych w lit. b), niezbędnych do wykazania spełnienia obowiązków ustanowionych w niniejszym rozdziale;
d)
teha põhjendatud taotluse korral koostööd tehisintellektiameti ja pädevate asutustega kõigis meetmetes, mida nad võtavad seoses üldotstarbelise tehisintellektimudeliga, sealhulgas juhul, kui mudel on integreeritud liidus turule lastud või kasutusele võetud tehisintellektisüsteemidesse.
d)
współpraca z Urzędem ds. AI i właściwymi organami, na uzasadniony wniosek, we wszelkich podejmowanych przez nie działaniach odnoszących się do modelu AI ogólnego przeznaczenia, w tym kiedy model ten jest zintegrowany z systemami AI wprowadzanymi do obrotu lub oddawanymi do użytku w Unii.
4. Volitusega antakse volitatud esindajale õigus, et tema poole võivad lisaks pakkujale või pakkuja asemel pöörduda tehisintellektiamet või pädevad asutused kõigis küsimustes, mis on seotud käesoleva määruse järgimise tagamisega.
4. Pełnomocnictwo daje upoważnionemu przedstawicielowi prawo do tego, aby Urząd ds. AI lub właściwe organy mogły się zwracać do niego, obok albo zamiast do dostawcy, we wszystkich kwestiach dotyczących zapewnienia zgodności z niniejszym rozporządzeniem.
5. Volitatud esindaja lõpetab volituse, kui ta arvab või tal on põhjust arvata, et pakkuja tegevus on vastuolus tema käesolevast määrusest tulenevate kohustustega. Sellisel juhul teavitab ta viivitamata ka tehisintellektiametit volituste lõppemisest ja selle põhjustest.
5. Upoważniony przedstawiciel wypowiada pełnomocnictwo, jeśli sądzi lub ma powody sądzić, że dostawca działa w sposób sprzeczny z jego obowiązkami wynikającymi z niniejszego rozporządzenia. W takim przypadku informuje on również natychmiast Urząd ds. AI o wypowiedzeniu pełnomocnictwa i o jego przyczynach.
6. Käesolevas artiklis sätestatud kohustust ei kohaldata selliste üldotstarbeliste tehisintellektimudelite pakkujate suhtes, mis lubatakse tarbimisse vaba ja avatud lähtekoodiga litsentsi alusel, mis võimaldab mudelile juurdepääsu, selle kasutamist, muutmist ja levitamist ning mille parameetrid, sealhulgas kaalud, teave mudeliarhitektuuri kohta ja teave mudeli kasutamise kohta, tehakse üldsusele kättesaadavaks, välja arvatud juhul, kui üldotstarbeliste tehisintellektimudelitega kaasnevad süsteemsed riskid.
6. Obowiązek określony w niniejszym artykule nie dotyczy dostawców modeli AI ogólnego przeznaczenia, które są udostępniane na podstawie bezpłatnej licencji otwartego oprogramowania umożliwiającej dostęp, wykorzystanie, zmianę i dystrybucję modelu i których parametry, w tym wagi, informacje o architekturze modelu oraz informacje o wykorzystaniu modelu są podawane do wiadomości publicznej, chyba że te modele AI ogólnego przeznaczenia stwarzają ryzyko systemowe.