Dziennik Urzędowy
Unii Europejskiej
PL
Il-Ġurnal Uffiċjali
ta'l-Unjoni Ewropea
MT
ROZPORZĄDZENIE PARLAMENTU EUROPEJSKIEGO I RADY (UE) 2024/1689
REGOLAMENT (UE) 2024/1689 TAL-PARLAMENT EWROPEW U TAL-KUNSILL
z dnia 13 czerwca 2024 r.
w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji)
li jistabbilixxi regoli armonizzati dwar l-intelliġenza artifiċjali u li jemenda r-Regolamenti (KE) Nru 300/2008, (UE) Nru 167/2013, (UE) Nru 168/2013, (UE) 2018/858, (UE) 2018/1139 u (UE) 2019/2144 u d-Direttivi 2014/90/UE, (UE) 2016/797 u (UE) 2020/1828 (l-Att dwar l-Intelliġenza Artifiċjali)
(Tekst mający znaczenie dla EOG)
(Test b'rilevanza għaż-ŻEE)
PARLAMENT EUROPEJSKI I RADA UNII EUROPEJSKIEJ,
IL-PARLAMENT EWROPEW U L-KUNSILL TAL-UNJONI EWROPEA,
uwzględniając Traktat o funkcjonowaniu Unii Europejskiej, w szczególności jego art. 16 i 114,
Wara li kkunsidraw it-Trattat dwar il-Funzjonament tal-Unjoni Ewropea, u b'mod partikolari l-Artikoli 16 u 114 tiegħu,
uwzględniając wniosek Komisji Europejskiej,
Wara li kkunsidraw il-proposta tal-Kummissjoni Ewropea,
po przekazaniu projektu aktu ustawodawczego parlamentom narodowym,
Wara li l-abbozz tal-att leġiżlattiv intbagħat lill-parlamenti nazzjonali,
uwzględniając opinię Europejskiego Komitetu Ekonomiczno-Społecznego (1),
Wara li kkunsidraw l-opinjoni tal-Kumitat Ekonomiku u Soċjali Ewropew (1),
uwzględniając opinię Europejskiego Banku Centralnego (2),
Wara li kkunsidraw l-opinjoni tal-Bank Ċentrali Ewropew (2),
uwzględniając opinię Komitetu Regionów (3),
Wara li kkunsidraw l-opinjoni tal-Kumitat tar-Reġjuni (3),
stanowiąc zgodnie ze zwykłą procedurą ustawodawczą (4),
Filwaqt li jaġixxu f'konformità mal-proċedura leġiżlattiva ordinarja (4),
a także mając na uwadze, co następuje:
(1)
Celem niniejszego rozporządzenia jest poprawa funkcjonowania rynku wewnętrznego przez ustanowienie jednolitych ram prawnych, w szczególności w zakresie rozwoju, wprowadzania do obrotu, oddawania do użytku i wykorzystywania systemów sztucznej inteligencji (zwanych dalej „systemami AI”) w Unii, zgodnie z wartościami Unii, w celu promowania upowszechniania zorientowanej na człowieka i godnej zaufania sztucznej inteligencji (AI) przy jednoczesnym zapewnieniu wysokiego poziomu ochrony zdrowia, bezpieczeństwa, praw podstawowych zapisanych w Karcie praw podstawowych Unii Europejskiej (zwanej „Kartą”), w tym demokracji, praworządności i ochrony środowiska, ochrony przed szkodliwymi skutkami systemów AI w Unii, a także wspierania innowacji. Niniejsze rozporządzenie zapewnia swobodny transgraniczny przepływ towarów i usług opartych na AI, uniemożliwiając tym samym państwom członkowskim nakładanie ograniczeń na rozwój, wprowadzanie do obrotu i wykorzystywanie systemów AI, chyba że jest to wyraźnie dozwolone w niniejszym rozporządzeniu.
(1)
L-għan ta' dan ir-Regolament huwa li jtejjeb il-funzjonament tas-suq intern billi jistabbilixxi qafas legali uniformi b'mod partikolari għall-iżvilupp, l-introduzzjoni fis-suq, it-tqegħid fis-servizz u l-użu ta' sistemi ta' intelliġenza artifiċjali (sistemi tal-IA) fl-Unjoni, f'konformità mal-valuri tal-Unjoni, li jippromwovi l-adozzjoni ta' intelliġenza artifiċjali (IA) ċċentrata fuq il-bniedem u affidabbli filwaqt li jiżgura livell għoli ta' protezzjoni tas-saħħa, tas-sikurezza, tad-drittijiet fundamentali kif minquxa fil-Karta tad-Drittijiet Fundamentali tal-Unjoni Ewropea (“il-Karta”), inkluż id-demokrazija, l-istat tad-dritt u l-protezzjoni ambjentali, li jipproteġi kontra l-effetti ta' ħsara tas-sistemi tal-IA fl-Unjoni u li jappoġġa l-innovazzjoni. Dan ir-Regolament jiżgura l-moviment liberu transfruntier tal-oġġetti u s-servizzi bbażati fuq l-IA, u b'hekk jipprevjeni lill-Istati Membri milli jimponu restrizzjonijiet fuq l-iżvilupp, il-kummerċjalizzazzjoni u l-użu ta' sistemi tal-IA, sakemm mhumiex awtorizzati b'mod espliċitu b'dan ir-Regolament.
(2)
Niniejsze rozporządzenie należy stosować zgodnie z wartościami Unii zapisanymi w Karcie, ułatwiając ochronę osób fizycznych, przedsiębiorstw, demokracji, praworządności oraz ochronę środowiska, a jednocześnie pobudzając innowacje i zatrudnienie oraz czyniąc Unię liderem w upowszechnianiu godnej zaufania AI.
(2)
Jenħtieġ li dan ir-Regolament jiġi applikat f'konformità mal-valuri tal-Unjoni kif minquxa fil-Karta li jiffaċilitaw il-protezzjoni tal-persuni fiżiċi, tal-impriżi, tad-demokrazija, tal-istat tad-dritt u tal-protezzjoni ambjentali filwaqt li jagħti spinta lill-innovazzjoni u l-impjiegi u jagħmel lill-Unjoni minn ta' quddiem nett fl-adozzjoni ta' IA affidabbli.
(3)
Systemy AI mogą być łatwo wdrażane w wielu różnych sektorach gospodarki i obszarach życia społecznego, w tym w wymiarze transgranicznym, i mogą w łatwy sposób być przedmiotem obrotu w całej Unii. Niektóre państwa członkowskie zastanawiają się już nad przyjęciem przepisów krajowych w celu zapewnienia, aby AI była godna zaufania i bezpieczna oraz rozwijana i wykorzystywana w sposób zgodny z obowiązkami wynikającymi z praw podstawowych. Zróżnicowane przepisy krajowe mogą prowadzić do rozdrobnienia rynku wewnętrznego i mogą zmniejszyć pewność prawa dla operatorów, którzy rozwijają, importują lub wykorzystują systemy AI. Aby zatem AI stałą się godna zaufania, należy zapewnić spójny i wysoki poziom ochrony w całej Unii poprzez ustanowienie jednolitych obowiązków dla operatorów i zagwarantowanie jednolitej ochrony nadrzędnego interesu publicznego i praw osób na całym rynku wewnętrznym na podstawie art. 114 Traktatu o funkcjonowaniu Unii Europejskiej (TFUE), zapobiegając jednocześnie rozbieżnościom, które utrudniają swobodny obrót systemami AI oraz powiązanymi produktami i usługami na rynku wewnętrznym, a także utrudniają innowacje w ich zakresie oraz ich wdrażanie i rozpowszechnianie. W zakresie, w jakim niniejsze rozporządzenie zawiera przepisy szczególne dotyczące ochrony osób fizycznych w związku z przetwarzaniem danych osobowych w odniesieniu do ograniczenia wykorzystywania systemów AI do zdalnej identyfikacji biometrycznej do celów ścigania przestępstw, ograniczenia wykorzystywania systemów AI do oceny ryzyka w odniesieniu do osób fizycznych do celów ścigania przestępstw i ograniczenia wykorzystywania systemów AI kategoryzacji biometrycznej do celów ścigania przestępstw, podstawą niniejszego rozporządzenia w zakresie takich przepisów szczególnych powinien być art. 16 TFUE. W świetle tych przepisów szczególnych i skorzystania z art. 16 TFUE należy skonsultować się z Europejską Radą Ochrony Danych.
(3)
Is-sistemi tal-IA jistgħu faċilment jiġu implimentati f'varjetà kbira ta' setturi tal-ekonomija u f'ħafna partijiet tas-soċjetà, inkluż b'mod transfruntier, u jistgħu faċilment jiċċirkolaw madwar l-Unjoni. Ċerti Stati Membri diġà esploraw l-adozzjoni ta' regoli nazzjonali biex jiżguraw li l-IA tkun affidabbli u sikura u li tiġi żviluppata u użata f'konformità mal-obbligi tad-drittijiet fundamentali. Regoli nazzjonali diverġenti jistgħu jwasslu għall-frammentazzjoni tas-suq intern u jistgħu jnaqqsu ċ-ċertezza legali tal-operaturi biex jiżviluppaw, jimportaw jew jużaw is-sistemi tal-IA. Għalhekk, jenħtieġ li jkun żgurat livell konsistenti u għoli ta' protezzjoni madwar l-Unjoni kollha sabiex tinkiseb IA affidabbli, filwaqt li jenħtieġ li jiġu evitati d-diverġenzi li jfixklu ċ-ċirkolazzjoni libera, l-innovazzjoni, l-implimentazzjoni u l-adozzjoni tas-sistemi tal-IA u tal-prodotti u tas-servizzi relatati fi ħdan is-suq intern, billi jiġu stabbiliti obbligi uniformi għall-operaturi u tkun żgurata l-protezzjoni uniformi tar-raġunijiet prevalenti ta' interess pubbliku u tad-drittijiet tal-persuni fis-suq intern kollu abbażi tal-Artikolu 114 tat-Trattat dwar il-Funzjonament tal-Unjoni Ewropea (TFUE). Peress li dan ir-Regolament fih regoli speċifiċi dwar il-protezzjoni tal-individwi fir-rigward tal-ipproċessar tad-data personali rigward restrizzjonijiet tal-użu ta' sistemi tal-IA għall-identifikazzjoni bijometrika remota għall-fini tal-infurzar tal-liġi, għall-użu ta' sistemi tal-IA għall-valutazzjonijiet tar-riskju ta' persuni fiżiċi għall-fini tal-infurzar tal-liġi u għall-użu ta' sistemi tal-IA ta' kategorizzazzjoni bijometrika għall-finijiet tal-infurzar tal-liġi, huwa xieraq li dan ir-Regolament, sa fejn huma kkonċernati dawk ir-regoli speċifiċi, jiġi bbażat fuq l-Artikolu 16 TFUE. Fid-dawl ta' dawk ir-regoli speċifiċi u r-rikors għall-Artikolu 16 TFUE, jixraq jiġi kkonsultat il-Bord Ewropew għall-Protezzjoni tad-Data.
(4)
AI to szybko rozwijająca się grupa technologii, która przyczynia się do wielu różnych korzyści ekonomicznych, środowiskowych i społecznych we wszystkich gałęziach przemysłu i obszarach działalności społecznej. Ponieważ wykorzystywanie AI umożliwia lepsze prognozowanie, optymalizację operacji i przydzielania zasobów oraz personalizację rozwiązań cyfrowych dostępnych dla osób fizycznych i organizacji, może ono zapewnić przedsiębiorstwom kluczową przewagę konkurencyjną i wzmacniać korzyści społeczne i środowiskowe, na przykład w zakresie opieki zdrowotnej, rolnictwa, bezpieczeństwa żywności, kształcenia i szkolenia, mediów, sportu, kultury, zarządzania infrastrukturą, energetyki, transportu i logistyki, usług publicznych, bezpieczeństwa, wymiaru sprawiedliwości, zasobooszczędności i efektywności energetycznej, monitorowania środowiska, ochrony i odtwarzania różnorodności biologicznej i ekosystemów oraz łagodzenia zmiany klimatu i przystosowywania się do niej.
(4)
L-IA hi familja ta' teknoloġiji li qed tevolvi malajr u li tikkontribwixxi għal firxa wiesgħa ta' benefiċċji ekonomiċi, ambjentali u soċjetali fl-ispettru kollu tal-industriji u tal-attivitajiet soċjali. B'titjib fil-previżjoni, b'ottimizzazzjoni tal-operazzjonijiet u l-allokazzjoni tar-riżorsi, u b'personalizzazzjoni tas-soluzzjonijiet diġitali disponibbli għall-individwi u l-organizzazzjonijiet, l-użu tal-IA jista' jipprovdi vantaġġi kompetittivi ewlenin lill-impriżi u jappoġġa eżiti b'benefiċċji soċjali u ambjentali, bħal pereżempju fil-kura tas-saħħa, fl-agrikoltura, fis-sikurezza tal-ikel, fl-edukazzjoni u t-taħriġ, fil-media, fl-isports, fil-kultura, fil-ġestjoni tal-infrastruttura, fl-enerġija, fit-trasport u l-loġistika, fis-servizzi pubbliċi, fis-sigurtà, fil-ġustizzja, fl-effiċjenza tar-riżorsi u enerġetika, fil-monitoraġġ ambjentali, fil-konservazzjoni u r-restawr tal-bijodiversità u l-ekosistemi u fil-mitigazzjoni u l-adattament għat-tibdil fil-klima.
(5)
Jednocześnie AI może stwarzać zagrożenia i wyrządzać szkody dla interesu publicznego i praw podstawowych chronionych przepisami prawa Unii, w zależności od okoliczności jej konkretnego zastosowania, wykorzystania oraz od poziomu rozwoju technologicznego. Szkody te mogą być materialne lub niematerialne, w tym fizyczne, psychiczne, społeczne lub ekonomiczne.
(5)
Fl-istess ħin, skont iċ-ċirkostanzi fir-rigward tal-applikazzjoni, l-użu u l-livell ta' żvilupp teknoloġiku speċifiċi tagħha, l-IA tista' toħloq riskji u tikkawża ħsara lill-interessi pubbliċi u lid-drittijiet fundamentali li huma protetti bil-liġi tal-Unjoni. Din il-ħsara tista' tkun materjali jew mhux materjali, inkluż ħsara fiżika, psikoloġika, soċjetali jew ekonomika.
(6)
Biorąc pod uwagę istotny wpływ, jaki AI może mieć na społeczeństwo, oraz potrzebę budowania zaufania, AI i jej ramy regulacyjne należy rozwijać zgodnie z wartościami Unii zapisanymi w art. 2 Traktatu o Unii Europejskiej (TUE), podstawowymi prawami i wolnościami zapisanymi w traktatach oraz, zgodnie z art. 6 TUE – w Karcie. Warunkiem wstępnym jest to, by AI była technologią zorientowaną na człowieka. Powinna ona służyć jako narzędzie dla ludzi, którego ostatecznym celem jest zwiększenie dobrostanu człowieka.
(6)
Minħabba l-impatt kbir li jista' jkollha l-IA fuq is-soċjetà u l-ħtieġa li tinbena l-fiduċja, huwa essenzjali li l-IA u l-qafas regolatorju tagħha jiġu żviluppati f'konformità mal-valuri tal-Unjoni minquxa fl-Artikolu 2 tat-Trattat dwar l-Unjoni Ewropea (TUE), id-drittijiet u l-libertajiet fundamentali minquxa fit-Trattati u, skont l-Artikolu 6 TUE, fil-Karta. Bħala prerekwiżit, jenħtieġ li l-IA tkun teknoloġija ċċentrata fuq il-bniedem. Jenħtieġ li sservi bħala għodda għan-nies, bl-għan aħħari li jiżdied il-benesseri tal-bniedem.
(7)
W celu zapewnienia spójnego i wysokiego poziomu ochrony interesów publicznych w dziedzinie zdrowia, bezpieczeństwa i praw podstawowych należy ustanowić wspólne przepisy dotyczące systemów AI wysokiego ryzyka. Przepisy te powinny być zgodne z Kartą, niedyskryminacyjne i zgodne z międzynarodowymi zobowiązaniami handlowymi Unii. Przepisy te powinny również uwzględniać Europejską deklarację praw i zasad cyfrowych w cyfrowej dekadzie oraz Wytyczne w zakresie etyki dotyczące godnej zaufania AI grupy ekspertów wysokiego szczebla ds. AI.
(7)
Biex ikun żgurat livell konsistenti u għoli ta' protezzjoni tal-interessi pubbliċi fir-rigward tas-saħħa, is-sikurezza, u d-drittijiet fundamentali, jenħtieġ li jiġu stabbiliti regoli komuni għas-sistemi tal-IA b'riskju għoli. Jenħtieġ li dawk ir-regoli jkunu konsistenti mal-Karta, nondiskriminatorji u konformi mal-impenji kummerċjali internazzjonali tal-Unjoni. Jenħtieġ li jqisu wkoll id-Dikjarazzjoni Ewropea dwar id-Drittijiet u l-Prinċipji Diġitali għad-Deċennju Diġitali u l-Linji Gwida dwar l-Etika għal IA affidabbli tal-Grupp ta' Esperti ta' Livell Għoli dwar l-Intelliġenza Artifiċjali (AI HLEG).
(8)
Unijne ramy prawne określające zharmonizowane przepisy dotyczące AI są zatem niezbędne, by wspierać rozwój, wykorzystywanie i upowszechnianie AI na rynku wewnętrznym, przy jednoczesnym zapewnieniu wysokiego poziomu ochrony interesów publicznych, takich jak zdrowie i bezpieczeństwo oraz ochrona praw podstawowych, w tym demokracji, praworządności i ochrony środowiska, uznanych i chronionych przez prawo Unii. Aby osiągnąć ten cel, należy ustanowić przepisy regulujące wprowadzanie do obrotu, oddawanie do użytku i wykorzystywanie niektórych systemów AI, zapewniając w ten sposób sprawne funkcjonowanie rynku wewnętrznego i obejmując te systemy zasadą swobodnego przepływu towarów i usług. Przepisy te powinny być jasne i solidne, aby chronić prawa podstawowe, sprzyjać nowym innowacyjnym rozwiązaniom, umożliwiać tworzenie europejskiego ekosystemu podmiotów publicznych i prywatnych tworzących systemy AI zgodnie z wartościami Unii oraz pozwalać realizować potencjał transformacji cyfrowej we wszystkich regionach Unii. Ustanawiając te przepisy, a także środki wspierające innowacje, ze szczególnym uwzględnieniem małych i średnich przedsiębiorstw (MŚP), w tym przedsiębiorstw typu start-up, niniejsze rozporządzenie wspiera realizację celu, jakim jest promowanie europejskiego zorientowanego na człowieka podejścia do AI i znalezienie się przez Unię w światowej czołówce, jeśli chodzi o rozwój bezpiecznej, godnej zaufania i etycznej AI, zgodnie z konkluzjami Rady Europejskiej (5), oraz zapewnia ochronę zasad etycznych, zgodnie z wyraźnym wnioskiem Parlamentu Europejskiego (6).
(8)
Għalhekk, huwa meħtieġ qafas legali tal-Unjoni li jistabbilixxi regoli armonizzati dwar l-IA biex jitrawmu l-iżvilupp, l-użu u l-adozzjoni tal-IA fis-suq intern li fl-istess ħin jissodisfa livell għoli ta' protezzjoni tal-interessi pubbliċi, bħas-saħħa u s-sikurezza, u l-protezzjoni tad-drittijiet fundamentali, inkluż id-demokrazija, l-istat tad-dritt u l-protezzjoni ambjentali kif rikonoxxuti u mħarsa bil-liġi tal-Unjoni. Biex jintlaħaq dak l-objettiv, jenħtieġ jiġu stabbiliti regoli li jirregolaw l-introduzzjoni fis-suq, it-tqegħid fis-servizz u l-użu ta' ċerti sistemi tal-IA, u b'hekk ikun żgurat il-funzjonament bla xkiel tas-suq intern u dawk is-sistemi jkunu jistgħu jibbenefikaw mill-prinċipju tal-moviment liberu tal-prodotti u tas-servizzi. Jenħtieġ li dawk ir-regoli jkunu ċari u robusti fil-protezzjoni tad-drittijiet fundamentali, jappoġġaw soluzzjonijiet innovattivi ġodda, li jippermettu ekosistema Ewropea ta' atturi pubbliċi u privati li joħolqu sistemi tal-IA f'konformità mal-valuri tal-Unjoni u jisfruttaw il-potenzjal tat-trasformazzjoni diġitali fir-reġjuni kollha tal-Unjoni. Billi jistabbilixxi dawk ir-regoli kif ukoll miżuri b'appoġġ għall-innovazzjoni b'enfasi partikolari fuq l-intrapriżi mikro, żgħar u ta' daqs medju (SMEs), inkluż negozji ġodda, dan ir-Regolament jappoġġa l-objettiv li jiġi promoss l-approċċ Ewropew iċċentrat fuq il-bniedem għall-IA u li jkun mexxej globali fl-iżvilupp ta' IA sigura, affidabbli u etika kif iddikjarat mill-Kunsill Ewropew (5), u jiżgura l-protezzjoni tal-prinċipji etiċi, kif mitlub speċifikament mill-Parlament Ewropew (6).
(9)
Zharmonizowane przepisy mające zastosowanie do wprowadzania do obrotu, oddawania do użytku i wykorzystywania systemów AI wysokiego ryzyka należy ustanowić zgodnie z rozporządzeniem Parlamentu Europejskiego i Rady (WE) nr 765/2008 (7), decyzją Parlamentu Europejskiego i Rady nr 768/2008/WE (8) oraz rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2019/1020 (9) (zwanymi dalej „nowymi ramami prawnymi”). Zharmonizowane przepisy ustanowione w niniejszym rozporządzeniu powinny mieć zastosowanie we wszystkich sektorach i – zgodnie z nowymi ramami prawnymi – powinny pozostawać bez uszczerbku dla obowiązującego prawa Unii, w szczególności w zakresie ochrony danych, ochrony konsumentów, praw podstawowych, zatrudnienia i ochrony pracowników oraz bezpieczeństwa produktów, wobec którego to prawa niniejsze rozporządzenie ma charakter uzupełniający. W związku z tym wszystkie prawa i środki ochrony prawnej przysługujące na mocy prawa Unii konsumentom i innym osobom, na które systemy AI mogą mieć negatywny wpływ, w tym w odniesieniu do odszkodowania za ewentualne szkody zgodnie z dyrektywą Rady 85/374/EWG (10), pozostają nienaruszone i mają pełne zastosowanie. Ponadto w kontekście zatrudnienia i ochrony pracowników niniejsze rozporządzenie nie powinno zatem mieć wpływu na prawo Unii w dziedzinie polityki społecznej oraz na krajowe prawo pracy zgodne z prawem Unii dotyczące warunków zatrudnienia i pracy, w tym bezpieczeństwa i higieny pracy, oraz stosunków między pracodawcami a pracownikami. Niniejsze rozporządzenie nie powinno mieć też wpływu na korzystanie z praw podstawowych uznanych w państwach członkowskich i na poziomie Unii, w tym z prawa do strajku czy swobody prowadzenia strajku lub innych działań objętych szczególnymi systemami stosunków pracy w państwach członkowskich, ani na korzystanie z prawa do negocjowania, zawierania i egzekwowania układów zbiorowych lub podejmowania działań zbiorowych zgodnie z prawem krajowym. Niniejsze rozporządzenie nie powinno mieć wpływu na przepisy mające na celu poprawę warunków pracy świadczonej za pośrednictwem platform internetowych ustanowione w dyrektywie Parlamentu Europejskiego i Rady w sprawie poprawy warunków pracy za pośrednictwem platform internetowych. Ponadto niniejsze rozporządzenie ma na celu zwiększenie skuteczności takich istniejących praw i środków ochrony prawnej poprzez ustanowienie szczególnych wymogów i obowiązków, w tym w zakresie przejrzystości, dokumentacji technicznej i rejestrowania zdarzeń w ramach systemów AI. Co więcej obowiązki nałożone na mocy niniejszego rozporządzenia na różnych operatorów uczestniczących w łańcuchu wartości AI powinny mieć zastosowanie bez uszczerbku dla prawa krajowego zgodnego z prawem Unii, skutkującego ograniczeniem wykorzystania określonych systemów AI, gdy prawo to nie wchodzi w zakres stosowania niniejszego rozporządzenia lub służy uzasadnionym celom interesu publicznego innym niż cele niniejszego rozporządzenia. Na przykład niniejsze rozporządzenie nie powinno mieć wpływu na krajowe prawo pracy i przepisy dotyczące ochrony małoletnich, tj. osób poniżej 18. roku życia, uwzględniające komentarz ogólny nr 25 z 2021 r. w sprawie praw dziecka w środowisku cyfrowym zamieszczony w Konwencji ONZ o prawach dziecka, w zakresie w jakim prawo to i te przepisy nie dotyczą konkretnie systemów AI i służą innym uzasadnionym celom interesu publicznego.
(9)
Jenħtieġ li jiġu stabbiliti regoli armonizzati applikabbli għall-introduzzjoni fis-suq, għat-tqegħid fis-servizz u għall-użu tas-sistemi tal-IA b'riskju għoli b'mod konsistenti mar-Regolament (KE) Nru 765/2008 tal-Parlament Ewropew u tal-Kunsill (7), mad-Deċiżjoni Nru 768/2008/KE tal-Parlament Ewropew u tal-Kunsill (8) u mar-Regolament (UE) 2019/1020 tal-Parlament Ewropew u tal-Kunsill (9) (il-Qafas Leġiżlattiv Ġdid). Jenħtieġ li r-regoli armonizzati stabbiliti f'dan ir-Regolament japplikaw fis-setturi kollha u, f'konformità mal-Qafas Leġiżlattiv Ġdid, jenħtieġ li jkunu mingħajr preġudizzju għal-liġijiet eżistenti tal-Unjoni, b'mod partikolari dwar il-protezzjoni tad-data, il-protezzjoni tal-konsumatur, id-drittijiet fundamentali, l-impjiegi, il-protezzjoni tal-ħaddiema u s-sikurezza tal-prodotti, li dan ir-Regolament huwa komplementari għalihom. B'konsegwenza ta' dan, id-drittijiet u r-rimedji kollha previsti minn tali liġijiet tal-Unjoni għall-konsumaturi, u persuni oħra li fuqhom is-sistemi tal-IA jista' jkollhom impatt negattiv, inkluż fir-rigward tal-kumpens għal danni possibbli skont id-Direttiva tal-Kunsill 85/374/KEE (10) jibqgħu mhux affettwati u applikabbli bis-sħiħ. Barra minn hekk, fil-kuntest tal-impjiegi u l-protezzjoni tal-ħaddiema, jenħtieġ għalhekk li dan ir-Regolament ma jaffettwax il-liġi tal-Unjoni dwar il-politika soċjali u l-liġi nazzjonali tax-xogħol, f'konformità mal-liġi tal-Unjoni, fir-rigward tal-kundizzjonijiet tal-impjieg u tax-xogħol, inkluż is-saħħa u s-sikurezza fuq il-post tax-xogħol u r-relazzjoni bejn l-impjegaturi u l-ħaddiema. Jenħtieġ ukoll li dan ir-Regolament ma jaffettwax l-eżerċizzju tad-drittijiet fundamentali kif rikonoxxuti fl-Istati Membri u fil-livell tal-Unjoni, inkluż id-dritt jew il-libertà tal-istrajkjar jew li tittieħed azzjoni oħra koperta mis-sistemi speċifiċi ta' relazzjonijiet industrijali fl-Istati Membri kif ukoll id-dritt tan-negozjar, il-konklużjoni u l-infurzar ta' ftehimiet kollettivi jew id-dritt li tittieħed azzjoni kollettiva f'konformità mad-dritt nazzjonali. Jenħtieġ li dan ir-Regolament ma jaffettwax id-dispożizzjonijiet li għandhom l-għan li jtejbu l-kundizzjonijiet tax-xogħol fix-xogħol fuq il-pjattaformi stabbiliti f’ Direttiva tal-Parlament Ewropew u tal-Kunsill dwar it-titjib tal-kundizzjonijiet tax-xogħol fix-xogħol fuq il-pjattaformi. Barra minn hekk, dan ir-Regolament għandu l-għan li jsaħħaħ l-effettività ta' dawk id-drittijiet u r-rimedji eżistenti billi jistabbilixxi rekwiżiti u obbligi speċifiċi, inkluż fir-rigward tat-trasparenza, id-dokumentazzjoni teknika u ż-żamma tar-rekords tas-sistemi tal-IA. Jenħtieġ ukoll li l-obbligi imposti fuq diversi operaturi involuti fil-katina tal-valur tal-IA skont dan ir-Regolament japplikaw mingħajr preġudizzju għal-liġi nazzjonali, f'konformità mal-liġi tal-Unjoni, bl-effett li jillimitaw l-użu ta' ċerti sistemi tal-IA meta tali liġi taqa' barra mill-kamp ta' applikazzjoni ta' dan ir-Regolament jew tipprova tilħaq objettivi leġittimi ta' interess pubbliku għajr dawk segwiti minn dan ir-Regolament. Pereżempju, jenħtieġ li l-liġi nazzjonali tax-xogħol u l-liġi dwar il-protezzjoni tal-minorenni, jiġifieri persuni taħt l-età ta' 18-il sena, b'kont meħud tal-Kumment Ġenerali Nru 25 (2021) tal-UNCRC (Konvenzjoni tan-Nazzjonijiet Uniti dwar id-Drittijiet tat-Tfal) dwar id-drittijiet tat-tfal fir-rigward tal-ambjent diġitali, sakemm ma jkunux speċifiċi għas-sistemi tal-IA u jippruvaw jilħqu objettivi leġittimi oħra ta' interess pubbliku, ma jiġux affettwati minn dan ir-Regolament.
(10)
Podstawowe prawo do ochrony danych osobowych jest gwarantowane w szczególności przez rozporządzenia Parlamentu Europejskiego i Rady (UE) 2016/679 (11) i (UE) 2018/1725 (12) oraz dyrektywę Parlamentu Europejskiego i Rady (UE) 2016/680 (13). Dyrektywa Parlamentu Europejskiego i Rady 2002/58/WE (14) dodatkowo chroni życie prywatne i poufność komunikacji, w tym określając warunki dotyczące przechowywania danych osobowych i nieosobowych w urządzeniach końcowych oraz warunki uzyskiwania dostępu do tych danych z urządzeń końcowych. Te unijne akty prawne stanowią podstawę zrównoważonego i odpowiedzialnego przetwarzania danych, w tym w przypadku gdy zbiory danych zawierają połączenie danych osobowych i nieosobowych. Celem niniejszego rozporządzenia nie jest wpływanie na stosowanie obowiązującego prawa Unii regulującego przetwarzanie danych osobowych, w tym na zadania i uprawnienia niezależnych organów nadzoru właściwych do monitorowania zgodności z tymi instrumentami. W zakresie, w jakim projektowanie, rozwój lub wykorzystywanie systemów AI wiąże się z przetwarzaniem danych osobowych, niniejsze rozporządzenie nie wpływa też na wynikające z prawa Unii lub prawa krajowego obowiązki w dziedzinie ochrony danych osobowych spoczywające na dostawcach i podmiotach stosujących systemy AI, którzy pełnią funkcję administratorów danych lub podmiotów przetwarzających. Należy również wyjaśnić, że osoby, których dane dotyczą, zachowują wszystkie prawa i gwarancje przyznane im na mocy takiego prawa Unii, w tym prawa związane z całkowicie zautomatyzowanym podejmowaniem decyzji w indywidualnych sprawach, w tym z profilowaniem. Ustanowione w niniejszym rozporządzeniu zharmonizowane przepisy dotyczące wprowadzania do obrotu, oddawania do użytku i wykorzystywania systemów AI powinny ułatwiać skuteczne wdrażanie i umożliwiać korzystanie przez osoby, których dane dotyczą, z praw i innych środków ochrony prawnej zagwarantowanych na podstawie prawa Unii dotyczącego ochrony danych osobowych i innych praw podstawowych.
(10)
Id-dritt fundamentali għall-protezzjoni tad-data personali huwa salvagwardjat b'mod partikolari mir-Regolamenti (UE) 2016/679 (11) u (UE) 2018/1725 (12) tal-Parlament Ewropew u tal-Kunsill u d-Direttiva (UE) 2016/680 tal-Parlament Ewropew u tal-Kunsill (13). Barra minn hekk, id-Direttiva 2002/58/KE tal-Parlament Ewropew u tal-Kunsill (14) tipproteġi l-ħajja privata u l-kunfidenzjalità tal-komunikazzjoni, inkluż billi tipprovdi kundizzjonijiet għal kwalunkwe ħżin ta' data personali u mhux personali u l-aċċess fi u minn tagħmir terminali. Dawk l-atti legali tal-Unjoni jipprovdu l-bażi għall-ipproċessar tad-data sostenibbli u responsabbli, inkluż fejn is-settijiet ta' data jinkludu taħlita ta' data personali u mhux personali. Dan ir-Regolament ma għandux l-għan li jaffettwa l-applikazzjoni tal-liġijiet eżistenti tal-Unjoni li jirregolaw l-ipproċessar tad-data personali, inkluż il-kompiti u s-setgħat tal-awtoritajiet superviżorji indipendenti kompetenti biex jimmonitorjaw il-konformità ma' dawk l-istrumenti. Lanqas ma jaffettwa l-obbligi tal-fornituri u tal-implimentaturi tas-sistemi tal-IA fir-rwol tagħhom bħala kontrolluri jew proċessuri tad-data li jirriżultaw mil-liġi tal-Unjoni jew dik nazzjonali dwar il-protezzjoni tad-data personali sa fejn it-tfassil, l-iżvilupp jew l-użu tas-sistemi tal-IA jinvolvu l-ipproċessar ta' data personali. Huwa xieraq ukoll li jiġi ċċarat li s-suġġetti tad-data jkomplu jgawdu d-drittijiet u l-garanziji kollha mogħtija lilhom minn tali liġi tal-Unjoni, inkluż id-drittijiet relatati mat-teħid ta' deċiżjonijiet individwali awtomatizzati biss, inkluż it-tfassil tal-profili. Jenħtieġ li r-regoli armonizzati għall-introduzzjoni fis-suq, għat-tqegħid fis-servizz u għall-użu tas-sistemi tal-IA stabbiliti skont dan ir-Regolament jiffaċilitaw l-implimentazzjoni effettiva u jippermettu l-eżerċizzju tad-drittijiet tas-suġġetti tad-data u rimedji oħra garantiti skont il-liġi tal-Unjoni dwar il-protezzjoni tad-data personali u ta' drittijiet fundamentali oħra.
(11)
Niniejsze rozporządzenie powinno pozostawać bez uszczerbku dla przepisów dotyczących odpowiedzialności dostawców usług pośrednich, określonych w rozporządzeniu Parlamentu Europejskiego i Rady (UE) 2022/2065 (15).
(11)
Jenħtieġ li dan ir-Regolament ikun mingħajr preġudizzju għad-dispożizzjonijiet dwar ir-responsabbiltà tal-fornituri ta’ servizzi intermedjarji kif stipulat fir-Regolament (UE) 2022/2065 tal-Parlament Ewropew u tal-Kunsill (15).
(12)
Pojęcie „systemu AI” w niniejszym rozporządzeniu powinno być jasno zdefiniowane i ściśle powiązane z pracami organizacji międzynarodowych zajmujących się AI, aby zapewnić pewność prawa, ułatwiać międzynarodową konwergencję i szeroką akceptację, przy jednoczesnym zapewnieniu swobody umożliwiającej dostosowanie się do szybkiego rozwoju technologicznego w tej dziedzinie. Ponadto pojęcie to powinno opierać się na kluczowych cechach systemów AI, które odróżniają je od prostszych tradycyjnych systemów oprogramowania lub założeń programistycznych, i nie powinno obejmować systemów opartych na zasadach określonych wyłącznie przez osoby fizyczne w celu automatycznego wykonywania operacji. Jedną z kluczowych cech systemów AI jest ich zdolność do wnioskowania. Ta zdolność do wnioskowania odnosi się do procesu uzyskiwania wyników, takich jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne i wirtualne, oraz do zdolności systemów AI do tworzenia modeli lub algorytmów na podstawie informacji wejściowych lub danych. Techniki, które umożliwiają wnioskowanie podczas tworzenia systemu AI, obejmują mechanizmy uczenia maszynowego, które na podstawie danych uczą się, jak osiągnąć określone cele, oraz podejścia oparte na logice i wiedzy, które polegają na wnioskowaniu na podstawie zakodowanej wiedzy lub symbolicznego przedstawienia zadania, które należy rozwiązać. Zdolność systemu AI do wnioskowania wykracza poza podstawowe przetwarzanie danych w wyniku umożliwiania uczenia się, rozumowania lub modelowania. Termin „maszynowy” odnosi się do faktu, że systemy AI działają z wykorzystaniem maszyn. Odniesienie do wyraźnych lub dorozumianych celów podkreśla, że systemy AI mogą działać według jasno określonych lub dorozumianych celów. Cele systemu AI mogą różnić się od przeznaczenia systemu AI w określonym kontekście. Na potrzeby niniejszego rozporządzenia środowiska należy rozumieć jako konteksty, w których działają systemy AI, natomiast wyniki generowane przez system AI odzwierciedlają różne funkcje wykonywane przez systemy AI i obejmują predykcje, treści, zalecenia lub decyzje. Systemy AI są zaprojektowane tak, aby działały z różnym poziomem autonomii, co oznacza, że są w pewnym stopniu niezależne od zaangażowania ze strony człowieka i zdolne do działania bez interwencji człowieka. Zdolność adaptacji, jaką system AI może wykazać po jego wdrożeniu, odnosi się do zdolności do samouczenia się, która umożliwia zmianę systemu w czasie jego wykorzystywania. Systemy AI mogą być wykorzystywane jako samodzielne rozwiązania lub jako element produktu, niezależnie od tego, czy system jest fizycznie zintegrowany z produktem (wbudowany), czy też służy realizacji funkcji produktu, choć nie jest z nim zintegrowany (niewbudowany).
(12)
Jenħtieġ li l-kunċett ta' “sistema tal-IA” f'dan ir-Regolament jiġi ddefinit b'mod ċar u jenħtieġ li jiġi allinjat mill-qrib mal-ħidma tal-organizzazzjonijiet internazzjonali li jaħdmu fuq l-IA biex tiġi żgurata ċ-ċertezza legali, tiġi ffaċilitata l-konverġenza internazzjonali u l-aċċettazzjoni wiesgħa, filwaqt li tingħata l-flessibbiltà biex jiġu akkomodati l-iżviluppi teknoloġiċi rapidi f'dan il-qasam. Barra minn hekk, jenħtieġ li d-definizzjoni tkun ibbażata fuq karatteristiċi ewlenin tas-sistemi tal-IA li jiddistingwuh minn sistemi ta' software tjew approċċi ta' programmazzjoni tradizzjonali aktar sempliċi u jenħtieġ li ma jkoprix sistemi li huma bbażati fuq ir-regoli definiti biss minn persuni fiżiċi biex iwettqu operazzjonijiet b'mod awtomatiku. Karatteristika ewlenija tas-sistemi tal-IA hija l-kapaċità tagħhom li jinferixxu. Din il-kapaċità li jinferixxu tirreferi għall-proċess tal-kisba tal-outputs, bħal previżjonijiet, kontenut, rakkomandazzjonijiet, jew deċiżjonijiet, li jistgħu jinfluwenzaw l-ambjenti fiżiċi u virtwali u għal kapaċità tas-sistemi tal-IA li jidderivaw mudelli jew algoritmi, jew it-tnejn, minn inputs jew data. It-tekniki li jippermettu inferenza waqt li tinbena sistema tal-IA jinkludu approċċi ta' tagħlim awtomatiku li jitgħallmu mid-data dwar kif jistgħu jintlaħqu ċerti objettivi, u approċċi bbażati fuq il-loġika u l-għarfien li jinferixxu minn għarfien ikkodifikat jew rappreżentazzjoni simbolika tal-kompitu li għandu jiġi solvut. Il-kapaċità ta' sistema tal-IA li tinferixxi tmur lil hinn mill-ipproċessar bażiku tad-data billi tippermetti l-apprendiment, ir-raġunament jew l-immudellar. It-terminu “bbażati fuq il-magni” jirreferi għall-fatt li s-sistemi tal-IA jaħdmu bil-magni. Ir-referenza għal objettivi espliċiti jew impliċiti tenfasizza li s-sistemi tal-IA jistgħu joperaw skont objettivi espliċiti definiti jew skont objettivi impliċiti. L-objettivi tas-sistema tal-IA jistgħu jkunu differenti mill-għan maħsub tas-sistema tal-IA f'kuntest speċifiku. Għall-finijiet ta' dan ir-Regolament, jenħtieġ li l-ambjenti jinftiehmu bħala l-kuntesti li fihom joperaw is-sistemi tal-IA, filwaqt li l-outputs iġġenerati mis-sistema tal-IA jirriflettu funzjonijiet differenti mwettqa mis-sistemi tal-IA u jinkludu previżjonijiet, kontenut, rakkomandazzjonijiet jew deċiżjonijiet. Is-sistemi tal-IA huma ddisinjati biex joperaw b'livelli varji ta' awtonomija, li jfisser li għandhom ċertu livell ta' indipendenza tal-azzjonijiet mill-involviment tal-bniedem u ta' kapaċitajiet biex joperaw mingħajr intervent mill-bniedem. L-adattabbiltà li sistema tal-IA tista' turi wara l-implimentazzjoni tirreferi għall-kapaċitajiet ta' awtotagħlim, li jippermettu li s-sistema tinbidel waqt li tkun qed tintuża. Is-sistemi tal-IA jistgħu jintużaw b'mod awtonomu jew bħala komponent ta' prodott, irrispettivament minn jekk is-sistema tkunx integrata fiżikament fil-prodott (inkorporata) jew taqdix il-funzjonalità tal-prodott mingħajr ma tkun integrata fih (mhux inkorporata).
(13)
Pojęcie „podmiotu stosującego”, o którym mowa w niniejszym rozporządzeniu, należy interpretować jako osobę fizyczną lub prawną, w tym organ publiczny, agencję lub inny podmiot, która wykorzystuje system AI, nad którym sprawuje kontrolę, oprócz przypadków gdy wykorzystywanie systemu AI odbywa się w ramach osobistej działalności pozazawodowej. W zależności od rodzaju systemu AI korzystanie z takiego systemu może mieć wpływ na osoby inne niż podmiot stosujący.
(13)
Jenħtieġ li l-kunċett ta' “implimentatur” imsemmi f'dan ir-Regolament jiġi interpretat bħala kwalunkwe persuna fiżika jew ġuridika, inkluż awtorità pubblika, aġenzija jew korp ieħor, li tuża sistema tal-IA li taħt l-awtorità tagħha, ħlief meta s-sistema tal-IA tintuża matul attività personali mhux professjonali. Skont it-tip ta' sistema tal-IA, l-użu tas-sistema jista' jaffettwa persuni oħra minbarra l-implimentatur.
(14)
Pojęcie „danych biometrycznych” stosowane w niniejszym rozporządzeniu należy interpretować w świetle pojęcia danych biometrycznych zdefiniowanego w art. 4 pkt 14 rozporządzenia (UE) 2016/679, art. 3 pkt 18 rozporządzenia (UE) 2018/1725 i art. 3 pkt 13 dyrektywy (UE) 2016/680. Dane biometryczne mogą umożliwiać uwierzytelnianie, identyfikację lub kategoryzację osób fizycznych oraz rozpoznawanie emocji osób fizycznych.
(14)
Jenħtieġ li l-kunċett ta' “data bijometrika” użat f'dan ir-Regolament jiġi interpretat fid-dawl tal-kunċett ta' data bijometrika kif definit fl-Artikolu 4, il-punt (14) tar-Regolament (UE) 2016/679, l-Artikolu 3, il-punt (18) tar-Regolament (UE) 2018/1725 u l-Artikolu 3, il-punt (13) tad-Direttiva (UE) 2016/680. Id-data bijometrika tista' tippermetti l-awtentikazzjoni, l-identifikazzjoni jew il-kategorizzazzjoni ta' persuni fiżiċi u r-rikonoxximent tal-emozzjonijiet ta' persuni fiżiċi.
(15)
Pojęcie „identyfikacji biometrycznej”, o którym mowa w niniejszym rozporządzeniu, należy zdefiniować jako zautomatyzowane rozpoznawanie fizycznych, fizjologicznych i behawioralnych cech człowieka, takich jak twarz, ruch gałek ocznych, kształt ciała, głos, właściwości mowy, chód, postawa, tętno, ciśnienie krwi, zapach, sposób pisania na klawiaturze, w celu ustalenia tożsamości osoby fizycznej przez porównanie danych biometrycznych tej osoby z przechowywanymi w referencyjnej bazie danych danymi biometrycznymi osób fizycznych, niezależnie od tego, czy osoba ta wyraziła na to zgodę. Do tej kategorii nie należą systemy AI przeznaczone do weryfikacji biometrycznej, która obejmuje uwierzytelnianie, prowadzonej jedynie w celu potwierdzenia, że dana osoba fizyczna jest osobą, za którą się podaje, oraz potwierdzenia tożsamości osoby fizycznej wyłącznie w celu uzyskania dostępu do usługi, uruchomienia urządzenia lub uzyskania bezpiecznego dostępu do pomieszczeń.
(15)
Jenħtieġ li l-kunċett ta' “identifikazzjoni bijometrika” imsemmi f'dan ir-Regolament jiġi ddefinit bħala r-rikonoxximent awtomatizzat ta' karatteristiċi fiżiċi, fiżjoloġiċi u ta' mġiba tal-bniedem bħall-wiċċ, il-moviment tal-għajnejn, il-forma tal-ġisem, il-vuċi, il-prosodija, il-mixja, il-qagħda, ir-rata tal-qalb, il-pressjoni tad-demm, ir-riħa, karatteristiċi tal-ittastjar, għall-fini li tiġi stabbilita l-identità ta' individwu billi titqabbel id-data bijometrika ta' dak l-individwu mad-data bijometrika ta' individwi maħżuna f'bażi ta' data ta' referenza, irrispettivament minn jekk l-individwu jkunx ta l-kunsens tiegħu jew le. Dan jeskludi sistemi tal-IA maħsuba biex jintużaw għall-verifika bijometrika, li tinkludi l-awtentikazzjoni, li l-iskop uniku tagħha huwa li tikkonferma li persuna fiżika speċifika hija l-persuna li tiddikjara li hija u li tikkonferma l-identità ta' persuna fiżika għall-iskop uniku li jkollha aċċess għal servizz, li tiftaħ apparat jew li jkollha aċċess sigur għall-bini.
(16)
Pojęcie „kategoryzacji biometrycznej”, o którym mowa w niniejszym rozporządzeniu, należy zdefiniować jako przypisywanie osób fizycznych do określonych kategorii na podstawie danych biometrycznych tych osób. Takie szczególne kategorie mogą odnosić się do takich aspektów jak płeć, wiek, kolor włosów, kolor oczu, tatuaże, cechy behawioralne bądź osobowości, język, religia, przynależność do mniejszości narodowej, orientacja seksualna lub poglądy polityczne. Nie obejmuje to systemów kategoryzacji biometrycznej, które pełnią jedynie funkcję pomocniczą nieodłącznie związaną z inną usługą komercyjną, co oznacza, że z obiektywnych względów technicznych funkcja ta nie może być wykorzystywana bez usługi głównej, a włączenie takiej funkcji lub funkcjonalności nie jest sposobem na obejście stosowania przepisów niniejszego rozporządzenia. Przykładem pełnienia takiej funkcji pomocniczej mogą być filtry klasyfikujące cechy twarzy lub ciała wykorzystywane na internetowych platformach handlowych, ponieważ można je stosować wyłącznie w powiązaniu z usługą główną, która polega na sprzedaży produktu przy jednoczesnym umożliwieniu konsumentowi uzyskania wyobrażenia, jak produkt będzie się na nim prezentował, aby pomóc mu w podjęciu decyzji o zakupie. Filtry stosowane w internetowych serwisach społecznościowych, które kategoryzują cechy twarzy lub ciała, aby umożliwić użytkownikom dodawanie lub modyfikowanie zdjęć lub filmów wideo, można również uznać za funkcję pomocniczą, ponieważ filtry takie nie mogą być stosowane bez usługi głównej polegającej na udostępnianiu treści online w ramach serwisu społecznościowego.
(16)
Jenħtieġ li l-kunċett ta' “kategorizzazzjoni bijometrika” msemmi f'dan ir-Regolament jiġi ddefinit bħala l-assenjazzjoni ta' persuni fiżiċi għal kategoriji speċifiċi abbażi tad-data bijometrika tagħhom. Tali kategoriji speċifiċi jistgħu jkunu relatati ma' aspetti bħas-sess, l-età, il-kulur tax-xagħar, il-kulur tal-għajnejn, it-tatwaġġi, il-karatteristiċi tal-imġiba jew tal-personalità, il-lingwa, ir-reliġjon, l-appartenenza għal minoranza nazzjonali, l-orjentazzjoni sesswali jew dik politika. Dan ma jinkludix sistemi ta' kategorizzazzjoni bijometrika li huma karatteristika purament anċillari intrinsikament marbuta ma' servizz kummerċjali ieħor, li jfisser li l-karatteristika ma tistax, għal raġunijiet tekniċi oġġettivi, tintuża mingħajr is-servizz prinċipali, u l-integrazzjoni ta' dik il-karatteristika jew funzjonalità mhijiex mezz biex tiġi evitata l-applikabbiltà tar-regoli ta' dan ir-Regolament. Pereżempju, il-filtri li jikkategorizzaw il-karatteristiċi tal-wiċċ jew tal-ġisem użati fis-swieq online jistgħu jikkostitwixxu karatteristika anċillari bħal din peress li jistgħu jintużaw biss fir-rigward tas-servizz prinċipali li jikkonsisti fil-bejgħ ta' prodott billi jippermettu lill-konsumatur jara minn qabel kif jidher il-prodott fuqu nnifsu u jgħin lill-konsumatur jieħu deċiżjoni dwar ix-xiri. Il-filtri użati fuq servizzi ta' network soċjali online li jikkategorizzaw karatteristiċi tal-wiċċ jew tal-ġisem biex jippermettu lill-utenti jżidu jew jimmodifikaw stampi jew vidjos jistgħu jitqiesu wkoll bħala karatteristika anċillari peress li tali filtru ma jistax jintuża mingħajr is-servizz prinċipali tas-servizzi tan-network soċjali li jikkonsisti fil-kondiviżjoni tal-kontenut online.
(17)
Pojęcie „systemu zdalnej identyfikacji biometrycznej”, o którym mowa w niniejszym rozporządzeniu, należy zdefiniować funkcjonalnie jako system AI służący do identyfikacji osób fizycznych bez aktywnego udziału tych osób, co do zasady na odległość, poprzez porównanie danych biometrycznych danej osoby z danymi biometrycznymi zawartymi w referencyjnej bazie danych, niezależnie od konkretnej stosowanej technologii oraz konkretnych wykorzystywanych procesów lub rodzajów danych biometrycznych. Takie systemy zdalnej identyfikacji biometrycznej są zwykle wykorzystywane do jednoczesnego obserwowania wielu osób lub ich zachowania w celu znacznego ułatwienia identyfikacji osób fizycznych bez ich aktywnego udziału. Do tej kategorii nie należą systemy AI przeznaczone do weryfikacji biometrycznej, która obejmuje uwierzytelnianie, prowadzonej jedynie w celu potwierdzenia, że dana osoba fizyczna jest osobą, za którą się podaje, oraz potwierdzenia tożsamości osoby fizycznej wyłącznie w celu uzyskania dostępu do usługi, uruchomienia urządzenia lub uzyskania bezpiecznego dostępu do pomieszczeń. Wyłączenie to jest uzasadnione faktem, że takie systemy w niewielkim stopniu mogą wpływać na prawa podstawowe osób fizycznych w porównaniu z systemami zdalnej identyfikacji biometrycznej, które mogą być wykorzystywane do przetwarzania danych biometrycznych dużej liczby osób bez ich aktywnego udziału. W przypadku systemów działających „w czasie rzeczywistym” zbieranie danych biometrycznych, porównanie i identyfikacja następują natychmiast, niemal natychmiast lub w każdym razie bez znacznego opóźnienia. W związku z tym nie powinno być możliwości obchodzenia przepisów niniejszego rozporządzenia dotyczących stosowania systemów AI „w czasie rzeczywistym” poprzez wprowadzanie niewielkich opóźnień. Systemy identyfikacji „w czasie rzeczywistym” obejmują wykorzystanie materiału rejestrowanego „na żywo” lub „niemal na żywo”, takiego jak materiał wideo generowany przez kamerę lub inne urządzenie o podobnej funkcjonalności. Natomiast w przypadku systemów identyfikacji post factum dane biometryczne zostały już zebrane, a porównanie i identyfikacja następują ze znacznym opóźnieniem. Dotyczy to materiałów, takich jak zdjęcia lub materiały wideo generowane przez kamery telewizji przemysłowej lub urządzenia prywatne, które to materiały zostały wygenerowane, zanim użyto systemu identyfikacji w stosunku do danej osoby fizycznej.
(17)
Jenħtieġ li l-kunċett ta' “sistema ta' identifikazzjoni bijometrika remota” msemmi f'dan ir-Regolament jiġi ddefinit b'mod funzjonali, bħala sistema tal-IA maħsuba għall-identifikazzjoni ta' persuni fiżiċi mingħajr l-involviment attiv tagħhom, tipikament mill-bogħod, permezz tat-tqabbil tad-data bijometrika ta' persuna mad-data bijometrika li tinsab f'bażi ta' data ta' referenza, irrispettivament mit-teknoloġija, mill-proċessi jew mit-tipi partikolari ta' data bijometrika użati. Tali sistemi ta’ identifikazzjoni bijometrika remota tipikament jintużaw biex jipperċepixxu diversi persuni jew l-imġiba tagħhom simultanjament sabiex jiffaċilitaw b'mod sinifikanti l-identifikazzjoni ta' persuni fiżiċi mingħajr l-involviment attiv tagħhom. Dan jeskludi sistemi tal-IA maħsuba biex jintużaw għall-verifika bijometrika, li tinkludi l-awtentikazzjoni, li l-iskop uniku tagħha huwa li tikkonferma li persuna fiżika speċifika hija l-persuna li tiddikjara li hija u li tikkonferma l-identità ta' persuna fiżika għall-iskop uniku li jkollha aċċess għal servizz, li tiftaħ apparat jew li jkollha aċċess sigur għall-bini. Dik l-esklużjoni hija ġġustifikata mill-fatt li tali sistemi x'aktarx ikollhom impatt minuri fuq id-drittijiet fundamentali ta' persuni fiżiċi meta mqabbla mas-sistemi ta’ identifikazzjoni bijometrika remota li jistgħu jintużaw għall-ipproċessar tad-data bijometrika ta' għadd kbir ta' persuni mingħajr l-involviment attiv tagħhom. Fil-każ ta' sistemi “fil-ħin reali”, il-qbid tad-data bijometrika, it-tqabbil u l-identifikazzjoni jsiru b'mod istantanju, kważi istantanju jew fi kwalunkwe każ mingħajr dewmien sinifikanti. F'dan ir-rigward, jenħtieġ li ma jkun hemm l-ebda lok li jiġu evitati r-regoli ta' dan ir-Regolament dwar l-użu “fil-ħin reali” tas-sistemi tal-IA kkonċernati billi jiġi previst xi dewmien żgħir. Is-sistemi “fil-ħin reali” jinvolvu l-użu ta' materjal “dirett” jew “kważi dirett”, bħal filmat, iġġenerat minn kamera jew minn apparat ieħor b'funzjonalità simili. Għall-kuntrarju, fil-każ tas-sistemi “f'ħin aktar tard”, id-data bijometrika tkun diġà nkisbet u t-tqabbil u l-identifikazzjoni jsiru biss wara ċertu dewmien sinifikanti. Dan jinvolvi materjal, bħal stampi jew filmati ġġenerati minn kameras tat-televiżjoni b'ċirkwit magħluq jew minn apparati privati, li jkun ġie ġġenerat qabel tkun intużat is-sistema fir-rigward tal-persuni fiżiċi kkonċernati.
(18)
Pojęcie „systemu rozpoznawania emocji”, o którym mowa w niniejszym rozporządzeniu, należy zdefiniować jako system AI służący do rozpoznawania emocji lub zamiarów osób fizycznych na podstawie danych biometrycznych tych osób, lub wyciągania wniosków odnośnie do tych emocji lub zamiarów. Pojęcie to dotyczy emocji lub zamiarów, takich jak radość, smutek, złość, zdziwienie, obrzydzenie, zakłopotanie, podekscytowanie, wstyd, pogarda, satysfakcja i rozbawienie. Nie obejmuje ono stanów fizycznych, takich jak ból lub zmęczenie; w tym na przykład systemów stosowanych do wykrywania poziomu zmęczenia zawodowych pilotów lub kierowców w celu zapobiegania wypadkom. Nie obejmuje ono również samego wykrywania łatwych do zauważenia form wyrazu, gestów lub ruchów, chyba że wykorzystuje się je do identyfikacji lub wnioskowania na temat emocji. Te formy wyrazu mogą obejmować podstawowe rodzaje wyrazu twarzy, takie jak grymas lub uśmiech, gesty, takie jak ruch rąk, ramion lub głowy, lub cechy głosu danej osoby, takie jak podniesiony ton lub szept.
(18)
Jenħtieġ li l-kunċett ta' “sistema ta' rikonoxximent tal-emozzjonijiet” imsemmi f'dan ir-Regolament jiġi ddefinit bħala sistema tal-IA għall-fini tal-identifikazzjoni jew l-inferenza ta' emozzjonijiet jew intenzjonijiet ta' persuni fiżiċi abbażi tad-data bijometrika tagħhom. Il-kunċett jirreferi għal emozzjonijiet jew intenzjonijiet bħal kuntentizza, diqa, rabja, sorpriża, disgust, imbarazzament, eċċitament, mistħija, disprezz, sodisfazzjon u divertiment. Ma jinkludix stati fiżiċi, bħal uġigħ jew għeja, inkluż, pereżempju, sistemi użati biex jiġi identifikat l-istat tal-għeja tal-bdoti professjonali jew tas-sewwieqa bl-għan li jiġu evitati l-aċċidenti. Dan lanqas ma jinkludi s-sempliċi kxif ta' espressjonijiet, ġesti jew movimenti faċilment apparenti, sakemm ma jintużawx biex jidentifikaw jew jinferixxu emozzjonijiet. Dawk l-espressjonijiet jistgħu jkunu espressjonijiet bażiċi tal-wiċċ bħal ħarsa bl-ikrah jew tbissima, jew ġesti bħall-moviment tal-idejn, dirgħajn jew ras, jew karatteristiċi tal-vuċi ta' persuna, bħal vuċi mgħollija jew minn taħt l-ilsien.
(19)
Do celów niniejszego rozporządzenia pojęcie „przestrzeni publicznej” należy rozumieć jako odnoszące się do każdej przestrzeni fizycznej, która jest dostępna dla nieokreślonej liczby osób fizycznych, niezależnie od tego, czy dana przestrzeń jest własnością prywatną czy publiczną, a także niezależnie od rodzaju działalności, dla której się ją wykorzystuje, takiej jak działalność handlowa (na przykład sklepy, restauracje, kawiarnie), działalność usługowa (na przykład banki, działalność zawodowa, hotelarstwo), działalność sportowa (na przykład baseny, sale do ćwiczeń, stadiony), działalność transportowa (na przykład dworce autobusowe i kolejowe, stacje metra, lotniska, środki transportu), działalność rozrywkowa (na przykład kina, teatry, muzea, sale koncertowe i konferencyjne) lub przestrzenie służące wypoczynkowi lub innym celom (na przykład drogi publiczne i place, parki, lasy i place zabaw). Przestrzeń należy uznać za przestrzeń publiczną również wtedy, gdy niezależnie od potencjalnych ograniczeń w zakresie pojemności lub bezpieczeństwa, dostęp do niej podlega pewnym określonym z góry warunkom, które mogą zostać spełnione przez nieokreśloną liczbę osób, takich jak zakup biletu wstępu lub biletu na przejazd, uprzednia rejestracja lub osiągnięcie określonego wieku. Danej przestrzeni nie należy natomiast uznawać za przestrzeń publiczną, jeśli dostęp do niej ograniczony jest do konkretnych i określonych osób fizycznych na mocy prawa Unii lub prawa krajowego bezpośrednio związanego z bezpieczeństwem publicznym lub ochroną publiczną lub w wyniku wyraźnego wyrażenia woli przez osobę posiadającą odpowiednie uprawnienia związane z taką przestrzenią. Faktyczna możliwość samego dostępu (taka jak niezamknięte drzwi, otwarta bramka w ogrodzeniu) nie oznacza, że dana przestrzeń stanowi przestrzeń publiczną, jeśli istnieją wskazania lub okoliczności sugerujące inaczej (takie jak znaki zakazujące dostępu lub go ograniczające). Tereny przedsiębiorstw i fabryk, a także biura i miejsca pracy, do których dostęp powinni mieć wyłącznie odpowiedni pracownicy i usługodawcy, to przestrzenie, które nie stanowią przestrzeni publicznej. Do przestrzeni publicznej nie zaliczają się więzienia ani strefy kontroli granicznej. Niektóre przestrzenie mogą zawierać zarówno przestrzenie publiczne, jak i niepubliczne, takie jak hol w prywatnym budynku mieszkalnym prowadzący do gabinetu lekarskiego lub lotnisko. Przestrzenie internetowe również nie są objęte tym pojęciem, ponieważ nie są to przestrzenie fizyczne. To, czy dana przestrzeń jest dostępna publicznie, powinno być jednak ustalane indywidualnie w każdym przypadku, z uwzględnieniem specyfiki danej sytuacji.
(19)
Għall-finijiet ta' dan ir-Regolament, jenħtieġ li l-kunċett ta' spazju aċċessibbli għall-pubbliku jinftiehem bħala li jirreferi għal kwalunkwe spazju fiżiku li huwa aċċessibbli għal għadd mhux determinat ta' persuni fiżiċi, u irrispettivament minn jekk l-ispazju inkwistjoni huwiex ta' sjieda privata jew pubblika, irrispettivament mill-attività li għaliha jista' jintuża l-ispazju, bħall-kummerċ, pereżempju, ħwienet, ristoranti, kafetteriji; bħas-servizzi, pereżempju, banek, attivitajiet professjonali, ospitalità; bħas-sport, pereżempju, pixxini, gyms, stadiums; bħat-trasport, pereżempju, stazzjonijiet tal-karozzi tal-linja, tal-metro u tal-ferrovija, ajruporti, mezzi tat-trasport; bħad-divertiment, pereżempju, ċinema, teatri, mużewijiet, swali tal-kunċerti u tal-konferenzi; jew bħar-ikreazzjoni jew mod ieħor, pereżempju, toroq pubbliċi u pjazez, parks, foresti, playgrounds. Jenħtieġ li spazju jiġi kklassifikat bħala aċċessibbli għall-pubbliku anki jekk, irrispettivament mir-restrizzjonijiet potenzjali tal-kapaċità jew tas-sigurtà, l-aċċess ikun soġġett għal ċerti kundizzjonijiet predeterminati li jistgħu jiġu ssodisfati minn għadd mhux determinat ta' persuni, bħax-xiri ta' biljett jew titolu tat-trasport, reġistrazzjoni minn qabel jew li persuna jkollha ċerta età. B'kuntrast ma' dan, jenħtieġ li spazju ma jitqiesx li jkun aċċessibbli għall-pubbliku jekk l-aċċess ikun limitat għal persuni fiżiċi speċifiċi u definiti permezz ta' liġijiet tal-Unjoni jew nazzjonali direttament relatati mas-sikurezza jew is-sigurtà pubblika jew permezz tal-manifestazzjoni ċara tar-rieda mill-persuna li jkollha l-awtorità rilevanti fuq il-post. Il-possibbiltà fattwali ta' aċċess waħedha, bħal bieb mhux imsakkar jew xatba miftuħa f'ċint, ma tfissirx li l-ispazju huwa aċċessibbli għall-pubbliku fil-preżenza ta' indikazzjonijiet jew ċirkostanzi li jissuġġerixxu l-kuntrarju, bħal sinjali li jipprojbixxu jew jirrestrinġu l-aċċess. Il-bini ta' kumpaniji u fabbriki, kif ukoll l-uffiċċji u l-postijiet tax-xogħol li huma maħsuba biex jiġu aċċessati biss mill-impjegati u l-fornituri tas-servizzi rilevanti, huma spazji li mhumiex aċċessibbli għall-pubbliku. Jenħtieġ li l-ispazji aċċessibbli għall-pubbliku ma jinkludux ħabsijiet jew kontroll fil-fruntieri. Xi spazji oħra jistgħu jinkludu spazji mhux aċċessibbli għall-pubbliku kif ukoll spazji aċċessibbli għall-pubbliku, bħall-entrata ta' bini residenzjali privat meħtieġa biex jinkiseb aċċess għal uffiċċju ta' tabib jew ajruport. L-ispazji online ma humiex koperti għax dawn mhumiex spazji fiżiċi. Jekk spazju partikolari jkunx aċċessibbli għall-pubbliku jenħtieġ, madankollu, jiġi determinat abbażi ta' każ b'każ, filwaqt li jitqiesu l-ispeċifiċitajiet tas-sitwazzjoni individwali inkwistjoni.
(20)
Dostawców, podmioty stosujące i osoby, na które AI ma wpływ, należy wyposażyć w niezbędne kompetencje w zakresie AI umożliwiające im podejmowanie świadomych decyzji w odniesieniu do systemów AI, co pozwoli czerpać największe korzyści z systemów AI, a jednocześnie chronić prawa podstawowe, zdrowie i bezpieczeństwo oraz sprawować kontrolę demokratyczną. Kompetencje te mogą różnić się w zależności od danego kontekstu i mogą obejmować rozumienie prawidłowego stosowania elementów technicznych na etapie rozwoju systemu AI, rozumienie środków, które mają być stosowane podczas jego wykorzystywania, odpowiednich sposobów interpretacji wyników działania systemu AI oraz, w przypadku osób, na które AI ma wpływ – wiedzę niezbędną do zrozumienia, jaki wpływ będą miały na nie decyzje podejmowane przy pomocy AI. W kontekście stosowania niniejszego rozporządzenia kompetencje w zakresie AI powinny oznaczać, że wszystkie odpowiednie podmioty w łańcuchu wartości AI będą posiadać wiedzę konieczną do zapewnienia odpowiedniej zgodności z przepisami niniejszego rozporządzenia i ich prawidłowego egzekwowania. Ponadto szerokie wdrażanie środków rozwijających kompetencje w zakresie AI oraz wprowadzanie odpowiednich działań następczych mogłyby przyczynić się do poprawy warunków pracy, a w ostatecznym rozrachunku wsparłyby konsolidację i innowacyjną ścieżkę godnej zaufania AI w Unii. Europejska Rada ds. Sztucznej Inteligencji (zwana dalej „Radą ds. AI”) powinna wspierać Komisję w promowaniu narzędzi rozwijających kompetencje w zakresie AI, świadomości społecznej oraz zrozumienia korzyści, ryzyka, zabezpieczeń, praw i obowiązków związanych z wykorzystaniem systemów AI. We współpracy z odpowiednimi zainteresowanymi stronami Komisja i państwa członkowskie powinny ułatwiać opracowywanie dobrowolnych kodeksów postępowania w celu podnoszenia kompetencji w zakresie AI wśród osób zajmujących się rozwojem, działaniem i wykorzystywaniem AI.
(20)
Biex jinkisbu l-akbar benefiċċji mis-sistemi tal-IA filwaqt li jiġu protetti d-drittijiet fundamentali, is-saħħa u s-sikurezza u biex ikun jista' jsir kontroll demokratiku, jenħtieġ li l-litteriżmu fl-IA jgħammar lill-fornituri, lill-implimentaturi u lill-persuni affettwati bil-kunċetti meħtieġa biex jieħdu deċiżjonijiet infurmati dwar is-sistemi tal-IA. Dawk il-kunċetti jistgħu jvarjaw fir-rigward tal-kuntest rilevanti u jistgħu jinkludu l-fehim tal-applikazzjoni korretta tal-elementi tekniċi matul il-fażi tal-iżvilupp tas-sistema tal-IA, il-miżuri li għandhom jiġu applikati waqt l-użu tagħha, il-modi xierqa li bihom jiġi interpretat l-output tas-sistema tal-IA, u, fil-każ tal-persuni affettwati, l-għarfien meħtieġ biex jifhmu kif id-deċiżjonijiet meħuda bl-assistenza tal-IA ser ikollhom impatt fuqhom. Fil-kuntest tal-applikazzjoni ta' dan ir-Regolament, jenħtieġ li l-litteriżmu fl-IA jipprovdi lill-atturi rilevanti kollha fil-katina tal-valur tal-IA bl-għarfien meħtieġ biex tiġi żgurata l-konformità xierqa u l-infurzar korrett tiegħu. Barra minn hekk, l-implimentazzjoni wiesgħa ta' miżuri ta' litteriżmu fl-IA u l-introduzzjoni ta' azzjonijiet ta' segwitu xierqa jistgħu jikkontribwixxu għat-titjib tal-kundizzjonijiet tax-xogħol u fl-aħħar mill-aħħar isostnu l-konsolidazzjoni, u l-perkors tal-innovazzjoni ta' IA affidabbli fl-Unjoni. Jenħtieġ li l-Bord Ewropew għall-Intelliġenza Artifiċjali (“il-Bord”) jappoġġa lill-Kummissjoni fil-promozzjoni tal-għodod tal-litteriżmu fl-IA, is-sensibilizzazzjoni u l-fehim tal-pubbliku dwar il-benefiċċji, ir-riskji, is-salvagwardji, id-drittijiet u l-obbligi fir-rigward tal-użu ta' sistemi tal-IA. F'kooperazzjoni mal-partijiet ikkonċernati rilevanti, jenħtieġ li l-Kummissjoni u l-Istati Membri jiffaċilitaw it-tfassil ta' kodiċijiet ta' kondotta volontarji biex javvanzaw il-litteriżmu fl-IA fost il-persuni li jittrattaw l-iżvilupp, it-tħaddim u l-użu tal-IA.
(21)
W celu zapewnienia równych szans oraz skutecznej ochrony praw i wolności osób fizycznych w całej Unii przepisy ustanowione niniejszym rozporządzeniem powinny mieć zastosowanie do dostawców systemów AI w sposób niedyskryminacyjny, niezależnie od tego, czy mają oni siedzibę w Unii, czy w państwie trzecim, oraz do podmiotów stosujących systemy AI mających siedzibę w Unii.
(21)
Biex ikunu żgurati kundizzjonijiet ekwi u protezzjoni effettiva tad-drittijiet u tal-libertajiet tal-individwi madwar l-Unjoni, jenħtieġ li r-regoli stabbiliti b'dan ir-Regolament japplikaw għall-fornituri tas-sistemi tal-IA b'mod mhux diskriminatorju, irrispettivament minn jekk humiex stabbiliti fl-Unjoni jew f'pajjiż terz, u għall-implimentaturi tas-sistemi tal-IA stabbiliti fl-Unjoni.
(22)
Ze względu na swój cyfrowy charakter niektóre systemy AI powinny zostać objęte zakresem stosowania niniejszego rozporządzenia, nawet jeśli nie zostały wprowadzane do obrotu, oddane do użytku ani są wykorzystywane w Unii. Dotyczy to na przykład operatora mającego siedzibę w Unii, który zleca operatorowi mającemu siedzibę w państwie trzecim określone usługi w związku z działaniem, które ma być wykonywane przez system AI, który zostałby zakwalifikowany jako system wysokiego ryzyka. W takich okolicznościach system AI wykorzystywany w państwie trzecim przez operatora mógłby przetwarzać dane, które legalnie zgromadzono w Unii i przekazano poza Unię, oraz przekazywać zlecającemu operatorowi z Unii wynik przetwarzania tych danych przez system AI, natomiast sam system AI nie byłby wprowadzony do obrotu lub oddany do użytku w Unii ani nie byłby w Unii wykorzystywany. Aby zapobiec obchodzeniu przepisów niniejszego rozporządzenia oraz zapewnić skuteczną ochronę osób fizycznych znajdujących się w Unii, niniejsze rozporządzenie powinno mieć również zastosowanie do dostawców i podmiotów stosujących systemy AI, którzy mają siedzibę lub miejsce zamieszkania w państwie trzecim, w zakresie, w jakim wyniki wytworzone przez te systemy są przeznaczone do wykorzystywania w Unii. Aby uwzględnić jednak istniejące ustalenia i szczególne potrzeby w zakresie przyszłej współpracy z partnerami zagranicznymi, z którymi wymienia się informacje i dowody, niniejszego rozporządzenia nie powinno się stosować do organów publicznych państwa trzeciego i organizacji międzynarodowych działających w ramach współpracy lub na mocy zawartych na poziomie Unii lub poziomie krajowym umów międzynarodowych o współpracy organów ścigania i wymiarów sprawiedliwości z Unią lub państwami członkowskimi, pod warunkiem zapewnienia przez to państwo trzecie lub organizację międzynarodową odpowiednich zabezpieczeń w odniesieniu do ochrony podstawowych praw i wolności osób fizycznych. W stosownych przypadkach może to obejmować działania podmiotów, którym państwa trzecie powierzyły wykonywanie szczególnych zadań w ramach wsparcia ścigania przestępstw i współpracy wymiarów sprawiedliwości. Takie ramy współpracy lub umowy zostały ustanowione dwustronnie między państwami członkowskimi a państwami trzecimi lub między Unią Europejską, Europolem i innymi agencjami Unii a państwami trzecimi i organizacjami międzynarodowymi. Organy właściwe do sprawowania nadzoru nad organami ścigania i organami wymiaru sprawiedliwości na mocy niniejszego rozporządzenia powinny ocenić, czy te ramy współpracy lub umowy międzynarodowe zawierają odpowiednie zabezpieczenia w odniesieniu do ochrony podstawowych praw i wolności osób fizycznych. Będące odbiorcami organy krajowe oraz instytucje, organy i jednostki organizacyjne Unii korzystające z takich wyników w Unii pozostają odpowiedzialne za zapewnienie zgodności ich stosowania z prawem Unii. W przypadku zmiany takich umów międzynarodowych lub zawarcia nowych w przyszłości umawiające się strony powinny dołożyć wszelkich starań, by dostosować takie umowy do wymogów niniejszego rozporządzenia.
(22)
Fid-dawl tan-natura diġitali tagħhom, jenħtieġ li ċerti sistemi tal-IA jkunu fil-kamp ta' applikazzjoni ta' dan ir-Regolament anki meta ma jiġux introdotti fis-suq, ma jitqiegħdux fis-servizz, u ma jintużawx fl-Unjoni. Pereżempju, dan hu l-każ fejn operatur stabbilit fl-Unjoni jikkuntratta ċerti servizzi lil operatur stabbilit f'pajjiż terz fir-rigward ta' attività li tkun ser titwettaq minn sistema tal-IA u li tikkwalifika bħala b'riskju għoli. F'dawk iċ-ċirkostanzi, is-sistema tal-IA użata f'pajjiż terz mill-operatur tista' tipproċessa d-data miġbura legalment fl-Unjoni u trasferita minnha, u tipprovdi lill-operatur kontraenti fl-Unjoni l-output ta' dik is-sistema tal-IA li jirriżulta minn dak l-ipproċessar, mingħajr ma dik is-sistema tal-IA tiġi introdotta fis-suq, titqiegħed fis-servizz jew tintuża fl-Unjoni. Biex tiġi evitata ċ-ċirkumvenzjoni ta' dan ir-Regolament u biex tiġi żgurata protezzjoni effettiva tal-persuni fiżiċi li jinsabu fl-Unjoni, jenħtieġ li dan ir-Regolament japplika wkoll għall-fornituri u għall-implimentaturi tas-sistemi tal-IA li huma stabbiliti f'pajjiż terz, sa fejn l-output prodott minn dawk is-sistemi ikun maħsub biex jintuża fl-Unjoni. Madankollu, biex jitqiesu l-arranġamenti eżistenti u l-ħtiġijiet speċjali għall-kooperazzjoni futura mas-sħab barranin li magħhom jiġu skambjati informazzjoni u evidenza, jenħtieġ li dan ir-Regolament ma japplikax għall-awtoritajiet pubbliċi ta' pajjiż terz u għal organizzazzjonijiet internazzjonali meta jaġixxu fil-qafas ta' kooperazzjoni jew ta' ftehimiet internazzjonali konklużi fil-livell tal-Unjoni jew nazzjonali għall-infurzar tal-liġi u għall-kooperazzjoni ġudizzjarja mal-Unjoni jew mal-Istati Membri, dment li l-pajjiż terz jew l-organizzazzjoni internazzjonali rilevanti jipprovdu salvagwardji adegwati fir-rigward tal-protezzjoni tad-drittijiet u l-libertajiet fundamentali tal-individwi. Fejn rilevanti, dan jista' jkopri attivitajiet ta' entitajiet fdati mill-pajjiżi terzi biex iwettqu kompiti speċifiċi b'appoġġ għal tali infurzar tal-liġi u kooperazzjoni ġudizzjarja. Tali qafas għall-kooperazzjoni jew ftehimiet ġew stabbiliti b'mod bilaterali bejn l-Istati Membri u pajjiżi terzi jew bejn l-Unjoni Ewropea, il-Europol u aġenziji oħra tal-Unjoni u pajjiżi terzi u organizzazzjonijiet internazzjonali. Jenħtieġ li l-awtoritajiet kompetenti għas-superviżjoni tal-awtoritajiet tal-infurzar tal-liġi u dawk ġudizzjarji skont dan ir-Regolament jivvalutaw jekk dawk l-oqfsa għall-kooperazzjoni jew il-ftehimiet internazzjonali jinkludux salvagwardji adegwati fir-rigward tal-protezzjoni tad-drittijiet u l-libertajiet fundamentali tal-individwi. L-awtoritajiet nazzjonali riċevituri u l-istituzzjonijiet, il-korpi, l-uffiċċji u l-aġenziji tal-Unjoni li jagħmlu użu minn tali outputs fl-Unjoni jibqgħu responsabbli biex jiżguraw li l-użu tagħhom jikkonforma mal-liġi tal-Unjoni. Meta dawk il-ftehimiet internazzjonali jiġu riveduti jew jiġu konklużi oħrajn ġodda fil-futur, jenħtieġ li l-partijiet kontraenti jagħmlu l-akbar sforzi possibbli biex jallinjaw dawk il-ftehimiet mar-rekwiżiti ta' dan ir-Regolament.
(23)
Niniejsze rozporządzenie powinno być również stosowane do instytucji, organów i jednostek organizacyjnych Unii, gdy działają one jako dostawca systemu AI lub podmiot stosujący system AI.
(23)
Jenħtieġ li dan ir-Regolament japplika wkoll għall-istituzzjonijiet, il-korpi, l-uffiċċji u l-aġenziji tal-Unjoni meta dawn jaġixxu bħala fornitur jew implimentatur ta' sistema tal-IA.
(24)
Jeżeli i w zakresie, w jakim systemy AI wprowadza się do obrotu, oddaje do użytku lub wykorzystuje się je ze zmianami lub bez zmian – do celów wojskowych, obronnych lub celów bezpieczeństwa narodowego, systemy te należy wyłączyć z zakresu stosowania niniejszego rozporządzenia niezależnie od tego, jaki podmiot wykonuje te działania – nie ma znaczenia na przykład, czy jest on podmiotem publicznym czy prywatnym. W przypadku celów wojskowych i obronnych, takie wyłączenie jest uzasadnione zarówno art. 4 ust. 2 TUE, jak i specyfiką polityki obronnej państw członkowskich i wspólnej polityki obronnej Unii objętej tytułem V rozdział 2 TUE, które podlegają prawu międzynarodowemu publicznemu stanowiącemu zatem bardziej odpowiednie ramy prawne dla regulacji systemów AI w kontekście stosowania śmiercionośnej siły i innych systemów AI w kontekście działań wojskowych i obronnych. W przypadku celów bezpieczeństwa narodowego wyłączenie to jest uzasadnione zarówno faktem, że za bezpieczeństwo narodowe wyłączną odpowiedzialność ponoszą państwa członkowskie zgodnie z art. 4 ust. 2 TUE, jak i faktem, że działania w zakresie bezpieczeństwa narodowego mają szczególny charakter, wiążą się ze szczególnymi potrzebami operacyjnymi i że stosuje się do nich szczególne przepisy krajowe. Jeżeli jednak system AI rozwinięty, wprowadzony do obrotu, oddany do użytku lub wykorzystywany do celów wojskowych, obronnych lub celów bezpieczeństwa narodowego jest tymczasowo lub na stałe wykorzystywany do innych celów, na przykład do celów cywilnych lub humanitarnych, do celów ścigania przestępstw lub bezpieczeństwa publicznego, system taki objęty zostanie zakresem stosowania niniejszego rozporządzenia. W takim przypadku podmiot wykorzystujący system AI do celów inne niż cele wojskowe, obronne lub cele bezpieczeństwa narodowego powinien zapewnić zgodność systemu AI z niniejszym rozporządzeniem, chyba że system ten jest już z nim zgodny. Systemy AI wprowadzane do obrotu lub oddawane do użytku do celu stanowiącego podstawę wyłączenia, tzn. celu wojskowego, obronnego lub celu bezpieczeństwa narodowego, oraz do jednego lub kilku celów niestanowiących podstawy wyłączenia, takich jak cele cywilne lub ściganie przestępstw, są objęte zakresem stosowania niniejszego rozporządzenia, a dostawcy tych systemów powinni zapewnić zgodność z niniejszym rozporządzeniem. W takich przypadkach fakt, że system AI może wchodzić w zakres stosowania niniejszego rozporządzenia, nie powinien mieć wpływu na możliwość wykorzystywania – przez podmioty prowadzące działania dotyczące bezpieczeństwa narodowego, działania obronne i wojskowe, bez względu na rodzaj podmiotu prowadzącego te działania – systemów AI do celów bezpieczeństwa narodowego, celów wojskowych i obronnych, których wykorzystanie jest wyłączone z zakresu stosowania niniejszego rozporządzenia. System AI wprowadzany do obrotu do celów cywilnych lub w celu ścigania przestępstw, który jest wykorzystywany ze zmianami lub bez zmian do celów wojskowych, obronnych lub do celów bezpieczeństwa narodowego, nie powinien być objęty zakresem stosowania niniejszego rozporządzenia, bez względu na rodzaj podmiotu prowadzącego działania związane z tymi celami.
(24)
Jekk, u sa fejn, is-sistemi tal-IA jiġu introdotti fis-suq, jitqiegħdu fis-servizz, jew jintużaw b'modifika jew mingħajr modifika ta' tali sistemi għal finijiet militari, ta' difiża jew ta' sigurtà nazzjonali, dawk jenħtieġ li jiġu esklużi mill-kamp ta' applikazzjoni ta' dan ir-Regolament irrispettivament minn liema tip ta' entità tkun qed twettaq dawk l-attivitajiet, bħal jekk tkunx entità pubblika jew privata. Fir-rigward ta' finijiet militari u ta' difiża, tali esklużjoni hija ġġustifikata kemm mill-Artikolu 4(2) TUE kif ukoll mill-ispeċifiċitajiet tal-politika ta' difiża komuni tal-Istati Membri u tal-Unjoni koperta mill-Kapitolu 2 tat-Titolu V TUE li huma soġġetti għad-dritt internazzjonali pubbliku, li huwa għalhekk il-qafas legali aktar xieraq għar-regolamentazzjoni tas-sistemi tal-IA fil-kuntest tal-użu ta' forza letali u sistemi oħra tal-IA fil-kuntest ta' attivitajiet militari u ta' difiża. Fir-rigward ta' finijiet ta' sigurtà nazzjonali, l-esklużjoni hija ġġustifikata kemm mill-fatt li s-sigurtà nazzjonali tibqa' r-responsabbiltà unika tal-Istati Membri f'konformità mal-Artikolu 4(2) TUE kif ukoll min-natura speċifika u l-ħtiġijiet operazzjonali tal-attivitajiet ta' sigurtà nazzjonali u regoli nazzjonali speċifiċi applikabbli għal dawk l-attivitajiet. Madankollu, jekk sistema tal-IA żviluppata, introdotta fis-suq, imqiegħda fis-servizz jew użata għal finijiet militari, ta' difiża jew ta' sigurtà nazzjonali tintuża barra minn dawk temporanjament jew b'mod permanenti għal finijiet oħra, pereżempju, għal finijiet ċivili jew umanitarji, għal finijiet ta' infurzar tal-liġi jew ta' sigurtà pubblika, tali sistema taqa' fil-kamp ta' applikazzjoni ta' dan ir-Regolament. F'dak il-każ, jenħtieġ li l-entità li tuża s-sistema tal-IA għal finijiet oħra għajr dawk militari, ta' difiża jew ta' sigurtà nazzjonali tiżgura l-konformità tas-sistema tal-IA ma' dan ir-Regolament, sakemm is-sistema ma tkunx diġà konformi ma' dan ir-Regolament. Is-sistemi tal-IA introdotti fis-suq jew imqiegħda fis-servizz għal skop eskluż, jiġifieri militari, ta' difiża jew ta' sigurtà nazzjonali, u skop wieħed jew aktar mhux esklużi, bħal finijiet ċivili jew infurzar tal-liġi, jaqgħu fil-kamp ta' applikazzjoni ta' dan ir-Regolament u jenħtieġ li l-fornituri ta' dawk is-sistemi jiżguraw il-konformità ma' dan ir-Regolament. F'dawk il-każijiet, jenħtieġ li l-fatt li sistema tal-IA tista' taqa' fil-kamp ta' applikazzjoni ta' dan ir-Regolament ma jaffettwax il-possibbiltà li entitajiet li qed iwettqu attivitajiet nazzjonali ta' sigurtà, ta' difiża u militari, irrispettivament mit-tip ta' entità li twettaq dawk l-attivitajiet, jużaw sistemi tal-IA għal finijiet ta' sigurtà, militari u ta' difiża nazzjonali, li l-użu tagħhom huwa eskluż mill-kamp ta' applikazzjoni ta' dan ir-Regolament. Jenħtieġ li sistema tal-IA introdotta fis-suq għal finijiet ċivili jew ta' infurzar tal-liġi li tintuża b'modifika jew mingħajr modifika għal finijiet militari, ta' difiża jew ta' sigurtà nazzjonali ma taqax fil-kamp ta' applikazzjoni ta' dan ir-Regolament, irrispettivament mit-tip ta' entità li twettaq dawk l-attivitajiet.
(25)
Niniejsze rozporządzenie powinno wspierać innowacje, szanować wolność nauki i nie powinno osłabiać działalności badawczo-rozwojowej. Należy zatem wyłączyć z jego zakresu stosowania systemy i modele AI rozwinięte i oddane do użytku wyłącznie do celów badań naukowych i rozwojowych. Ponadto należy zapewnić, aby niniejsze rozporządzenie nie wpływało w żaden inny sposób na działalność badawczo-rozwojową dotyczącą systemów lub modeli AI przed wprowadzeniem tych systemów lub modeli do obrotu lub oddaniem ich do użytku. Przepisów niniejszego rozporządzenia nie powinno się również stosować do zorientowanej na produkty działalności badawczej, testowej i rozwojowej dotyczącej systemów lub modeli AI przed oddaniem tych systemów i modeli do użytku lub wprowadzaniem ich do obrotu. Wyłączenie to pozostaje to bez uszczerbku dla obowiązku zapewnienia zgodności z niniejszym rozporządzeniem, gdy system AI objęty zakresem stosowania niniejszego rozporządzenia jest wprowadzany do obrotu lub oddawany do użytku w wyniku takiej działalności badawczo-rozwojowej, oraz dla stosowania przepisów dotyczących piaskownic regulacyjnych w zakresie AI i testów w warunkach rzeczywistych. Ponadto bez uszczerbku dla wyłączenia systemów AI rozwiniętych i oddanych do użytku wyłącznie do celów badań naukowych i rozwojowych, wszelkie inne systemy AI, które mogą być wykorzystywane do prowadzenia wszelkiej działalności badawczo-rozwojowej, powinny podlegać przepisom niniejszego rozporządzenia. W każdym przypadku wszelka działalność badawczo-rozwojowa powinna być prowadzona zgodnie z uznanymi normami etycznymi i zawodowymi dotyczącymi badań naukowych oraz zgodnie z mającym zastosowanie prawem Unii.
(25)
Jenħtieġ li dan ir-Regolament jappoġġa l-innovazzjoni, jirrispetta l-libertà tax-xjenza, u ma jdgħajjifx l-attività ta' riċerka u żvilupp. Għalhekk, jeħtieġ li jiġu esklużi mill-kamp ta' applikazzjoni tagħha s-sistemi u l-mudelli tal-IA żviluppati speċifikament u mqiegħda fis-servizz għall-iskop uniku ta' riċerka u żvilupp xjentifiċi. Barra minn hekk, jeħtieġ li jiġi żgurat li dan ir-Regolament ma jaffettwax b'xi mod ieħor l-attività xjentifika ta' riċerka u żvilupp dwar is-sistemi jew il-mudelli tal-IA qabel ma jitqiegħdu fis-suq jew fis-servizz. Fir-rigward tar-riċerka orjentata lejn il-prodott, l-ittestjar u l-attività ta' żvilupp fir-rigward ta' sistemi jew mudelli tal-IA, id-dispożizzjonijiet ta' dan ir-Regolament jenħtieġ li ma japplikawx ukoll qabel ma dawk is-sistemi u l-mudelli jitqiegħdu fis-servizz jew jiġu introdotti fis-suq. Dik l-esklużjoni hija mingħajr preġudizzju għall-obbligu ta' konformità ma' dan ir-Regolament meta sistema tal-IA li taqa' fil-kamp ta' applikazzjoni ta' dan ir-Regolament tiġi introdotta fis-suq jew titqiegħed fis-servizz bħala riżultat ta' tali attività ta' riċerka u żvilupp u għall-applikazzjoni ta' dispożizzjonijiet dwar ambjenti ta' esperimentazzjoni regolatorja għall-IA u ttestjar fil-kundizzjonijiet tad-dinja reali. Barra minn hekk, mingħajr preġudizzju għall-esklużjoni tas-sistemi tal-IA żviluppati speċifikament u mqiegħda fis-servizz għall-iskop uniku ta' riċerka u żvilupp xjentifiku, jenħtieġ li kwalunkwe sistema oħra tal-IA li tista' tintuża għat-twettiq ta' kwalunkwe attività ta' riċerka u żvilupp tibqa' soġġetta għad-dispożizzjonijiet ta' dan ir-Regolament. Fi kwalunkwe każ, jenħtieġ li kwalunkwe attività ta' riċerka u żvilupp titwettaq f'konformità mal-istandards etiċi u professjonali rikonoxxuti għar-riċerka xjentifika u jenħtieġ li titwettaq f'konformità mal-liġi tal-Unjoni applikabbli.
(26)
Aby wprowadzić proporcjonalny i skuteczny zbiór wiążących przepisów dotyczących systemów AI, należy zastosować jasno określone podejście oparte na analizie ryzyka. Takie podejście powinno polegać na dostosowywaniu rodzaju i treści takich przepisów do intensywności i zakresu ryzyka, jakie mogą powodować systemy AI. Konieczne jest zatem wprowadzenie zakazu stosowania niektórych niedopuszczalnych praktyk w zakresie AI, ustanowienie wymogów dotyczących systemów AI wysokiego ryzyka i obowiązków spoczywających na odpowiednich operatorach oraz ustanowienie obowiązków w zakresie przejrzystości w odniesieniu do niektórych systemów AI.
(26)
Biex jiddaħħal sett proporzjonat u effettiv ta' regoli vinkolanti għas-sistemi tal-IA, jenħtieġ jitħaddem approċċ definit b'mod ċar u bbażat fuq ir-riskji. Jenħtieġ li dak l-approċċ ifassal it-tip u l-kontenut ta' dawk ir-regoli skont l-intensità u l-ambitu tar-riskji li jistgħu jiġġeneraw is-sistemi tal-IA. Għalhekk, jeħtieġ li jiġu pprojbiti ċerti prattiki mhux aċċettabbli tal-IA, li jiġu stabbiliti rekwiżiti għal sistemi tal-IA b'riskju għoli u obbligi għall-operaturi rilevanti, u li jiġu stabbiliti obbligi tat-trasparenza għal ċerti sistemi tal-IA.
(27)
Chociaż podstawą proporcjonalnego i skutecznego zbioru wiążących przepisów jest podejście oparte na analizie ryzyka, należy przypomnieć Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji z 2019 r. opracowane przez niezależną grupę ekspertów wysokiego szczebla ds. AI powołaną przez Komisję. W tych wytycznych grupa ekspertów wysokiego szczebla ds. AI opracowała siedem niewiążących zasad etycznych dotyczących AI, które mają pomóc zapewnić, aby AI była godna zaufania i zgodna z normami etycznymi. Te siedem zasad to: przewodnia i nadzorcza rola człowieka; solidność techniczna i bezpieczeństwo; ochrona prywatności i zarządzanie danymi; przejrzystość; różnorodność, niedyskryminacja i sprawiedliwość; dobrostan społeczny i środowiskowy oraz odpowiedzialność. Bez uszczerbku dla prawnie wiążących wymogów niniejszego rozporządzenia i wszelkich innych mających zastosowanie przepisów prawa Unii, wytyczne te przyczyniają się do zaprojektowania spójnej, wiarygodnej i zorientowanej na człowieka AI, zgodnie z Kartą i wartościami, na których opiera się Unia. Zgodnie z wytycznymi grupy ekspertów wysokiego szczebla ds. AI przewodnia i nadzorcza rola człowieka oznacza, że systemy AI rozwija się i wykorzystuje jako narzędzia służące ludziom, szanujące godność ludzką i autonomię osobistą oraz działające w sposób, który może być odpowiednio kontrolowany i nadzorowany przez człowieka. Solidność techniczna i bezpieczeństwo oznaczają, że systemy AI rozwija się i wykorzystuje w taki sposób, by okazały się wytrzymałe w przypadku wystąpienia problemów oraz odporne na próby zmiany ich wykorzystania lub skuteczności działania, co pozwoli zapobiec bezprawnemu wykorzystaniu przez osoby trzecie i zminimalizować niezamierzone szkody. Ochrona prywatności i zarządzanie danymi oznaczają, że systemy AI rozwija się i wykorzystuje zgodnie z przepisami dotyczącymi prywatności i ochrony danych, przy czym przetwarzanie danych spełnia wysokie standardy pod względem jakości i integralności. Przejrzystość oznacza, że systemy AI rozwija się i wykorzystuje w sposób umożliwiający odpowiednią identyfikowalność i wytłumaczalność, jednocześnie informując ludzi o tym, że komunikują się z systemem AI lub podejmują z nim interakcję, a także należycie informując podmioty stosujące o zdolnościach i ograniczeniach tego systemu AI, a osoby, na które AI ma wpływ, o przysługujących im prawach. Różnorodność, niedyskryminacja i sprawiedliwość oznaczają, że systemy AI rozwija się i wykorzystuje w sposób, który angażuje różne podmioty i propaguje równy dostęp, równouprawnienie płci i różnorodność kulturową, jednocześnie unikając dyskryminujących skutków i niesprawiedliwej stronniczości, których zakazują prawo Unii lub prawo krajowe. Dobrostan społeczny i środowiskowy oznacza, że systemy AI rozwija się i wykorzystuje w sposób zrównoważony, przyjazny dla środowiska i przynoszący korzyści wszystkim ludziom, jednocześnie monitorując i oceniając długoterminowy wpływ tych systemów na osoby fizyczne, społeczeństwo i demokrację. Stosowanie tych zasad powinno w miarę możliwości znaleźć odzwierciedlenie w projektowaniu i wykorzystywaniu modeli AI. Zasady te powinny w każdym przypadku stanowić fundament przy opracowywaniu kodeksów postępowania na podstawie niniejszego rozporządzenia. Wszystkie zainteresowane strony, w tym przedstawicieli przemysłu, środowisko akademickie, społeczeństwo obywatelskie i organizacje normalizacyjne, zachęca się, by przy opracowywaniu dobrowolnych najlepszych praktyk i norm uwzględniali odpowiednio przedmiotowe zasady etyczne.
(27)
Filwaqt li l-approċċ ibbażat fuq ir-riskju huwa l-bażi għal sett proporzjonat u effettiv ta' regoli vinkolanti, huwa importanti li jitfakkru l-Linji gwida tal-2019 dwar l-etika għal IA affidabbli żviluppati mill-AI HLEG maħtur mill-Kummissjoni. F'dawk il-linji gwida l-AI HLEG żviluppa seba' prinċipji etiċi mhux vinkolanti għall-IA li huma maħsuba biex jgħinu li jiġi żgurat li l-IA tkun affidabbli u etikament xierqa. Is-seba' prinċipji jinkludu: intervent u sorveljanza mill-bniedem; robustezza u sikurezza teknika; privatezza u governanza tad-data; trasparenza; diversità, nondiskriminazzjoni u ekwità; benesseri tas-soċjetà u tal-ambjent u responsabbiltà. Mingħajr preġudizzju għar-rekwiżiti legalment vinkolanti ta' dan ir-Regolament u kwalunkwe liġi applikabbli oħra tal-Unjoni, dawk il-linji gwida jikkontribwixxu għat-tfassil ta' IA koerenti, affidabbli u ċċentrata fuq il-bniedem, f'konformità mal-Karta u mal-valuri li fuqhom hija msejsa l-Unjoni. Skont il-linji gwida tal-AI HLEG, intervent u sorveljanza mill-bniedem tfisser li s-sistemi tal-IA jiġu żviluppati u użati bħala għodda li taqdi lin-nies, tirrispetta d-dinjità u l-awtonomija personali tal-bniedem, u li tiffunzjona b'mod li jista' jiġi kkontrollat u ssorveljat mill-bniedem kif xieraq. Robustezza u sikurezza teknika tfisser li s-sistemi tal-IA jiġu żviluppati u użati b'mod li jippermetti r-robustezza fil-każ ta' problemi u reżiljenza kontra tentattivi biex jinbidlu l-użu jew il-prestazzjoni tas-sistema tal-IA biex ikun jista' jsir użu illegali minn partijiet terzi, u tiġi minimizzata l-ħsara mhux intenzjonata. Privatezza u governanza tad-data tfisser li s-sistemi tal-IA jiġu żviluppati u użati f'konformità mar-regoli dwar il-privatezza u l-protezzjoni tad-data, filwaqt li tiġi pproċessata data li tissodisfa standards għoljin mil-lat ta' kwalità u integrità. Trasparenza tfisser li s-sistemi tal-IA jiġu żviluppati u użati b'mod li jippermettu traċċabbiltà u spjegabbiltà xierqa, filwaqt li jiżguraw li l-bnedmin ikunu konxji li qed jikkomunikaw jew jinteraġixxu ma' sistema tal-IA kif ukoll jinfurmaw kif xieraq lill-implimentaturi dwar il-kapaċitajiet u l-limitazzjonijiet ta' dik is-sistema tal-IA u lill-persuni affettwati dwar id-drittijiet tagħhom. Diversità, nondiskriminazzjoni u ġustizzja tfisser li s-sistemi tal-IA jiġu żviluppati u użati b'mod li jinkludi atturi differenti u li jippromwovi aċċess ugwali, ugwaljanza bejn il-ġeneri u diversità kulturali filwaqt li jevita impatti diskriminatorji u preġudizzji inġusti li huma pprojbiti mil-liġi tal-Unjoni jew dik nazzjonali. Benesseri tas-soċjetà u tal-ambjent tfisser li s-sistemi tal-IA jiġu żviluppati u użati b'mod sostenibbli u li ma jagħmilx ħsara lill-ambjent kif ukoll b'mod li jkunu ta' benefiċċju għall-bnedmin kollha, filwaqt li jiġu mmonitorjati u vvalutati l-impatti fit-tul fuq l-individwu, is-soċjetà u d-demokrazija. Jenħtieġ li l-applikazzjoni ta' dawk il-prinċipji tiġi riflessa, meta jkun possibbli, fid-disinn u l-użu tal-mudelli tal-IA. Jenħtieġ li fi kwalunkwe każ iservu bħala bażi għall-abbozzar ta' kodiċijiet ta' kondotta skont dan ir-Regolament. Il-partijiet ikkonċernati kollha, inkluż l-industrija, id-dinja akkademika, is-soċjetà ċivili u l-organizzazzjonijiet tal-istandardizzazzjoni, huma mħeġġa jqisu, kif xieraq, il-prinċipji etiċi għall-iżvilupp tal-aħjar prattiki u standards volontarji.
(28)
Oprócz wielu korzystnych zastosowań AI może ona być również wykorzystywana niewłaściwie i może dostarczać nowych i potężnych narzędzi do praktyk manipulacji, wyzyskiwania i kontroli społecznej. Takie praktyki są szczególnie szkodliwe i stanowią nadużycie i powinny być zakazane, ponieważ są sprzeczne z unijnymi wartościami dotyczącymi poszanowania godności ludzkiej, wolności, równości, demokracji i praworządności oraz z prawami podstawowymi zapisanymi w Karcie, w tym z prawem do niedyskryminacji, ochrony danych i prywatności oraz z prawami dziecka.
(28)
Minbarra l-bosta użi ta' benefiċċju tal-IA, din tista' tintuża ħażin ukoll u tipprovdi għodod ġodda u b'saħħithom għal prattiki manipulattivi, ta' sfruttament u ta' kontroll soċjali. Dawn il-prattiki huma partikolarment ta' ħsara u abbużivi u jenħtieġ li jiġu pprojbiti għax imorru kontra l-valuri tal-Unjoni ta' rispett għad-dinjità umana, libertà, ugwaljanza, demokrazija u l-istat tad-dritt u d-drittijiet fundamentali minquxa fil-Karta, fosthom id-dritt ta' nondiskriminazzjoni, għal protezzjoni tad-data u għal privatezza u d-drittijiet tat-tfal.
(29)
Techniki manipulacyjne oparte na AI mogą być wykorzystywane w celu nakłaniania osób do niepożądanych zachowań lub w celu wprowadzania ich w błąd poprzez skłanianie ich do podejmowania decyzji w sposób, który podważa i ogranicza ich autonomię, decyzyjność i swobodę wyboru. Wprowadzanie do obrotu, oddawanie do użytku lub wykorzystywanie niektórych systemów AI, których celem lub skutkiem jest znacząca zmiana ludzkiego zachowania, w związku z czym mogą wystąpić poważne szkody, w szczególności mające wystarczająco istotny niepożądany wpływ na zdrowie fizyczne, psychiczne lub na interesy finansowe, są szczególnie niebezpieczne i w związku z tym powinny być zakazane. Takie systemy AI wykorzystują elementy działające podprogowo, takie jak bodźce dźwiękowe, bodźce będące obrazami lub materiałami wideo, których nie można dostrzec, ponieważ bodźce takie wykraczają poza świadomą ludzką percepcję, lub stosują inne techniki manipulacyjne lub wprowadzające w błąd, które podważają lub ograniczają autonomię człowieka, decyzyjność lub swobodę wyboru w taki sposób, że osoby nie są świadome takich technik lub nawet jeśli są ich świadome, mogą zostać wprowadzone w błąd lub nie są w stanie sprawować nad nimi kontroli ani im się sprzeciwić. Przyczyniać się do tego mogą na przykład interfejsy maszyna-mózg lub rzeczywistość wirtualna, ponieważ pozwalają one na większą kontrolę nad tym, jakim bodźcom są poddawane osoby, do tego stopnia, że mogą one znacząco zmieniać zachowanie tych osób w sposób znacząco szkodliwy. Ponadto systemy AI mogą również w inny sposób wykorzystywać słabości danej osoby lub określonej grupy osób ze względu na ich wiek, niepełnosprawność w rozumieniu dyrektywy Parlamentu Europejskiego i Rady (UE) 2019/882 (16) lub szczególną sytuację społeczną lub ekonomiczną, która może sprawić, że osoby te, takie jak osoby żyjące w skrajnym ubóstwie, osoby z mniejszości etnicznych lub religijnych, będą bardziej narażone na ich wykorzystanie. Takie systemy AI mogą być wprowadzane do obrotu, oddawane do użytku lub wykorzystywane w celu lub ze skutkiem znaczącej zmiany zachowania danej osoby, oraz w sposób, który wyrządza lub może z uzasadnionym prawdopodobieństwem wyrządzić poważną szkodę tej osoby lub innej osoby lub grupy osób, w tym szkody kumulujące się z biegiem czasu, i w związku z tym powinny być zakazane. Nie można zakładać, że zaistniał zamiar dokonania zmiany zachowania, jeżeli zmiana ta wynika z czynników, które mają charakter zewnętrzny w stosunku do systemu AI i które są poza kontrolą dostawcy lub podmiotu stosującego, a zatem ani dostawca ani podmiot stosujący AI nie mogą ich racjonalnie przewidzieć ani im przeciwdziałać. W każdym razie nie ma znaczenia, czy dostawca lub podmiot stosujący mieli zamiar wyrządzić poważną szkodę, istotny jest fakt, że szkoda wynika z praktyk manipulacyjnych opartych na AI lub ich wykorzystywania. Zakazy dotyczące takich praktyk w zakresie AI stanowią uzupełnienie przepisów zawartych w dyrektywie Parlamentu Europejskiego i Rady 2005/29/WE (17), w szczególności przepisu zakazującego stosowania we wszelkich okolicznościach nieuczciwych praktyk handlowych powodujących dla konsumentów szkody ekonomiczne lub finansowe, niezależnie od tego, czy praktyki te stosuje się za pomocą systemów AI czy w innym kontekście. Zawarty w niniejszym rozporządzeniu zakaz praktyk polegających na manipulacji lub wykorzystywaniu nie powinien mieć wpływu na zgodne z prawem praktyki w kontekście leczenia, takie jak terapia psychologiczna w związku z chorobą psychiczną lub rehabilitacja fizyczna, gdy praktyki te są prowadzone zgodnie z mającymi zastosowanie prawem i normami medycznymi, na przykład za wyraźną zgodą danej osoby fizycznej lub jej przedstawiciela prawnego. Ponadto powszechne i zasadne praktyki handlowe, na przykład w dziedzinie reklamy, które są zgodne z mającym zastosowanie prawem, nie powinny być same w sobie uznawane za szkodliwe praktyki manipulacyjne oparte na AI.
(29)
Tekniki manipulattivi bbażati fuq l-IA jistgħu jintużaw biex jipperswadu lin-nies jinvolvu ruħhom f'imġiba mhux mixtieqa, jew biex iqarrqu bihom billi jġiegħluhom jieħdu deċiżjonijiet b'mod li jimmina u jfixkel l-awtonomija, it-teħid ta' deċiżjonijiet u l-għażliet liberi tagħhom. L-introduzzjoni fis-suq, it-tqegħid fis-servizz jew l-użu ta' ċerti sistemi tal-IA bl-objettiv jew bl-effett li jfixklu materjalment l-imġiba tal-bniedem, fejn x'aktarx isseħħ ħsara sinifikanti, b'mod partikolari li jkollhom impatti negattivi importanti biżżejjed fuq is-saħħa fiżika, psikoloġika jew fuq l-interessi finanzjarji, ikunu partikolarment perikolużi u għalhekk jenħtieġ li jiġu pprojbiti. Tali sistemi tal-IA jimplimentaw komponenti subliminali bħall-awdjo, immaġni jew vidjo li l-persuni ma jistgħux jipperċepixxu, peress li dawk l-istimuli jmorru lil hinn mill-perċezzjoni tal-bniedem, jew tekniki manipulattivi jew qarrieqa oħra li jdgħajfu jew ifixklu l-awtonomija, it-teħid ta' deċiżjonijiet jew l-għażla libera tal-persuna b'modi li n-nies ma jkunux konxji ta’ dawn it-tekniki jew, fejn ikunu konxji tagħhom, xorta waħda jkunu ingannati jew ma jkunux jistgħu jikkontrollawhom jew jirreżistuhom. Dan jista' jkun iffaċilitat, pereżempju, minn interfaċċi bejn il-moħħ u l-magna jew realtà virtwali peress li jippermettu livell ogħla ta' kontroll ta' liema stimuli jiġu ppreżentati lill-persuni, sa fejn dawn jistgħu jfixklu materjalment l-imġiba tagħhom b'mod li jagħmel ħsara sinifikanti. Barra minn hekk, is-sistemi tal-IA jistgħu jisfruttaw ukoll il-vulnerabbiltajiet ta' persuna jew ta' grupp speċifiku ta' persuni minħabba l-età tagħhom, diżabbiltà skont it-tifsira tad-Direttiva (UE) 2019/882 tal-Parlament Ewropew u tal-Kunsill (16), jew sitwazzjoni soċjali jew ekonomika speċifika li x'aktarx tirrendi lil dawk il-persuni aktar vulnerabbli għal sfruttament bħal persuni li jgħixu f'faqar estrem u minoranzi etniċi jew reliġjużi. Tali sistemi tal-IA jistgħu jiġu introdotti fis-suq, jitqiegħdu fis-servizz jew jintużaw bl-objettiv jew bl-effett li jfixklu materjalment l-imġiba ta' persuna u b'mod li jikkawżaw jew li raġonevolment x'aktarx jikkawżaw ħsara sinifikanti lil dik il-persuna jew lil persuna jew gruppi oħra ta' persuni, inkluż ħsara li tista' takkumula maż-żmien, u għalhekk jenħtieġ li jiġu pprojbiti. Jista' ma jkunx possibbli li wieħed jassumi li hemm intenzjoni ta' tfixkil tal-imġiba meta t-tfixkil jirriżulta minn fatturi esterni għas-sistema tal-IA li huma barra mill-kontroll tal-fornitur jew tal-implimentatur, jiġifieri fatturi li jistgħu ma jkunux raġonevolment prevedibbli u għalhekk mhux possibbli għall-fornitur jew għall-implimentatur tas-sistema tal-IA biex jimmitiga. Fi kwalunkwe każ, ma huwiex meħtieġ li l-fornitur jew l-implimentatur ikollhom l-intenzjoni li jikkawżaw ħsara sinifikanti, dment li tali ħsara ma tirriżultax mill-prattiki manipulattivi jew ta' sfruttament li ġejjin mill-IA. Il-projbizzjonijiet għal tali prattiki tal-IA huma komplementari għad-dispożizzjonijiet li jinsabu fid-Direttiva 2005/29/KE tal-Parlament Ewropew u tal-Kunsill (17), b'mod partikolari prattiki kummerċjali inġusti li jwasslu għal ħsara ekonomika jew finanzjarja għall-konsumaturi huma pprojbiti fiċ-ċirkostanzi kollha, irrispettivament minn jekk jiġux stabbiliti permezz ta' sistemi tal-IA jew b'xi mod ieħor. Jenħtieġ li l-projbizzjonijiet ta' prattiki manipulattivi u ta' sfruttament f'dan ir-Regolament ma jaffettwaw il-prattiki legali fil-kuntest ta' trattament mediku bħat-trattament psikoloġiku ta' marda mentali jew ir-riabilitazzjoni fiżika, meta dawk il-prattiki jitwettqu f'konformità mal-liġi u l-istandards mediċi applikabbli, pereżempju l-kunsens espliċitu tal-individwi jew tar-rappreżentanti legali tagħhom. Barra minn hekk, jenħtieġ li l-prattiki kummerċjali komuni u leġittimi, pereżempju fil-qasam tar-reklamar, li jikkonformaw mal-liġi applikabbli ma jitqisux fihom infushom bħala li jikkostitwixxu prattiki manipulattivi li jagħmlu ħsara li ġejjin mill-IA.
(30)
Należy zakazać stosowania systemów kategoryzacji biometrycznej, które opierają się na danych biometrycznych osób fizycznych, takich jak twarz lub odciski palców danej osoby, w celu wydedukowania lub wywnioskowania informacji na temat opinii politycznych, przynależności do związków zawodowych, przekonań religijnych lub filozoficznych, rasy, życia seksualnego lub orientacji seksualnej danej osoby. Zakaz ten nie powinien obejmować zgodnego z prawem etykietowania, filtrowania lub kategoryzacji zbiorów danych biometrycznych, pozyskanych zgodnie z prawem Unii lub prawem krajowym, według danych biometrycznych, takiego jak sortowanie obrazów według koloru włosów lub koloru oczu, które można na przykład wykorzystać w obszarze ścigania przestępstw.
(30)
Jenħtieġ li jiġu pprojbiti s-sistemi ta' kategorizzazzjoni bijometrika li huma bbażati fuq id-data bijometrika tal-persuni fiżiċi, bħall-wiċċ jew il-marka tas-swaba' ta' persuna individwali, biex jiddeduċu jew jinferixxu l-opinjonijiet politiċi ta' individwu, is-sħubija fi trade union, it-twemmin reliġjuż jew filosofiku, ir-razza, il-ħajja sesswali jew l-orjentazzjoni sesswali. Jenħtieġ li dik il-projbizzjoni ma tkoprix it-tikkettar, il-filtrazzjoni jew il-kategorizzazzjoni legali ta' settijiet ta' data bijometriċi miksuba f'konformità mal-liġi tal-Unjoni jew dik nazzjonali skont id-data bijometrika, bħall-issortjar ta' immaġnijiet skont il-kulur tax-xagħar jew il-kulur tal-għajnejn, li jistgħu jintużaw pereżempju fil-qasam tal-infurzar tal-liġi.
(31)
Systemy AI, które umożliwiają prowadzenie przez podmioty publiczne lub prywatne scoringu społecznego, mogą prowadzić do wyników stanowiących dyskryminację i do wykluczenia pewnych grup. Mogą one naruszać prawo do godności i niedyskryminacji oraz wartości, jakimi są równość i sprawiedliwość. Takie systemy AI oceniają lub klasyfikują osoby fizyczne lub grupy osób fizycznych na podstawie wielu punktów danych dotyczących ich zachowań społecznych w wielu kontekstach lub na podstawie znanych, wywnioskowanych lub przewidywanych cech osobistych lub cech osobowości w określonych przedziałach czasowych. Scoring społeczny uzyskany w rezultacie działania takich systemów AI może prowadzić do krzywdzącego lub niekorzystnego traktowania osób fizycznych lub całych grup osób fizycznych w kontekstach społecznych, które nie są związane z kontekstem, w którym pierwotnie wygenerowano lub zgromadzono dane, lub do krzywdzącego traktowania, które jest nieproporcjonalne lub nieuzasadnione w stosunku do wagi ich zachowań społecznych. Należy zatem zakazać systemów AI, w których stosuje się takie niedopuszczalne praktyki scoringu, które przynoszą takie krzywdzące lub niekorzystne wyniki. Zakaz ten nie powinien mieć wpływu na zgodne z prawem praktyki oceny osób fizycznych, które są stosowane w konkretnym celu zgodnie z prawem Unii i prawem krajowym.
(31)
Sistemi tal-IA li jipprovdu punteġġ għaċ-ċittadini minn atturi pubbliċi jew privati fir-rigward ta' persuni fiżiċi jistgħu jwasslu għal eżiti diskriminatorji u għall-esklużjoni ta' ċerti gruppi. Jistgħu jiksru d-dritt għad-dinjità u ta' nondiskriminazzjoni u l-valuri tal-ugwaljanza u tal-ġustizzja. Tali sistemi tal-IA jevalwaw jew jikklassifikaw persuni fiżiċi jew gruppi ta' persuni abbażi ta' diversi punti tad-data relatati mal-imġiba soċjali tagħhom f'kuntesti multipli jew karatteristiċi personali jew tal-personalità magħrufa, inferiti jew imbassrin matul ċerti perjodi ta' żmien. Il-punteġġ għaċ-ċittadini miksub minn dawn is-sistemi tal-IA jista' jwassal għal trattament detrimentali jew mhux favorevoli ta' persuni fiżiċi jew ta' gruppi sħaħ tagħhom f'kuntesti soċjali, li ma jkunux marbuta mal-kuntest li fih kienet oriġinarjament iġġenerata jew inġabret id-data, jew għal trattament detrimentali sproporzjonat jew mhux iġġustifikat għall-gravità tal-imġiba soċjali tagħhom. Għalhekk, jenħtieġ li jiġu pprojbiti s-sistemi tal-IA li jinvolvu prattiki ta' punteġġ inaċċettabbli u li jwasslu għal tali eżiti detrimentali jew mhux favorevoli. Jenħtieġ li dik il-projbizzjoni ma taffettwax il-prattiki ta' evalwazzjoni legali ta' persuni fiżiċi li jitwettqu għal skop speċifiku f'konformità mal-liġi tal-Unjoni u nazzjonali.
(32)
Wykorzystanie systemów AI do zdalnej identyfikacji biometrycznej osób fizycznych w czasie rzeczywistym w przestrzeni publicznej w celu ścigania przestępstw szczególnie ingeruje w prawa i wolności zainteresowanych osób, do tego stopnia że może ono wpływać na życie prywatne dużej części społeczeństwa, wywoływać poczucie stałego nadzoru i pośrednio zniechęcać do korzystania z wolności zgromadzeń i innych praw podstawowych. Techniczne niedokładności systemów AI przeznaczonych do zdalnej identyfikacji biometrycznej osób fizycznych mogą prowadzić do nieobiektywnych wyników i wywoływać skutki w postaci dyskryminacji. Takie ewentualne nieobiektywne wyniki i skutki w postaci dyskryminacji są szczególnie istotne w odniesieniu do wieku, pochodzenia etnicznego, rasy, płci lub niepełnosprawności. Ponadto bezpośredniość oddziaływania i ograniczone możliwości późniejszej kontroli lub korekty wykorzystania takich systemów działających w czasie rzeczywistym niosą ze sobą zwiększone ryzyko dla praw i wolności osób zainteresowanych w związku z działaniami organów ścigania lub na które działania te miały wpływ.
(32)
L-użu tas-sistemi tal-IA għall-identifikazzjoni bijometrika remota “fil-ħin reali” ta' persuni fiżiċi fi spazji aċċessibbli għall-pubbliku għall-finijiet ta' infurzar tal-liġi huwa partikolarment intrużiv għad-drittijiet u l-libertajiet tal-persuni kkonċernati, peress li dan jista' jaffettwa l-ħajja privata ta' parti kbira tal-popolazzjoni, jevoka sentiment ta' sorveljanza kostanti u indirettament jiddisswadi l-eżerċitar tal-libertà ta' għaqda u ta' drittijiet fundamentali oħra. L-inakkuratezzi tekniċi tas-sistemi tal-IA maħsuba għall-identifikazzjoni bijometrika remota ta' persuni fiżiċi jistgħu jwasslu għal riżultati preġudikati u jħallu effetti diskriminatorji. Tali riżultati preġudikati possibbli u effetti diskriminatorji huma partikolarment rilevanti fir-rigward tal-età, l-etniċità, ir-razza, is-sess jew id-diżabilitajiet. Barra minn hekk, l-immedjatezza tal-impatt u l-opportunitajiet limitati għal aktar kontrolli jew korrezzjonijiet fir-rigward tal-użu ta' dawn is-sistemi li joperaw fil-ħin reali jinvolvu riskji akbar għad-drittijiet u l-libertajiet tal-persuni kkonċernati fil-kuntest ta’, jew l-impatt mill-attivitajiet tal-infurzar tal-liġi.
(33)
Wykorzystanie tych systemów w celu ścigania przestępstw powinno zatem być zabronione, z wyjątkiem wyczerpującej listy wąsko zdefiniowanych sytuacji, w których wykorzystanie to jest bezwzględnie konieczne do realizacji istotnego interesu publicznego, którego waga przeważa nad ryzykiem. Sytuacje te obejmują poszukiwanie określonych ofiar przestępstw, w tym osób zaginionych; zapobieganie niektórym zagrożeniom życia lub bezpieczeństwa fizycznego osób fizycznych lub atakowi terrorystycznemu; oraz lokalizowanie lub identyfikowanie sprawców przestępstw lub podejrzanych o popełnienie przestępstw wymienionych w załączniku do niniejszego rozporządzenia, w przypadku gdy przestępstwa te podlegają w danym państwie członkowskim karze pozbawienia wolności lub środkowi polegającemu na pozbawieniu wolności przez okres, którego górna granica wynosi co najmniej cztery lata, zgodnie z ich definicją w prawie tego państwa członkowskiego. Taki próg kary pozbawienia wolności lub środka polegającego na pozbawieniu wolności zgodnie z prawem krajowym pozwala zapewnić, aby przestępstwo było na tyle poważne, by potencjalnie uzasadniać wykorzystanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym. Ponadto wykaz przestępstw przedstawiony w załączniku do niniejszego rozporządzenia opiera się na 32 przestępstwach wymienionych w decyzji ramowej Rady 2002/584/WSiSW (18), biorąc pod uwagę, że niektóre z tych przestępstw mogą w praktyce mieć większe znaczenie niż inne, ponieważ można przewidzieć, że korzystanie ze zdalnej identyfikacji biometrycznej w czasie rzeczywistym może być w bardzo różnym stopniu konieczne i proporcjonalne do praktycznych celów lokalizowania lub identyfikowania sprawcy poszczególnych wymienionych przestępstw lub podejrzanego o popełnienie tych przestępstw, przy uwzględnieniu prawdopodobnych różnic w odniesieniu do powagi, prawdopodobieństwa i skali szkody lub ewentualnych negatywnych konsekwencji. Bezpośrednie zagrożenie życia lub bezpieczeństwa fizycznego osób fizycznych może również wynikać z poważnego zakłócenia funkcjonowania infrastruktury krytycznej zdefiniowanej w art. 2 pkt 4 dyrektywy Parlamentu Europejskiego i Rady (UE) 2022/2557 (19), w przypadku gdy zakłócenie lub zniszczenie takiej infrastruktury krytycznej spowodowałoby bezpośrednie zagrożenie życia lub bezpieczeństwa fizycznego osoby, w tym poprzez poważną szkodę w dostarczaniu podstawowych dostaw dla ludności lub w wykonywaniu podstawowych funkcji państwa. Ponadto niniejsze rozporządzenie powinno utrzymać możliwość przeprowadzania przez organy ścigania, organy kontroli granicznej, organy imigracyjne lub organy azylowe kontroli tożsamości w obecności danej osoby zgodnie z warunkami określonymi w prawie Unii i prawie krajowym w odniesieniu do takich kontroli. W szczególności organy ścigania, organy kontroli granicznej, organy imigracyjne lub organy azylowe powinny mieć możliwość korzystania z systemów informacyjnych, zgodnie z prawem Unii lub prawem krajowym, w celu zidentyfikowania osób, które podczas kontroli tożsamości odmawiają identyfikacji lub nie są w stanie podać lub dowieść swojej tożsamości – bez konieczności uzyskiwania uprzedniego zezwolenia na podstawie niniejszego rozporządzenia. Może to na przykład dotyczyć osoby mającej związek z przestępstwem, która nie chce lub – w wyniku wypadku lub z powodu stanu zdrowia – nie jest w stanie ujawnić swojej tożsamości organom ścigania.
(33)
Għalhekk, jenħtieġ li l-użu ta' dawk is-sistemi għall-finijiet ta' infurzar tal-liġi jiġi pprojbit, minbarra f'sitwazzjonijiet elenkati b'mod eżawrjenti u definiti b'mod ristrett, meta l-użu hu strettament meħtieġ biex jinkiseb interess pubbliku sostanzjali li l-importanza tiegħu tisboq ir-riskji. Dawk is-sitwazzjonijiet jinvolvu t-tiftix għal ċerti vittmi tal-kriminalità inkluż il-persuni neqsin; ċerti theddidiet għall-ħajja jew għas-sikurezza fiżika ta' persuni fiżiċi jew ta' attakk terroristiku; u l-lokalizzazzjoni jew l-identifikazzjoni ta' awturi jew suspettati tar-reati kriminali elenkati f'anness ta' dan ir-Regolament, fejn dawk ir-reati kriminali jkunu punibbli fl-Istat Membru kkonċernat b'piena li ċċaħħad il-libertà jew b'ordni ta' detenzjoni għal perjodu massimu ta' mill-inqas erba' snin, u kif inhuma definiti fil-liġi ta' dak l-Istat Membru. Tali limitu fil-piena li ċċaħħad il-libertà jew l-ordni ta' detenzjoni f'konformità mal-liġi nazzjonali jikkontribwixxi biex jiġi żgurat li r-reat jenħtieġ li jkun serju biżżejjed biex potenzjalment jiġġustifika l-użu ta' sistemi ta’ identifikazzjoni bijometrika remota “fil-ħin reali”. Barra minn hekk, il-lista ta’ reati kriminali pprovduta f’anness ta’ dan ir-Regolament hija bbażata fuq it-32 reat kriminali elenkati fid-Deċiżjoni Qafas tal-Kunsill 2002/584/ĠAI (18), b'kont meħud li xi wħud minn dawk ir-reati aktarx li fil-prattika jkunu aktar rilevanti minn oħrajn, fis-sens li r-rikors għal identifikazzjoni bijometrika remota “fil-ħin reali” jkun prevedibbilment meħtieġ u proporzjonat sa gradi varji ħafna biex fil-prattika jkun hemm il-lokalizzazzjoni jew l-identifikazzjoni ta' awtur ta' reat kriminali jew ta' persuna suspettata b'reati kriminali differenti elenkati u b'kunsiderazzjoni tad-differenzi li x'aktarx ikun hemm fil-gravità, fil-probabbiltà u fl-iskala tal-ħsara jew tal-konsegwenzi negattivi possibbli. Theddida imminenti għall-ħajja jew għas-sikurezza fiżika ta' persuni fiżiċi tista' tirriżulta wkoll minn tfixkil serju tal-infrastruttura kritika, kif definit fl-Artikolu 2, il-punt (4) tad-Direttiva (UE) 2022/2557 tal-Parlament Ewropew u tal-Kunsill (19), fejn it-tfixkil jew il-qerda ta' tali infrastruttura kritika tirriżulta f'theddida imminenti għall-ħajja jew għas-sikurezza fiżika ta' persuna, inkluż permezz ta' dannu serju għall-forniment ta' provvisti bażiċi lill-popolazzjoni jew għall-eżerċizzju tal-funzjoni ewlenija tal-Istat. Barra minn hekk, jenħtieġ li dan ir-Regolament jippreserva l-kapaċità tal-awtoritajiet tal-infurzar tal-liġi, tal-kontroll fil-fruntieri, tal-immigrazzjoni jew tal-ażil li jwettqu verifiki tal-identità fil-preżenza tal-persuna kkonċernata f'konformità mal-kundizzjonijiet stipulati fil-liġi tal-Unjoni u f'dik nazzjonali għal tali verifiki. B'mod partikolari, jenħtieġ li l-awtoritajiet tal-infurzar tal-liġi, tal-kontroll fil-fruntiera, tal-immigrazzjoni jew tal-ażil ikunu jistgħu jużaw sistemi ta' informazzjoni, f'konformità mal-liġi tal-Unjoni jew dik nazzjonali, biex jidentifikaw persuni li, matul kontroll tal-identità, jew jirrifjutaw li jiġu identifikati jew ma jkunux jistgħu jiddikjaraw jew jagħtu prova tal-identità tagħhom, mingħajr ma tkun meħtieġa minn dan ir-Regolament li tikseb awtorizzazzjoni minn qabel. Din tista' tkun, pereżempju, persuna involuta f'reat, li ma tkunx trid, jew ma tkunx tista', minħabba aċċident jew kundizzjoni medika, tiddivulga l-identità tagħha lill-awtoritajiet tal-infurzar tal-liġi.
(34)
W celu zapewnienia, aby systemy te były wykorzystywane w sposób odpowiedzialny i proporcjonalny, należy również zastrzec, że w każdej z tych wąsko zdefiniowanych sytuacji z wyczerpującej listy należy uwzględniać pewne elementy, w szczególności charakter sytuacji, która skutkowała złożeniem wniosku, wpływ wykorzystania takich systemów na prawa i wolności wszystkich zainteresowanych osób, a także zabezpieczenia i warunki przewidziane na potrzeby wykorzystania takich systemów. Ponadto wykorzystanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej w celu ścigania przestępstw powinno mieć miejsce jedynie, by potwierdzić tożsamość konkretnej poszukiwanej osoby, i nie powinno wykraczać poza to, co jest bezwzględnie konieczne w odniesieniu do przedziału czasowego, a także zakresu geograficznego i podmiotowego, z uwzględnieniem w szczególności dowodów lub wskazówek dotyczących zagrożeń, ofiar lub sprawcy. Wykorzystanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej powinno być dozwolone tylko wtedy, gdy odpowiedni organ ścigania przeprowadził ocenę skutków dla praw podstawowych oraz, o ile niniejsze rozporządzenie nie stanowi inaczej, zarejestrował system w bazie danych, jak określono w niniejszym rozporządzeniu. Referencyjna baza danych osób powinna być odpowiednia dla każdego przypadku wykorzystania w każdej z wyżej wymienionych sytuacji.
(34)
Biex ikun żgurat li dawk is-sistemi jintużaw b'mod responsabbli u proporzjonat, hu importanti wkoll li jiġi stabbilit li, f'kull waħda minn dawk is-sitwazzjonijiet elenkati b'mod eżawrjenti u definiti b'mod ristrett, jenħtieġ jitqiesu ċerti elementi, b'mod partikolari fir-rigward tan-natura tas-sitwazzjoni li twassal għat-talba u l-konsegwenzi tal-użu għad-drittijiet u għal-libertajiet tal-persuni kollha kkonċernati u s-salvagwardji u l-kundizzjonijiet previsti fl-użu. Barra minn hekk, jenħtieġ li l-użu tas-sistemi ta’ identifikazzjoni bijometrika remota “fil-ħin reali” fi spazji aċċessibbli għall-pubbliku għal finijiet ta' infurzar tal-liġi jiġi implimentat biss biex jikkonferma l-identità tal-individwu fil-mira b'mod speċifiku u jenħtieġ li jkun limitat għal dak li huwa strettament meħtieġ fir-rigward tal-perjodu ta' żmien, kif ukoll il-kamp ta' applikazzjoni ġeografiku u personali, filwaqt li jitqiesu b'mod partikolari l-evidenza jew l-indikazzjonijiet rigward it-theddid, il-vittmi jew l-awtur. Jenħtieġ li l-użu tas-sistema ta’ identifikazzjoni bijometrika remota fil-ħin reali fi spazji aċċessibbli għall-pubbliku jiġi awtorizzat biss jekk l-awtorità rilevanti tal-infurzar tal-liġi tkun lestiet valutazzjoni tal-impatt fuq id-drittijiet fundamentali u, sakemm ma jkunx previst mod ieħor f'dan ir-Regolament, tkun irreġistrat is-sistema fil-bażi tad-data kif stipulat f'dan ir-Regolament. Jenħtieġ li l-bażi ta' data ta' referenza tal-persuni tkun adattata għal kull każ ta' użu f'kull waħda mis-sitwazzjonijiet imsemmija hawn fuq.
(35)
Każde wykorzystanie systemu zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej w celu ścigania przestępstw powinno wymagać wyraźnego i szczególnego zezwolenia wydanego przez organ wymiaru sprawiedliwości lub niezależny organ administracyjny państwa członkowskiego, którego decyzje są wiążące. Takie zezwolenie należy co do zasady uzyskać przed wykorzystaniem systemu AI w celu zidentyfikowania osoby lub osób. Wyjątki od tej zasady powinny być dozwolone w należycie uzasadnionych sytuacjach nadzwyczajnych, to znaczy w sytuacjach, w których potrzeba wykorzystania danego systemu jest na tyle duża, że uzyskanie zezwolenia przed rozpoczęciem korzystania z tego systemu AI jest faktycznie i obiektywnie niemożliwe. W takich sytuacjach nadzwyczajnych wykorzystanie systemu AI powinno być ograniczone do bezwzględnie niezbędnego minimum i powinno podlegać odpowiednim zabezpieczeniom i warunkom określonym w prawie krajowym i sprecyzowanym przez sam organ ścigania w kontekście każdego przypadku nadzwyczajnego wykorzystania. Ponadto organ ścigania powinien w takich sytuacjach wystąpić o takie zezwolenie, podając powody, dla których nie był w stanie wystąpić o nie wcześniej, bez zbędnej zwłoki i nie później niż w ciągu 24 godzin. W przypadku odmowy udzielenia takiego zezwolenia wykorzystywanie systemów identyfikacji biometrycznej w czasie rzeczywistym powiązanych z tym zezwoleniem powinno zostać wstrzymane ze skutkiem natychmiastowym, a wszystkie dane związane z takim wykorzystaniem powinny zostać odrzucone i usunięte. Dane takie obejmują dane wejściowe uzyskane bezpośrednio przez system AI w trakcie korzystania z takiego systemu, a także związane z tym zezwoleniem rezultaty i wyniki uzyskane podczas tego wykorzystania. Powyższe nie powinno mieć zastosowania do danych wejściowych uzyskanych legalnie zgodnie z innymi przepisami prawa Unii lub prawa krajowego. W każdym przypadku żadnej decyzji wywołującej niepożądane skutki prawne dla osoby nie należy podejmować wyłącznie na podstawie wyników uzyskanych z systemu zdalnej identyfikacji biometrycznej.
(35)
Jenħtieġ li kull użu tas-sistema ta’ identifikazzjoni bijometrika remota “fil-ħin reali” fi spazji aċċessibbli għall-pubbliku għal finijiet ta' infurzar tal-liġi jkun soġġett għal awtorizzazzjoni espliċita u speċifika minn awtorità ġudizzjarja jew minn awtorità amministrattiva indipendenti ta' Stat Membru li d-deċiżjoni tagħha tkun vinkolanti. Jenħtieġ li tali awtorizzazzjoni fil-prinċipju tinkiseb qabel l-użu tas-sistema tal-IA bil-ħsieb li tiġi identifikata persuna jew persuni. Jenħtieġ li jitħallew isiru eċċezzjonijiet għal dik ir-regola f'sitwazzjonijiet debitament ġustifikati abbażi ta' urġenza, jiġifieri, f'sitwazzjonijiet meta l-ħtieġa li tintuża s-sistema kkonċernata tkun tali li tagħmilha effettivament u oġġettivament impossibbli li tinkiseb awtorizzazzjoni qabel ma jibda l-użu tas-sistema tal-IA. Jenħtieġ li f'sitwazzjonijiet ta' urġenza bħal dawn, l-użu tas-sistema tal-IA jkun ristrett għall-minimu assolut meħtieġ u jenħtieġ li jkun soġġett għal salvagwardji u għal kundizzjonijiet xierqa, kif determinati fil-liġi nazzjonali u speċifikati fil-kuntest ta' kull każ individwali ta' użu urġenti mill-awtorità tal-infurzar tal-liġi nnifisha. Barra minn hekk, jenħtieġ li f'sitwazzjonijiet bħal dawn l-awtorità tal-infurzar tal-liġi titlob tali awtorizzazzjoni filwaqt li tipprovdi r-raġunijiet għaliex ma setgħetx titlobha qabel, mingħajr dewmien żejjed u f'mhux aktar tard minn 24 siegħa. Jekk tali awtorizzazzjoni tiġi rrifjutata, jenħtieġ li l-użu ta' sistemi ta’ identifikazzjoni bijometrika f'ħin reali marbuta ma' dik l-awtorizzazzjoni jitwaqqaf b'effett immedjat u jenħtieġ li d-data kollha relatata ma' dan l-użu titwarrab u titħassar. Din id-data tinkludi data tal-input miksuba direttament minn sistema tal-IA waqt l-użu ta' tali sistema kif ukoll ir-riżultati u l-outputs tal-użu marbut ma' dik l-awtorizzazzjoni. Jenħtieġ li ma tinkludix input li jkun miksub legalment f'konformità ma' liġi tal-Unjoni jew nazzjonali oħra. Fi kwalunkwe każ, jenħtieġ li l-ebda deċiżjoni li tipproduċi effett legali negattiv fuq persuna ma tittieħed biss abbażi tal-output tas-sistema ta’ identifikazzjoni bijometrika remota.
(36)
Aby umożliwić odpowiednim organom nadzoru rynku i krajowym organom ochrony danych wykonywanie ich zadań zgodnie z wymogami ustanowionymi w niniejszym rozporządzeniu oraz w przepisach krajowych, należy powiadamiać je o każdym wykorzystaniu systemu identyfikacji biometrycznej w czasie rzeczywistym. Organy nadzoru rynku i krajowe organy ochrony danych, które otrzymały powiadomienie, powinny przedkładać Komisji roczne sprawozdanie na temat wykorzystania systemów identyfikacji biometrycznej w czasie rzeczywistym.
(36)
Sabiex iwettqu l-kompiti tagħhom f'konformità mar-rekwiżiti stipulati f'dan ir-Regolament kif ukoll fir-regoli nazzjonali, jenħtieġ li l-awtorità tas-sorveljanza tas-suq rilevanti u l-awtorità nazzjonali għall-protezzjoni tad-data jiġu nnotifikati b'kull użu tas-sistema ta’ identifikazzjoni bijometrika f'ħin reali. Jenħtieġ li l-awtoritajiet tas-sorveljanza tas-suq u l-awtoritajiet nazzjonali tal-protezzjoni tad-data li jkunu ġew innotifikati jippreżentaw rapport annwali lill-Kummissjoni dwar l-użu tas-sistemi ta’ identifikazzjoni bijometrika f'ħin reali.
(37)
Ponadto należy zapewnić, z zastosowaniem wyczerpujących ram określonych w niniejszym rozporządzeniu, aby takie wykorzystanie na terytorium państwa członkowskiego zgodnie z niniejszym rozporządzeniem było możliwe tylko wówczas, gdy – i w zakresie, w jakim – dane państwo członkowskie postanowiło wyraźnie przewidzieć możliwość zezwolenia na takie wykorzystanie w swoich szczegółowych przepisach prawa krajowego. W związku z tym państwa członkowskie mogą na mocy niniejszego rozporządzenia w ogóle nie przewidywać takiej możliwości lub przewidzieć ją jedynie w odniesieniu do niektórych celów mogących uzasadniać dozwolone wykorzystanie, określonych w niniejszym rozporządzeniu. Komisja powinna zostać powiadomiona o takich przepisach krajowych w terminie 30 dni od ich przyjęcia.
(37)
Barra minn hekk, jixraq li, fi ħdan il-qafas eżawrjenti stabbilit b'dan ir-Regolament, jenħtieġ li jkun previst li dan l-użu fit-territorju ta' Stat Membru f'konformità ma' dan ir-Regolament ikun possibbli biss meta u sa fejn l-Istat Membru kkonċernat ikun iddeċieda li jipprevedi b'mod espliċitu l-possibbiltà li jawtorizza dan l-użu fir-regoli dettaljati tiegħu tal-liġi nazzjonali. Għaldaqstant, l-Istati Membri huma liberi skont dan ir-Regolament li ma jipprevedu l-ebda possibbiltà bħal din jew li jipprevedu biss din il-possibbiltà fir-rigward ta' wħud mill-objettivi li jistgħu jiġġustifikaw l-użu awtorizzat identifikat f'dan ir-Regolament. Jenħtieġ li tali regoli nazzjonali jiġu nnotifikati lill-Kummissjoni fi żmien 30 jum mill-adozzjoni tagħhom.
(38)
Wykorzystanie systemów AI do zdalnej identyfikacji biometrycznej osób fizycznych w czasie rzeczywistym w przestrzeni publicznej w celu ścigania przestępstw nieuchronnie wiąże się z przetwarzaniem danych biometrycznych. Przepisy niniejszego rozporządzenia zakazujące, z zastrzeżeniem pewnych wyjątków, takiego wykorzystywania, a których podstawę stanowi art. 16 TFUE, powinny mieć zastosowanie jako lex specialis w odniesieniu do przepisów dotyczących przetwarzania danych biometrycznych zawartych w art. 10 dyrektywy (UE) 2016/680, regulując tym samym w sposób wyczerpujący takie wykorzystywanie i przetwarzanie wspomnianych danych biometrycznych. W związku z tym takie wykorzystywanie i przetwarzanie powinno być możliwe wyłącznie w zakresie, w jakim jest zgodne z ramami określonymi w niniejszym rozporządzeniu, przy czym wykorzystywanie takich systemów i przetwarzanie takich danych przez właściwe organy – gdy działają w celu ścigania przestępstw – w oparciu o przesłanki wymienione w art. 10 dyrektywy (UE) 2016/680 może mieć miejsce wyłącznie w granicach wyznaczonych przez te ramy. W tym kontekście niniejsze rozporządzenie nie ma na celu ustanowienia podstawy prawnej do przetwarzania danych osobowych na podstawie art. 8 dyrektywy (UE) 2016/680. Wykorzystywanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów innych niż ściganie przestępstw, w tym przez właściwe organy, nie powinno być jednak objęte szczególnymi ramami dotyczącymi takiego wykorzystywania w celu ścigania przestępstw, określonymi w niniejszym rozporządzeniu. Takie wykorzystywanie do celów innych niż ściganie przestępstw nie powinno zatem podlegać wymogowi uzyskania zezwolenia na mocy niniejszego rozporządzenia ani obowiązującym szczegółowym przepisom prawa krajowego, które mogą stanowić podstawę ubiegania się o takie zezwolenie.
(38)
L-użu tas-sistemi tal-IA għall-identifikazzjoni bijometrika remota fil-ħin reali ta' persuni fiżiċi fi spazji aċċessibbli għall-pubbliku għal finijiet ta' infurzar tal-liġi bilfors jinvolvi l-ipproċessar ta' data bijometrika. Ir-regoli ta' dan ir-Regolament li jipprojbixxu dan l-użu, soġġetta għal ċerti eċċezzjonijiet, u li huma bbażati fuq l-Artikolu 16 TFUE, jenħtieġ japplikaw bħala lex specialis fir-rigward tar-regoli dwar l-ipproċessar tad-data bijometrika li jinsabu fl-Artikolu 10 tad-Direttiva (UE) 2016/680, u b'hekk jirregolaw dan l-użu u l-ipproċessar tad-data bijometrika involuta b'mod eżawrjenti. Għalhekk, jenħtieġ li dawn l-użu u l-ipproċessar ikunu possibbli biss sa fejn ikun kompatibbli mal-qafas stabbilit b'dan ir-Regolament, mingħajr ma jkun hemm ambitu, barra minn dak il-qafas, għall-awtoritajiet kompetenti, meta jaġixxu għall-finijiet ta' infurzar tal-liġi, li jużaw dawn is-sistemi u jipproċessaw din id-data b'rabta magħhom abbażi tar-raġunijiet elenkati fl-Artikolu 10 tad-Direttiva (UE) 2016/680. F'dak il-kuntest, dan ir-Regolament mhux maħsub biex jipprovdi l-bażi legali għall-ipproċessar ta' data personali skont l-Artikolu 8 tad-Direttiva (UE) 2016/680. Madankollu, jenħtieġ li l-użu tas-sistemi ta’ identifikazzjoni bijometrika remota fil-ħin reali fi spazji aċċessibbli għall-pubbliku għal finijiet oħra għajr l-infurzar tal-liġi, inkluż minn awtoritajiet kompetenti, ma jkunx kopert mill-qafas speċifiku rigward dan l-użu għall-finijiet ta' infurzar tal-liġi stabbilit b'dan ir-Regolament. Għalhekk, jenħtieġ li dan l-użu għal finijiet oħra għajr l-infurzar tal-liġi ma jkunx soġġett għar-rekwiżit ta' awtorizzazzjoni skont dan ir-Regolament u r-regoli dettaljati applikabbli tal-liġi nazzjonali li jistgħu jagħtu effett lil dik l-awtorizzazzjoni.
(39)
Wszelkie przetwarzanie danych biometrycznych i innych danych osobowych związane z wykorzystaniem systemów AI do identyfikacji biometrycznej, inne niż w związku z wykorzystywaniem systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej w celu ścigania przestępstw zgodnie z przepisami niniejszego rozporządzenia, powinno pozostawać zgodne z wymogami wynikającymi z art. 10 dyrektywy (UE) 2016/680. Do celów innych niż ściganie przestępstw art. 9 ust. 1 rozporządzenia (UE) 2016/679 i art. 10 ust. 1 rozporządzenia (UE) 2018/1725 zakazują przetwarzania danych biometrycznych z uwzględnieniem ograniczonej liczby wyjątków określonych w tych artykułach. W ramach stosowania art. 9 ust. 1 rozporządzenia (UE) 2016/679 wykorzystywanie zdalnej identyfikacji biometrycznej do celów innych niż ściganie przestępstw było już przedmiotem decyzji zakazujących takiego wykorzystywania, wydawanych przez krajowe organy ochrony danych.
(39)
Jenħtieġ li kull ipproċessar tad-data bijometrika u ta' data personali oħra involuta fl-użu tas-sistemi tal-IA għall-identifikazzjoni bijometrika, għajr b'rabta mal-użu tas-sistemi ta’ identifikazzjoni bijometrika remota “fil-ħin reali” fi spazji aċċessibbli għall-pubbliku għal finijiet ta' infurzar tal-liġi kif regolat b'dan ir-Regolament, jibqa' jikkonforma mar-rekwiżiti kollha li jirriżultaw mill-Artikolu 10 tad-Direttiva (UE) 2016/680. Għal finijiet għajr l-infurzar tal-liġi, l-Artikolu 9(1) tar-Regolament (UE) 2016/679 u l-Artikolu 10(1) tar-Regolament (UE) 2018/1725 jipprojbixxu l-ipproċessar ta' data bijometrika soġġetta għal eċċezzjonijiet limitati kif previst f'dawk l-Artikoli. Fl-applikazzjoni tal-Artikolu 9(1) tar-Regolament (UE) 2016/679, l-użu tal-identifikazzjoni bijometrika remota għal finijiet oħra għajr l-infurzar tal-liġi diġà kien soġġett għal deċiżjonijiet ta' projbizzjoni mill-awtoritajiet nazzjonali tal-protezzjoni tad-data.
(40)
Zgodnie z art. 6a Protokołu nr 21 w sprawie stanowiska Zjednoczonego Królestwa i Irlandii w odniesieniu do przestrzeni wolności, bezpieczeństwa i sprawiedliwości, załączonego do TUE i TFUE, Irlandia nie jest związana przepisami ustanowionymi w art. 5 ust. 1 akapit pierwszy lit. g) – w takim zakresie, w jakim dotyczy on wykorzystania systemów kategoryzacji biometrycznej w odniesieniu do działań w obszarze współpracy policyjnej i współpracy wymiarów sprawiedliwości w sprawach karnych, w art. 5 ust. 1 akapit pierwszy lit. d) – w takim zakresie, w jakim dotyczy on wykorzystania systemów AI objętych tym przepisem, w art. 5 ust. 1 akapit pierwszy lit. h), art. 5 ust. 2–6 i art. 26 ust. 10 niniejszego rozporządzenia przyjętymi na podstawie art. 16 TFUE, dotyczącymi przetwarzania danych osobowych przez państwa członkowskie w wykonywaniu działań wchodzących w zakres stosowania części trzeciej tytuł V rozdziały 4 lub 5 TFUE, jeśli Irlandia nie jest związana przepisami Unii w dziedzinie współpracy wymiarów sprawiedliwości w sprawach karnych lub współpracy policyjnej, w ramach której należy zapewnić zgodność z przepisami ustanowionymi na podstawie art. 16 TFUE.
(40)
F'konformità mal-Artikolu 6a tal-Protokoll Nru 21 dwar il-pożizzjoni tar-Renju Unit u tal-Irlanda fir-rigward tal-ispazju ta' libertà, sigurtà u ġustizzja, kif anness mat-TUE u mat-TFUE, l-Irlanda mhix marbuta bir-regoli stabbiliti fl-Artikolu 5(1), l-ewwel subparagrafu, il-punt (g), sa fejn japplika għall-użu ta' sistemi ta' kategorizzazzjoni bijometrika għal attivitajiet fil-qasam tal-kooperazzjoni tal-pulizija u l-kooperazzjoni ġudizzjarja f'materji kriminali, l-Artikolu 5(1), l-ewwel subparagrafu, il-punt (d), sa fejn japplika għall-użu tas-sistemi tal-IA koperti minn dik id-dispożizzjoni, l-Artikolu 5(1), l-ewwel subparagrafu, il-punt (h), l-Artikolu 5(2) sa (6) u l-Artikolu 26(10) ta' dan ir-Regolament adottat abbażi tal-Artikolu 16 TFUE relatati mal-ipproċessar ta' data personali mill-Istati Membri meta jwettqu attivitajiet li huma fil-kamp ta' applikazzjoni tal-Kapitolu 4 jew tal-Kapitolu 5 tat-Titolu V tal-Parti Tlieta TFUE, meta l-Irlanda mhix marbuta bir-regoli li jirregolaw il-forom ta' kooperazzjoni ġudizzjarja f'materji kriminali jew ta' kooperazzjoni tal-pulizija li jeħtieġu konformità mad-dispożizzjonijiet stabbiliti abbażi tal-Artikolu 16 TFUE.
(41)
Zgodnie z art. 2 i 2a Protokołu nr 22 w sprawie stanowiska Danii, załączonego do TUE i TFUE, Dania nie jest związana przepisami określonymi w art. 5 ust. 1 akapit pierwszy lit. g) – w takim zakresie, w jakim dotyczy on wykorzystania systemów kategoryzacji biometrycznej w odniesieniu do działań w obszarze współpracy policyjnej i współpracy wymiarów sprawiedliwości w sprawach karnych, w art. 5 ust. 1 akapit pierwszy lit. d) – w takim zakresie, w jakim dotyczy on wykorzystania systemów AI objętych tym przepisem, w art. 5 ust. 1 lit. h), art. 5 ust. 2–6 i art. 26 ust. 10 niniejszego rozporządzenia przyjętymi na podstawie art. 16 TFUE, które dotyczą przetwarzania danych osobowych przez państwa członkowskie w wykonywaniu działań wchodzących w zakres zastosowania części trzeciej tytuł V rozdziały 4 lub 5 TFUE, ani przepisy te nie mają do niej zastosowania.
(41)
F'konformità mal-Artikoli 2 u 2a tal-Protokoll Nru 22 dwar il-pożizzjoni tad-Danimarka, kif anness mat-TUE u mat-TFUE, id-Danimarka mhix marbuta bir-regoli stabbiliti fl-Artikolu 5(1), l-ewwel subparagrafu, il-punt (g) sa fejn japplika għall-użu ta' sistemi ta' kategorizzazzjoni bijometrika għal attivitajiet fil-qasam tal-kooperazzjoni tal-pulizija u l-kooperazzjoni ġudizzjarja f'materji kriminali, l-Artikolu 5(1), l-ewwel subparagrafu, il-punt (d), sa fejn japplikaw għall-użu tas-sistemi tal-IA koperti minn dik id-dispożizzjoni, l-Artikolu 5(1), l-ewwel subparagrafu, il-punt (h), (2) sa (6) u l-Artikolu 26(10) ta' dan ir-Regolament adottat abbażi tal-Artikolu 16 TFUE, u lanqas mhi soġġetta għall-applikazzjoni tagħhom, relatati mal-ipproċessar tad-data personali mill-Istati Membri meta jwettqu l-attivitajiet li huma fil-kamp ta' applikazzjoni tal-Kapitolu 4 jew tal-Kapitolu 5 tat-Titolu V tal-Parti Tlieta TFUE.
(42)
Zgodnie z domniemaniem niewinności osoby fizyczne w Unii powinny być zawsze oceniane na podstawie ich faktycznego zachowania. Osoby fizyczne nigdy nie powinny być oceniane na podstawie zachowań prognozowanych przez AI wyłącznie na podstawie poddania ich profilowaniu, na podstawie ich cech osobowości lub cech charakterystycznych, takich jak narodowość, miejsce urodzenia, miejsce zamieszkania, liczba dzieci, poziom zadłużenia lub rodzaj samochodu, bez uzasadnionego podejrzenia, że osoba ta uczestniczy w działalności przestępczej w oparciu o obiektywne możliwe do zweryfikowania fakty i bez ich oceny przez człowieka. W związku z tym należy zakazać ocen ryzyka przeprowadzanych w odniesieniu do osób fizycznych w celu oceny prawdopodobieństwa popełnienia przez te osoby przestępstwa lub przewidywania wystąpienia faktycznego lub potencjalnego przestępstwa wyłącznie na podstawie przeprowadzonego wobec nich profilowania lub oceny ich cech osobistych i charakterystycznych. W każdym razie zakaz ten nie odnosi się do ani nie dotyczy analizy ryzyka, która nie opiera się na profilowaniu osób fizycznych ani na cechach osobistych i charakterystycznych osób fizycznych, w takich przypadkach jak wykorzystywanie przez systemy AI analizy ryzyka w celu oceny prawdopodobieństwa nadużyć finansowych przez przedsiębiorstwa na podstawie podejrzanych transakcji lub narzędzi analizy ryzyka w celu przewidywania przez organy celne prawdopodobnej lokalizacji środków odurzających lub nielegalnych towarów, na przykład na podstawie znanych szlaków przemytu.
(42)
Jenħtieġ li f'konformità mal-preżunzjoni tal-innoċenza, il-persuni fiżiċi fl-Unjoni dejjem jiġu ġġudikati fuq l-imġiba reali tagħhom. Jenħtieġ li l-persuni fiżiċi qatt ma jiġu ġġudikati fuq imġiba prevista mill-IA abbażi biss tat-tfassil ta' profili, tal-kwalitajiet u l-karatteristiċi tal-personalità tagħhom, bħan-nazzjonalità, il-post tat-twelid, il-post tar-residenza, l-għadd ta' tfal, il-livell ta' dejn jew it-tip ta' karozza, mingħajr suspett raġonevoli li dik il-persuna tkun involuta f'attività kriminali abbażi ta' fatti verifikabbli oġġettivi u mingħajr il-valutazzjoni ta' tali fatti mill-bniedem. Għalhekk, jenħtieġ li jiġu pprojbiti l-valutazzjonijiet tar-riskju mwettqa fir-rigward ta' persuni fiżiċi sabiex tiġi vvalutata l-probabbiltà li jwettqu offiża jew biex titbassar l-okkorrenza ta' reat kriminali attwali jew potenzjali abbażi biss tat-tfassil ta' profili tagħhom jew tal-valutazzjoni tal-kwalitajiet u l-karatteristiċi tal-personalità tagħhom. Fi kwalunkwe każ, dik il-projbizzjoni ma tirreferix għal u ma ssemmix analitika tar-riskju li mhijiex ibbażata fuq it-tfassil ta' profili ta' individwi jew fuq il-kwalitajiet tal-personalità u l-karatteristiċi ta' individwi, bħal sistemi tal-IA li jużaw analitika tar-riskju biex jivvalutaw l-probabbiltà ta' frodi finanzjarja minn impriżi abbażi ta' tranżazzjonijiet suspettużi jew għodod analitiċi tar-riskju li jipprevedu l-probabbiltà ta' lokalizzazzjoni ta' narkotiċi jew oġġetti illeċiti mill-awtoritajiet doganali, pereżempju abbażi ta' rotot ta' traffikar magħrufa.
(43)
Należy zakazać wprowadzania do obrotu, oddawania do użytku w tym konkretnym celu lub wykorzystywania systemów AI, które tworzą lub rozbudowują bazy danych służące rozpoznawaniu twarzy poprzez nieukierunkowane pozyskiwanie (ang. untargeted scraping) wizerunków twarzy z internetu lub nagrań z telewizji przemysłowej, ponieważ praktyka ta zwiększa poczucie masowego nadzoru i może prowadzić do poważnych naruszeń praw podstawowych, w tym prawa do prywatności.
(43)
Jenħtieġ li l-introduzzjoni fis-suq, it-tqegħid fis-servizz għal dak l-għan speċifiku, jew l-użu ta' sistemi tal-IA li joħolqu jew jespandu bażijiet tad-data tar-rikonoxximent tal-wiċċ permezz ta' scraping mhux immirat tal-immaġnijiet tal-wiċċ mill-internet jew mill-filmati tas-CCTV jiġu pprojbiti, peress li dik il-prattika żżid mas-sens ta' sorveljanza tal-massa u tista' twassal għal ksur serju tad-drittijiet fundamentali, inkluż id-dritt għall-privatezza.
(44)
Istnieją poważne obawy co do podstaw naukowych systemów AI mających na celu rozpoznawanie emocji lub wyciąganie wniosków na temat emocji, zwłaszcza że wyrażanie emocji znacznie się różni w zależności od kultur i sytuacji, a nawet w przypadku pojedynczej osoby. Wśród głównych wad takich systemów znajdują się ograniczona wiarygodność, nieprecyzyjność i ograniczona możliwość uogólnienia. W związku z tym systemy AI rozpoznające emocje lub zamiary osób fizycznych lub wyciągające wnioski na temat emocji lub zamiarów na podstawie danych biometrycznych tych osób mogą prowadzić do dyskryminacyjnych wyników i mogą naruszać prawa i wolności zainteresowanych osób. Biorąc pod uwagę brak równowagi sił w kontekście pracy lub edukacji, w połączeniu z inwazyjnym charakterem tych systemów, systemy takie mogą prowadzić do krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub całych ich grup. W związku z tym należy zakazać wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemów AI przeznaczonych do wykrywania stanu emocjonalnego osób fizycznych w sytuacjach związanych z miejscem pracy i edukacją. Zakaz ten nie powinien obejmować systemów AI wprowadzanych do obrotu wyłącznie ze względów medycznych lub bezpieczeństwa, takich jak systemy przeznaczone do użytku terapeutycznego.
(44)
Hemm tħassib serju dwar il-bażi xjentifika tas-sistemi tal-IA li għandhom l-għan li jidentifikaw jew jinferixxu l-emozzjonijiet, b'mod partikolari peress li l-espressjoni tal-emozzjonijiet tvarja b'mod konsiderevoli bejn il-kulturi u s-sitwazzjonijiet, u anke f'individwu wieħed. Fost in-nuqqasijiet ewlenin ta' sistemi bħal dawn hemm l-affidabbiltà limitata, in-nuqqas ta' speċifiċità u l-ġeneralizzabbiltà limitata. Għalhekk, is-sistemi tal-IA li jidentifikaw jew jinferixxu emozzjonijiet jew intenzjonijiet ta' persuni fiżiċi abbażi tad-data bijometrika tagħhom jistgħu jwasslu għal eżiti diskriminatorji u jistgħu jkunu intrużivi għad-drittijiet u l-libertajiet tal-persuni kkonċernati. Meta jitqies l-iżbilanċ tal-poter fil-kuntest tax-xogħol jew tal-edukazzjoni, flimkien man-natura intrużiva ta' dawn is-sistemi, tali sistemi jistgħu jwasslu għal trattament detrimentali jew sfavorevoli ta' ċerti persuni fiżiċi jew gruppi sħaħ tagħhom. Għalhekk, jenħtieġ li l-introduzzjoni fis-suq, it-tqegħid fis-servizz, jew l-użu ta' sistemi tal-IA maħsuba biex jintużaw biex jiġi identifikat l-istat emozzjonali ta' individwi f'sitwazzjonijiet relatati mal-post tax-xogħol u mal-edukazzjoni jiġu pprojbiti. Jenħtieġ li dik il-projbizzjoni ma tkoprix is-sistemi tal-IA introdotti fis-suq strettament għal raġunijiet mediċi jew ta' sikurezza, bħal sistemi maħsuba għal użu terapewtiku.
(45)
Niniejsze rozporządzenie nie powinno mieć wpływu na praktyki, które są zakazane na mocy prawa Unii, w tym prawa o ochronie danych, prawa o niedyskryminacji, prawa o ochronie konsumentów i prawa konkurencji.
(45)
Jenħtieġ li l-prattiki li huma pprojbiti mil-liġi tal-Unjoni, inkluż il-liġi dwar il-protezzjoni tad-data, il-liġi dwar in-nondiskriminazzjoni, il-liġi dwar il-protezzjoni tal-konsumatur, u l-liġi tal-kompetizzjoni, ma jiġux affettwati minn dan ir-Regolament.
(46)
Systemy AI wysokiego ryzyka powinny być wprowadzane do obrotu w Unii, oddawane do użytku lub wykorzystywane wyłącznie wówczas, gdy są zgodne z określonymi obowiązkowymi wymogami. Wymogi te powinny zapewniać, aby systemy AI wysokiego ryzyka dostępne w Unii lub takie, których wyniki są w inny sposób wykorzystywane w Unii, nie stwarzały niedopuszczalnego ryzyka dla istotnych interesów publicznych Unii uznanych w prawie Unii i przez to prawo chronionych. W oparciu o nowe ramy prawne, jak wyjaśniono w zawiadomieniu Komisji „Niebieski przewodnik – wdrażanie unijnych przepisów dotyczących produktów 2022” (20), ogólna zasada stanowi, że do jednego produktu można stosować więcej niż jeden akt prawny unijnego prawodawstwa harmonizacyjnego, taki jak rozporządzenie Parlamentu Europejskiego i Rady (UE) 2017/745 (21), rozporządzenie Parlamentu Europejskiego i Rady (UE) 2017/746 (22) lub dyrektywa 2006/42/WE Parlamentu Europejskiego i Rady (23), ponieważ udostępnianie lub oddawanie do użytku może mieć miejsce tylko wtedy, gdy produkt jest zgodny z całością obowiązującego unijnego prawodawstwa harmonizacyjnego. Aby zapewnić spójność i uniknąć niepotrzebnych obciążeń administracyjnych lub kosztów, dostawcy produktu, który zawiera co najmniej jeden system AI wysokiego ryzyka, do którego stosuje się wymogi niniejszego rozporządzenia oraz unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku do niniejszego rozporządzenia, powinni mieć swobodę w zakresie decyzji operacyjnych dotyczących sposobu zapewnienia w optymalny sposób zgodności produktu zawierającego co najmniej jeden system AI ze wszystkimi mającymi zastosowanie wymogami unijnego prawodawstwa harmonizacyjnego. Jako systemy AI wysokiego ryzyka należy uznawać jedynie te systemy AI, które mają znaczący szkodliwy wpływ na zdrowie, bezpieczeństwo i prawa podstawowe osób w Unii, przy czym takie ograniczenie powinno minimalizować wszelkie potencjalne przeszkody w handlu międzynarodowym.
(46)
Jenħtieġ li s-sistemi tal-IA b'riskju għoli jiġu introdotti fis-suq tal-Unjoni, jitqiegħdu fis-servizz jew jintużaw biss jekk ikunu konformi ma' ċerti rekwiżiti obbligatorji. Jenħtieġ li dawk ir-rekwiżiti jiżguraw li s-sistemi tal-IA b'riskju għoli disponibbli fl-Unjoni jew li l-output tagħhom jintuża b'xi mod ieħor fl-Unjoni ma jkunux joħolqu riskji inaċċettabbli għal interessi pubbliċi importanti tal-Unjoni kif rikonoxxuti u mħarsa bil-liġi tal-Unjoni. Abbażi tal-Qafas Leġiżlattiv Ġdid, kif iċċarat fl-avviż tal-Kummissjoni “‘Il-Gwida Blu’ dwar l-implimentazzjoni tar-regoli tal-prodotti tal-UE tal-2022” (20), ir-regola ġenerali hija li aktar minn att legali wieħed tal-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni, bħar-Regolamenti (UE) 2017/745 (21) u (UE) 2017/746 (22) tal-Parlament Ewropew u tal-Kunsill jew id-Direttiva 2006/42/KE tal-Parlament Ewropew u tal-Kunsill (23), jista' jkun applikabbli għal prodott wieħed, peress li l-introduzzjoni fis-suq jew it-tqegħid fis-servizz jista' jseħħ biss meta l-prodott jikkonforma mal-leġiżlazzjoni applikabbli kollha tal-Unjoni dwar l-armonizzazzjoni. Sabiex tiġi żgurata l-konsistenza u jiġu evitati piżijiet jew kostijiet amministrattivi bla bżonn, jenħtieġ li l-fornituri ta' prodott li jkun fih sistemi ta' IA b'riskju għoli waħda jew aktar, li għalihom japplikaw ir-rekwiżiti ta' dan ir-Regolament u tal-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni elenkati f'anness ta' dan ir-Regolament, ikollhom flessibbiltà fir-rigward tad-deċiżjonijiet operazzjonali dwar kif tiġi żgurata l-konformità ta' prodott li jkun fih sistema tal-IA waħda jew aktar mar-rekwiżiti applikabbli kollha tal-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni bl-aħjar mod. Jenħtieġ li s-sistemi tal-IA identifikati bħala b'riskju għoli jkunu limitati għal dawk li għandhom impatt dannuż sinifikanti fuq is-saħħa, is-sikurezza u d-drittijiet fundamentali tal-persuni fl-Unjoni u din il-limitazzjoni jenħtieġ li timminimizza kwalunkwe restrizzjoni potenzjali fuq il-kummerċ internazzjonali.
(47)
Systemy AI mogą mieć niepożądany wpływ na zdrowie i bezpieczeństwo osób, w szczególności w przypadku gdy takie systemy funkcjonują jako związane z bezpieczeństwem elementy produktów. Zgodnie z celami unijnego prawodawstwa harmonizacyjnego, polegającymi na ułatwieniu swobodnego przepływu produktów na rynku wewnętrznym oraz zapewnieniu, aby na rynek trafiały wyłącznie produkty bezpieczne i zgodne w pozostałym zakresie, istotne jest odpowiednie zapobieganie ryzyku dla bezpieczeństwa, które mogą być powodowane przez produkt jako całość ze względu na jego elementy cyfrowe, w tym systemy AI, a także ograniczanie tych zagrożeń. Na przykład coraz bardziej autonomiczne roboty, zarówno w kontekście działalności produkcyjnej, jak i świadczenia pomocy oraz opieki osobistej, powinny być w stanie bezpiecznie funkcjonować i wykonywać swoje funkcje w złożonych środowiskach. Podobnie w sektorze opieki zdrowotnej, w którym chodzi o szczególnie wysoką stawkę, jaką jest życie i zdrowie, coraz bardziej zaawansowane systemy diagnostyczne i systemy wspomagające decyzje podejmowane przez człowieka powinny być niezawodne i dokładne.
(47)
Is-sistemi tal-IA jista' jkollhom impatt negattiv fuq is-saħħa u s-sikurezza tal-persuni, b'mod partikolari meta dawn is-sistemi jaħdmu bħala komponenti tas-sikurezza tal-prodotti. B'mod konsistenti mal-objettivi tal-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni biex jiġi ffaċilitat il-moviment liberu tal-prodotti fis-suq intern u biex ikun żgurat li prodotti sikuri u konformi b'xi mod ieħor biss jitqiegħdu fis-suq, hu importanti li jiġu evitati u mitigati kif xieraq ir-riskji għas-sikurezza li jistgħu jiġu ġġenerati minn prodott sħiħ minħabba l-komponenti diġitali tiegħu, inkluż sistemi tal-IA. Pereżempju, jenħtieġ li r-robots dejjem aktar awtonomi, sew fil-kuntest tal-manifattura kif ukoll fil-kuntest tal-assistenza u l-kura personali, ikunu jistgħu joperaw u jwettqu l-funzjonijiet tagħhom mingħajr periklu f'ambjenti kumplessi. Bl-istess mod, fis-settur tas-saħħa fejn l-interessi għall-ħajja u għas-saħħa huma partikolarment għoljin, jenħtieġ li s-sistemi dijanjostiċi dejjem aktar sofistikati u s-sistemi li jappoġġaw id-deċiżjonijiet umani jkunu affidabbli u preċiżi.
(48)
Przy klasyfikowaniu systemu AI jako systemu wysokiego ryzyka zasadnicze znaczenie ma to, w jakim stopniu system AI wywiera niepożądany wpływ na prawa podstawowe chronione na mocy Karty. Do praw tych należą prawo do godności człowieka, poszanowanie życia prywatnego i rodzinnego, ochrona danych osobowych, wolność wypowiedzi i informacji, wolność zgromadzania się i stowarzyszania się oraz prawo do niedyskryminacji, prawo do edukacji, ochrona konsumentów, prawa pracownicze, prawa osób z niepełnosprawnościami, równość płci, prawa własności intelektualnej, prawo do skutecznego środka prawnego i dostępu do bezstronnego sądu, prawo do obrony i domniemania niewinności, a także prawo do dobrej administracji. Oprócz tych praw należy podkreślić, że dzieciom przysługują szczególne prawa zapisane w art. 24 Karty oraz w Konwencji ONZ o prawach dziecka, szerzej rozwinięte w komentarzu ogólnym nr 25 w sprawie praw dziecka w środowisku cyfrowym zamieszczony w Konwencji ONZ o prawach dziecka, które to prawa wymagają uwzględnienia szczególnej wrażliwości dzieci oraz zapewnienia im takiej ochrony i opieki, jaka jest konieczna dla ich dobra. Podstawowe prawo do wysokiego poziomu ochrony środowiska zapisane w Karcie i wdrażane w strategiach politycznych Unii również należy uwzględnić w ocenie dotkliwości szkody, jaką może wyrządzić system AI, w tym w odniesieniu do zdrowia i bezpieczeństwa osób.
(48)
Il-firxa tal-impatt negattiv ikkawżat mis-sistema tal-IA fuq id-drittijiet fundamentali protetti mill-Karta għandha rilevanza partikolari meta sistema tal-IA tkun qed tiġi klassifikata li għandha riskju għoli. Dawk id-drittijiet jinkludu d-dritt għad-dinjità tal-bniedem, ir-rispett għall-ħajja privata u tal-familja, il-protezzjoni tad-data personali, il-libertà tal-espressjoni u tal-informazzjoni, il-libertà ta' għaqda u ta' assoċjazzjoni, id-dritt għan-nondiskriminazzjoni, id-dritt għall-edukazzjoni, il-protezzjoni tal-konsumatur, id-drittijiet tal-ħaddiema, id-drittijiet tal-persuni b'diżabbiltà, l-ugwaljanza bejn il-ġeneri, id-drittijiet ta' proprjetà intellettwali, id-dritt għal rimedju effettiv u għal proċess imparzjali, id-dritt għad-difiża u l-preżunzjoni ta' innoċenza, u d-dritt għal amministrazzjoni tajba. Minbarra dawk id-drittijiet, hu importanti li jiġi enfasizzat il-fatt li t-tfal għandhom drittijiet speċifiċi kif minqux fl-Artikolu 24 tal-Karta u fil-Konvenzjoni tan-Nazzjonijiet Uniti dwar id-Drittijiet tat-Tfal, żviluppata aktar fil-Kumment Ġenerali Nru 25 tal-UNCRC fir-rigward tal-ambjent diġitali, li t-tnejn li huma jirrikjedu kunsiderazzjoni tal-vulnerabbiltajiet tat-tfal u l-għoti ta' tali protezzjoni u kura kif meħtieġ għall-benesseri tagħhom. Jenħtieġ li d-dritt fundamentali għal livell għoli ta' protezzjoni ambjentali, kif minqux fil-Karta u implimentat fil-politiki tal-Unjoni, jitqies ukoll meta tkun qed tiġi vvalutata s-severità tad-dannu li sistema tal-IA tista' tikkawża, inkluż fir-rigward tas-saħħa u s-sikurezza tal-persuni.
(49)
W odniesieniu do systemów AI wysokiego ryzyka, które są związanymi z bezpieczeństwem elementami produktów lub systemów objętych zakresem stosowania rozporządzenia Parlamentu Europejskiego i Rady (WE) nr 300/2008 (24), rozporządzenia Parlamentu Europejskiego i Rady (UE) nr 167/2013 (25), rozporządzenia Parlamentu Europejskiego i Rady (UE) nr 168/2013 (26), dyrektywy Parlamentu Europejskiego i Rady 2014/90/UE (27), dyrektywy Parlamentu Europejskiego i Rady (UE) 2016/797 (28), rozporządzenia Parlamentu Europejskiego i Rady (UE) 2018/858 (29), rozporządzenia Parlamentu Europejskiego i Rady (UE) 2018/1139 (30) oraz rozporządzenia Parlamentu Europejskiego i Rady (UE) 2019/2144 (31) lub które same są takimi produktami lub systemami, wskazane jest dokonanie zmian tych aktów w celu zapewnienia, aby Komisja, przyjmując wszelkie stosowne akty delegowane lub wykonawcze na podstawie wspomnianych aktów, uwzględniła – w oparciu o techniczną i regulacyjną charakterystykę każdego sektora oraz bez ingerowania w istniejące mechanizmy zarządzania, oceny zgodności i egzekwowania oraz w powołane na mocy tych aktów organy – obowiązkowe wymogi dotyczące systemów AI wysokiego ryzyka ustanowione w niniejszym rozporządzeniu.
(49)
Fir-rigward tas-sistemi tal-IA b'riskju għoli li huma komponenti tas-sikurezza tal-prodotti jew tas-sistemi, jew li huma stess huma prodotti jew sistemi li jaqgħu fil-kamp ta' applikazzjoni tar-Regolament (KE) Nru 300/2008 tal-Parlament Ewropew u tal-Kunsill (24), ir-Regolament (UE) Nru 167/2013 tal-Parlament Ewropew u tal-Kunsill (25), ir-Regolament (UE) Nru 168/2013 tal-Parlament Ewropew u tal-Kunsill (26), id-Direttiva 2014/90/UE tal-Parlament Ewropew u tal-Kunsill (27), id-Direttiva (UE) 2016/797 tal-Parlament Ewropew u tal-Kunsill (28), ir-Regolament (UE) 2018/858 tal-Parlament Ewropew u tal-Kunsill (29), ir-Regolament (UE) 2018/1139 tal-Parlament Ewropew u tal-Kunsill (30), u r-Regolament (UE) 2019/2144 tal-Parlament Ewropew u tal-Kunsill (31), huwa xieraq li dawk l-atti jiġu emendati biex jiġi żgurat li l-Kummissjoni tqis, abbażi tal-ispeċifiċitajiet tekniċi u regolatorji ta' kull settur, u mingħajr ma tinterferixxi mal-governanza, il-valutazzjoni tal-konformità u l-mekkaniżmi ta' infurzar eżistenti u l-awtoritajiet stabbiliti fih, ir-rekwiżiti obbligatorji għas-sistemi tal-IA b'riskju għoli stabbiliti f'dan ir-Regolament meta tadotta kwalunkwe att delegat jew ta' implimentazzjoni rilevanti abbażi ta' dawk l-atti.
(50)
W przypadku systemów AI, które są związanymi z bezpieczeństwem elementami produktów objętych zakresem stosowania niektórych przepisów unijnego prawodawstwa harmonizacyjnego wymienionych w załączniku do niemniejszego rozporządzenia lub które same są takimi produktami, systemy te należy klasyfikować jako systemy wysokiego ryzyka zgodnie z niniejszym rozporządzeniem, jeżeli dany produkt jest poddawany procedurze oceny zgodności przez jednostkę oceniającą zgodność będącą stroną trzecią na podstawie tych stosownych przepisów unijnego prawodawstwa harmonizacyjnego. W szczególności produktami takimi są maszyny, zabawki, dźwigi, urządzenia i systemy ochronne przeznaczone do użytku w atmosferze potencjalnie wybuchowej, urządzenia radiowe, urządzenia ciśnieniowe, wyposażenie rekreacyjnych jednostek pływających, urządzenia kolei linowych, urządzenia spalające paliwa gazowe, wyroby medyczne, wyroby medyczne do diagnostyki in vitro, motoryzacja i lotnictwo.
(50)
Fir-rigward ta' sistemi tal-IA li huma komponenti tas-sikurezza ta' prodotti, jew li huma stess ikunu prodotti, li jaqgħu fil-kamp ta' applikazzjoni ta' ċerta leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni elenkata f’anness ta’ dan ir-Regolament, jixraq li jiġu kklassifikati bħala b'riskju għoli skont dan ir-Regolament jekk il-prodott ikkonċernat jgħaddi mill-proċedura ta' valutazzjoni tal-konformità mwettqa minn korp terz ta' valutazzjoni tal-konformità skont dik il-leġiżlazzjoni rilevanti tal-Unjoni dwar l-armonizzazzjoni. B'mod partikolari, dawn il-prodotti huma makkinarju, ġugarelli, liftijiet, tagħmir u sistemi protettivi maħsuba għal użu f'ambjenti potenzjalment esplożivi, f'tagħmir tar-radju, apparat tal-pressa, tagħmir ta' opri tal-baħar għar-rikreazzjoni, installazzjonijiet tal-funikular, apparati li jaħarqu fjuwils gassużi, apparati mediċi, apparati mediċi dijanjostiċi in vitro, karozzi u avjazzjoni.
(51)
Klasyfikacja systemu AI jako systemu wysokiego ryzyka na podstawie niniejszego rozporządzenia nie powinna koniecznie oznaczać, że produkt, którego związanym z bezpieczeństwem elementem jest system AI, lub sam system AI jako produkt uznaje się za produkt „wysokiego ryzyka” zgodnie z kryteriami ustanowionymi w stosownym unijnym prawodawstwie harmonizacyjnym, które stosuje się do tego produktu. Dotyczy to w szczególności rozporządzeń (UE) 2017/745 i (UE) 2017/746, w przypadku gdy ocenę zgodności przeprowadza strona trzecia w odniesieniu do produktów średniego i wysokiego ryzyka.
(51)
Jenħtieġ li l-klassifikazzjoni ta' sistema tal-IA bħala li għandha riskju għoli skont dan ir-Regolament mhux bilfors tkun tfisser li l-prodott li l-komponent tas-sikurezza tiegħu jkun is-sistema tal-IA, jew is-sistema tal-IA stess bħala prodott, jitqiesu li huma b'“riskju għoli” skont il-kriterji stabbiliti fil-leġiżlazzjoni rilevanti tal-Unjoni dwar l-armonizzazzjoni li tapplika għall-prodott. B'mod partikolari, dan huwa l-każ għar-Regolamenti (UE) 2017/745 u (UE) 2017/746, fejn tiġi pprovduta valutazzjoni tal-konformità minn parti terza għal prodotti b'riskju medju u b'riskju għoli.
(52)
W odniesieniu do samodzielnych systemów AI, a mianowicie systemów AI wysokiego ryzyka inne niż te, które są związanymi z bezpieczeństwem elementami produktów lub które same są produktami, należy je klasyfikować jako systemy wysokiego ryzyka, jeżeli w związku z ich przeznaczeniem stwarzają one wysokie ryzyko szkody dla zdrowia i bezpieczeństwa lub praw podstawowych osób, biorąc pod uwagę zarówno dotkliwość potencjalnych szkód, jak i prawdopodobieństwo ich wystąpienia, oraz jeżeli są one wykorzystywane w szeregu ściśle określonych z góry obszarów wskazanych w niniejszym rozporządzeniu. Identyfikacja tych systemów opiera się na tej samej metodyce i kryteriach przewidzianych również w odniesieniu do wszelkich przyszłych zmian w wykazie systemów AI wysokiego ryzyka, do przyjmowania których – w drodze aktów delegowanych – powinna być uprawniona Komisja, aby uwzględniać szybkie tempo rozwoju technologicznego, a także potencjalne zmiany w wykorzystaniu systemów AI.
(52)
Fir-rigward ta' sistemi awtonomi tal-IA, jiġifieri sistemi tal-IA b'riskju għoli minbarra dawk li huma komponenti tas-sikurezza tal-prodotti, jew li huma stess ikunu prodotti, jixraq li jiġu klassifikati bħala b’riskju għoli jekk, fid-dawl tal-għan maħsub tagħhom, dawn jippreżentaw riskju għoli ta’ ħsara għas-saħħa u s-sikurezza jew għad-drittijiet fundamentali tal-persuni, filwaqt li jitqiesu kemm is-severità tal-ħsara possibbli u l-probabbiltà li din isseħħ, u jintużaw f’għadd ta’ oqsma speċifikament definiti minn qabel speċifikati f’dan ir-Regolament. L-identifikazzjoni ta’ dawk is-sistemi hija bbażata fuq l-istess metodoloġija u kriterji previsti wkoll għal kull emenda futura tal-lista tas-sistemi tal-IA b’riskju għoli li jenħtieġ li l-Kummissjoni tingħata s-setgħa li tadotta, permezz ta’ atti delegati, biex jitqies il-pass rapidu tal-iżvilupp teknoloġiku, kif ukoll il-bidliet potenzjali fl-użu tas-sistemi tal-IA.
(53)
Ważne jest również wyjaśnienie, że mogą istnieć szczególne przypadki, w których systemy AI odnoszące się do z góry określonych obszarów wskazanych w niniejszym rozporządzeniu nie prowadzą do znaczącego ryzyka szkody dla interesów prawnych chronionych w tych obszarach, ponieważ nie mają istotnego wpływu na proces decyzyjny lub nie szkodzą tym interesom w istotny sposób. Do celów niniejszego rozporządzenia system AI, który nie ma istotnego wpływu na wynik procesu decyzyjnego, należy rozumieć jako system AI, który nie ma wpływu na istotę, a tym samym na wynik procesu decyzyjnego, zarówno przeprowadzanego przez człowieka, jak i w sposób zautomatyzowany. System AI, który nie ma istotnego wpływu na wynik procesu decyzyjnego, może obejmować sytuacje, w których spełniony jest co najmniej jeden z poniższych warunków. Pierwszym takim warunkiem powinno być to, aby system AI miał na celu wykonywanie wąsko określonych zadań proceduralnych – jak np. system AI, który przekształca nieustrukturyzowane dane w dane ustrukturyzowane, system AI kategoryzujący przychodzące dokumenty lub system AI wykorzystywany do wykrywania duplikatów w dużej liczbie zastosowań. Zadania te mają tak wąski i ograniczony charakter, że stwarzają jedynie ograniczone ryzyko, które nie wzrasta w wyniku wykorzystania systemu AI w kontekście wymienionym w wykazie przypadków wykorzystania wysokiego ryzyka zamieszczonym w załączniku do niniejszego rozporządzenia. Drugim warunkiem powinno być to, aby zadanie wykonywane przez system AI miało na celu poprawę wyników już zakończonego działania przeprowadzonego przez człowieka, które może być istotne w kontekście celów przypadków wykorzystania wysokiego ryzyka, wymienionych w załączniku do niniejszego rozporządzenia. Biorąc pod uwagę te cechy, system AI uzupełnia jedynie działanie człowieka, co w konsekwencji wiąże się z niższym ryzykiem. Warunek ten miałby zastosowanie na przykład do systemów AI, które mają na celu językową korektę przygotowanych wcześniej dokumentów, na przykład by wprowadzić profesjonalny ton, styl akademicki lub by dostosować tekst do określonego przekazu marki. Trzecim warunkiem powinno być to, aby system AI miał na celu wykrywanie wzorców podejmowania decyzji lub odstępstw od wzorców podjętych uprzednio decyzji. W tym przypadku ryzyko byłoby mniejsze, ponieważ system AI wykorzystuje się po przeprowadzeniu oceny przez człowieka i nie służy on temu, by ją zastąpić lub na nią wpłynąć bez przeprowadzenia właściwej weryfikacji przez człowieka. Takie systemy AI obejmują na przykład te, które – uwzględniając określony wzorzec oceniania stosowany przez nauczyciela – mogą być wykorzystywane ex post, by sprawdzić, czy nauczyciel nie odszedł od stosowanego wzorca, i w ten sposób wskazać potencjalne niespójności lub nieprawidłowości. Czwartym warunkiem powinno być to, by system AI był przeznaczony jedynie do wykonywania zadań przygotowawczych w kontekście oceny istotnej z punktu widzenia systemów AI wymienionych w załączniku do niniejszego rozporządzenia, co sprawi, że podczas mającej nastąpić oceny prawdopodobieństwo stwierdzenia ryzyka w kontekście wyników systemu będzie bardzo niskie. Mowa tu między innymi o inteligentnych rozwiązaniach w zakresie zarządzania plikami, które obejmują różne funkcje, takie jak indeksowanie, przeszukiwanie, przetwarzanie tekstów i mowy lub łączenie danych z innymi źródłami danych, lub o systemach AI wykorzystywanych do tłumaczenia dokumentów wstępnych. W każdym przypadku systemy AI wykorzystywane w przypadkach wykorzystania wysokiego ryzyka, wymienionych w załączniku do niniejszego rozporządzenia, należy uznać za stwarzające znaczące ryzyko szkody dla zdrowia, bezpieczeństwa lub praw podstawowych, jeżeli dany system AI wiąże się z profilowaniem w rozumieniu art. 4 pkt 4 rozporządzenia (UE) 2016/679 lub art. 3 pkt 4 dyrektywy (UE) 2016/680 lub art. 3 pkt 5 rozporządzenia (UE) 2018/1725. Aby zapewnić identyfikowalność i przejrzystość, dostawca, który na podstawie warunków, o których mowa powyżej, uważa, że system AI nie jest systemem wysokiego ryzyka, powinien sporządzić dokumentację oceny przed wprowadzeniem tego systemu do obrotu lub oddaniem go do użytku i przekazać tę dokumentację na wniosek właściwym organom krajowym. Taki dostawca powinien być zobowiązany do zarejestrowania systemu AI w bazie danych UE ustanowionej na mocy niniejszego rozporządzenia. By zapewnić dalsze wskazówki dotyczące praktycznego wdrażania warunków, na jakich systemy AI wymienione w załączniku do niniejszego rozporządzenia są, w drodze wyjątku, uznawane za niebędące systemami wysokiego ryzyka, Komisja powinna, po konsultacji z Radą ds. AI, przedstawić wytyczne w sprawie tego praktycznego wdrażania, uzupełnione wyczerpującym wykazem praktycznych przypadków wykorzystania systemów AI, które stanowią przypadki wykorzystania wysokiego ryzyka oraz które nie stanowią przypadków takiego wykorzystania.
(53)
Huwa importanti wkoll li jiġi ċċarat li jista’ jkun hemm każijiet speċifiċi li fihom is-sistemi tal-IA msemmija f’oqsma predefiniti speċifikati f’dan ir-Regolament ma jwasslux għal riskju sinifikanti ta’ ħsara għall-interessi legali protetti f’dawk l-oqsma minħabba li ma jinfluwenzawx materjalment it-teħid tad-deċiżjonijiet jew ma jagħmlux ħsara sostanzjali lil dawk l-interessi. Għall-finijiet ta’ dan ir-Regolament, jenħtieġ li sistema tal-IA li ma tinfluwenzax materjalment l-eżitu tat-teħid tad-deċiżjonijiet tinftiehem li tkun sistema tal-IA li ma jkollhiex impatt fuq is-sustanza, u b’hekk fuq l-eżitu, tat-teħid tad-deċiżjonijiet, kemm jekk ikun mill-bniedem kif ukoll jekk awtomatizzat. Sistema tal-IA li ma tinfluwenzax materjalment l-eżitu tat-teħid tad-deċiżjonijiet tista’ tinkludi sitwazzjonijiet li fihom tiġi ssodisfata waħda jew aktar mill-kundizzjonijiet li ġejjin. L-ewwel tali kundizzjoni jenħtieġ li tkun li s-sistema tal-IA tkun maħsuba biex twettaq kompitu proċedurali ristrett, bħal sistema tal-IA li tittrasforma data mhux strutturata f’data strutturata, sistema tal-IA li tikklassifika dokumenti li jkunu deħlin f’kategoriji jew sistema tal-IA li tintuża biex jiġu identifikati duplikati fost għadd kbir ta’ applikazzjonijiet. Dawk il-kompiti huma ta’ natura tant ristretta u limitata li joħolqu biss riskji limitati li ma jiżdidux permezz tal-użu ta’ sistema tal-IA f'kuntest li huwa elenkat bħala użu b'riskju għoli f'anness ta' dan ir-Regolament. It-tieni kundizzjoni jenħtieġ li tkun li l-kompitu mwettaq mis-sistema tal-IA jkun maħsub biex itejjeb ir-riżultat ta' attività tal-bniedem li tkun tlestiet qabel li tista' tkun rilevanti għall-finijiet tal-użi b’riskju għoli elenkati f’anness ta’ dan ir-Regolament. Meta jitqiesu dawk il-karatteristiċi, is-sistema tal-IA tipprovdi biss saff addizzjonali għal attività tal-bniedem bil-konsegwenza li r-riskju jkun imnaqqas. Dik il-kundizzjoni tkun tapplika, pereżempju, għal sistemi tal-IA li huma maħsuba biex itejbu l-lingwa użata f'dokumenti diġà abbozzati, pereżempju fir-rigward tat-ton professjonali, l-istil akkademiku tal-lingwa jew billi t-test jiġi allinjat mal-messaġġ li tkun trid twassal marka partikolari. It-tielet kundizzjoni jenħtieġ li tkun li s-sistema tal-IA tkun maħsuba biex tidentifika xejriet ta' teħid ta' deċiżjonijiet jew devjazzjonijiet minn xejriet ta' teħid ta' deċiżjonijiet preċedenti. Ir-riskju jitnaqqas minħabba li l-użu tas-sistema tal-IA jsegwi valutazzjoni mill-bniedem li tkun tlestiet qabel li ma tkunx maħsuba biex tissostitwixxi jew tinfluwenza, mingħajr rieżami xieraq mill-bniedem. Tali sistemi tal-IA jinkludu pereżempju dawk li, minħabba ċertu tendenzi fl-għoti tal-marki minn għalliem, jistgħu jintużaw biex jiġi vverifikat ex post jekk l-għalliem setax iddevja mit-tendenzi fl-għoti tal-marki sabiex jiġu mmarkati inkonsistenzi jew anomaliji potenzjali. Ir-raba' kundizzjoni jenħtieġ li tkun li s-sistema tal-IA tkun maħsuba biex twettaq kompitu li jkun biss preparatorju għal valutazzjoni rilevanti għall-finijiet tas-sistemi tal-IA elenkati f'anness ta' dan ir-Regolament, u b'hekk ikun hemm riskju baxx ħafna li l-impatt possibbli tal-output tas-sistema ser jippreżenta xi riskju għall-valutazzjoni li ssegwi. Dik il-kundizzjoni tkopri, fost l-oħrajn, soluzzjonijiet intelliġenti għat-trattament tal-fajls, li jinkludu diversi funzjonijiet mill-indiċjar, it-tiftix, l-ipproċessar tat-test u tad-diskors jew il-kollegament tad-data ma' sorsi oħra ta' data, jew sistemi tal-IA użati għat-traduzzjoni ta' dokumenti inizjali. Fi kwalunkwe każ, jenħtieġ li s-sistemi tal-IA użati f’każijiet ta’ użu b'riskju għoli elenkati f’anness ta’ dan ir-Regolament jitqiesu li joħolqu riskji sinifikanti ta' ħsara għas-saħħa, għas-sikurezza jew għad-drittijiet fundamentali jekk is-sistema tal-IA timplika tfassil ta' profili skont it-tifsira tal-Artikolu 4, il-punt (4) tar-Regolament (UE) 2016/679 jew l-Artikolu 3, il-punt (4) tad-Direttiva (UE) 2016/680 jew l-Artikolu 3, il-punt (5) tar-Regolament (UE) 2018/1725. Biex jiġu żgurati t-traċċabbiltà u t-trasparenza, jenħtieġ li fornitur li jqis li sistema tal-IA mhijiex b'riskju għoli abbażi ta' dawk il-kundizzjonijiet imsemmija hawn fuq ifassal dokumentazzjoni tal-valutazzjoni qabel ma dik is-sistema tiġi introdotta fis-suq jew titqiegħed fis-servizz u jenħtieġ li jipprovdi dik id-dokumentazzjoni lill-awtoritajiet nazzjonali kompetenti fuq talba. Jenħtieġ li tali fornitur ikun obbligat jirreġistra s-sistema tal-IA fil-bażi tad-data tal-UE stabbilita skont dan ir-Regolament. Bil-ħsieb li tiġi pprovduta gwida ulterjuri għall-implimentazzjoni prattika tal-kundizzjonijiet li skonthom is-sistemi tal-IA elenkati f’anness ta’ dan ir-Regolament huma, fuq bażi eċċezzjonali, mhux b'riskju għoli, jenħtieġ li l-Kummissjoni, wara li tikkonsulta lill-Bord, tipprovdi linji gwida li jispeċifikaw dik l-implimentazzjoni prattika kkompletata b'lista komprensiva ta' eżempji prattiċi ta' każijiet ta' użu ta' sistemi tal-IA li huma b'riskju għoli u każijiet ta’ użu li mhumiex.
(54)
Ponieważ dane biometryczne stanowią szczególną kategorię danych osobowych, kilka krytycznych przypadków wykorzystania systemów biometrycznych należy zaklasyfikować jako obarczone wysokim ryzykiem, o ile ich wykorzystywanie jest dozwolone na mocy odpowiednich przepisów prawa Unii i prawa krajowego. Techniczne niedokładności systemów AI przeznaczonych do zdalnej identyfikacji biometrycznej osób fizycznych mogą prowadzić do nieobiektywnych wyników i wywoływać skutki w postaci dyskryminacji. Ryzyko wystąpienia takich nieobiektywnych wyników i skutków w postaci dyskryminacji jest szczególnie istotne w odniesieniu do wieku, pochodzenia etnicznego, rasy, płci lub niepełnosprawności. Systemy zdalnej identyfikacji biometrycznej należy zatem zaklasyfikować jako systemy wysokiego ryzyka ze względu na ryzyko, jakie stwarzają. Do tej kategorii nie należą systemy AI przeznaczone do weryfikacji biometrycznej, w tym uwierzytelniania, prowadzonej jedynie w celu potwierdzenia, że dana osoba fizyczna jest tą osobą, za którą się podaje, oraz potwierdzenia tożsamości osoby fizycznej wyłącznie w celu uzyskania dostępu do usługi, uruchomienia urządzenia lub uzyskania bezpiecznego dostępu do pomieszczeń. Ponadto jako systemy wysokiego ryzyka należy zaklasyfikować systemy AI przeznaczone do kategoryzacji biometrycznej na podstawie danych biometrycznych według wrażliwych atrybutów lub cech chronionych na podstawie art. 9 ust. 1 rozporządzenia (UE) 2016/679, o ile nie są one zakazane na mocy niniejszego rozporządzenia, oraz systemy rozpoznawania emocji, które nie są zakazane na mocy niniejszego rozporządzenia. Za systemy AI wysokiego ryzyka nie należy uznawać systemów biometrycznych, które są przeznaczone wyłącznie do tego, by umożliwić stosowanie środków na rzecz cyberbezpieczeństwa i ochrony danych osobowych.
(54)
Peress li d-data bijometrika tikkostitwixxi kategorija speċjali ta' data personali, huwa xieraq li diversi każijiet ta' użu kritiku tas-sistemi bijometriċi jiġu kklassifikati bħala b'riskju għoli, sa fejn l-użu tagħhom ikun permess skont il-liġi rilevanti tal-Unjoni u dik nazzjonali. L-inakkuratezzi tekniċi tas-sistemi tal-IA maħsuba għall-identifikazzjoni bijometrika remota ta' persuni fiżiċi jistgħu jwasslu għal riżultati preġudikati u jħallu effetti diskriminatorji. Ir-riskju ta' tali riżultati preġudikati u effetti diskriminatorji huma partikolarment rilevanti fir-rigward tal-età, l-etniċità, ir-razza, is-sess jew id-diżabilitajiet. Jenħtieġ għalhekk li s-sistemi ta’ identifikazzjoni bijometrika remota jiġu kklassifikati bħala b'riskju għoli fid-dawl tar-riskji li jippreżentaw. Tali klassifikazzjoni teskludi sistemi tal-IA maħsuba biex jintużaw għall-verifika bijometrika, inkluż l-awtentikazzjoni, li l-iskop uniku tagħha huwa li tikkonferma li persuna fiżika speċifika hija l-persuna li dik il-persuna tiddikjara li hija u li tikkonferma l-identità ta' persuna fiżika għall-iskop uniku li jkollha aċċess għal servizz, li tiftaħ apparat jew li jkollha aċċess sigur għall-bini. Barra minn hekk, jenħtieġ li s-sistemi tal-IA bbażati fuq data bijometrika maħsuba biex jintużaw għall-kategorizzazzjoni bijometrika skont attributi jew karatteristiċi sensittivi protetti skont l-Artikolu 9(1) tar-Regolament (UE) 2016/679, sakemm dawn ma jkunux ipprojbiti skont dan ir-Regolament, u s-sistemi ta' rikonoxximent tal-emozzjonijiet li mhumiex ipprojbiti skont dan ir-Regolament, jiġu kklassifikati bħala b'riskju għoli. Jenħtieġ li s-sistemi bijometriċi li huma maħsuba li jintużaw biss għall-fini li jippermettu ċ-ċibersigurtà u l-miżuri tal-protezzjoni tad-data personali ma jitqisux li jkunu sistemi tal-IA b’riskju għoli.
(55)
W odniesieniu do zarządzania infrastrukturą krytyczną i jej działania jako systemy wysokiego ryzyka należy klasyfikować systemy AI, które są przeznaczone do wykorzystania jako związane z bezpieczeństwem elementy procesów zarządzania i działania w przypadku krytycznej infrastruktury cyfrowej wymienionej w pkt 8 załącznika do dyrektywy (UE) 2022/2557, ruchu drogowego i zaopatrzenia w wodę, gaz, ciepło i energię elektryczną, ponieważ ich awaria lub nieprawidłowe działanie mogą stworzyć ryzyko dla życia i zdrowia osób na dużą skalę i prowadzić do znacznych zakłóceń w zwykłym prowadzeniu działalności społecznej i gospodarczej. Związane z bezpieczeństwem elementy infrastruktury krytycznej, w tym krytycznej infrastruktury cyfrowej, to systemy, które są wykorzystywane do bezpośredniej ochrony fizycznej integralności infrastruktury krytycznej lub zdrowia i bezpieczeństwa osób i mienia, ale które nie są konieczne do funkcjonowania systemu. Awaria lub nieprawidłowe działanie takich elementów mogą bezpośrednio prowadzić do ryzyka dla fizycznej integralności infrastruktury krytycznej, a co za tym idzie, do ryzyka dla zdrowia i bezpieczeństwa osób i mienia. Elementów przeznaczonych wyłącznie do celów cyberbezpieczeństwa nie należy kwalifikować jako związanych z bezpieczeństwem elementów. Przykładami związanych z bezpieczeństwem elementów takiej infrastruktury krytycznej są systemy monitorowania ciśnienia wody lub systemy sterowania alarmem przeciwpożarowym w centrach przetwarzania danych w chmurze (ang. cloud computing centres).
(55)
Fir-rigward tal-ġestjoni u t-tħaddim tal-infrastruttura kritika, jixraq li s-sistemi tal-IA maħsuba biex jintużaw bħala komponenti tas-sikurezza fil-ġestjoni u t-tħaddim tal-infrastruttura diġitali kritika kif elenkat fil-punt (8) tal-Anness tad-Direttiva (UE) 2022/2557, tat-traffiku tat-triq u fil-provvista tal-ilma, tal-gass, tat-tisħin u tal-elettriku jiġu kklassifikati bħala b'riskju għoli, għax il-falliment jew il-funzjonament ħażin tagħhom jistgħu jqiegħdu f'riskju l-ħajja u s-saħħa tal-persuni fuq skala kbira u jwasslu għal tfixkil sinifikanti fl-eżekuzzjoni ordinarja tal-attivitajiet soċjali u ekonomiċi. Il-komponenti tas-sikurezza tal-infrastruttura kritika, inkluż l-infrastruttura diġitali kritika, huma sistemi użati biex jipproteġu direttament l-integrità fiżika tal-infrastruttura kritika jew is-saħħa u s-sikurezza tal-persuni u l-proprjetà iżda li mhumiex meħtieġa sabiex is-sistema tiffunzjona. Il-falliment jew il-funzjonament ħażin ta' tali komponenti jista' jwassal direttament għal riskji għall-integrità fiżika tal-infrastruttura kritika u b'hekk għal riskji għas-saħħa u s-sikurezza tal-persuni u l-proprjetà. Jenħtieġ li l-komponenti maħsuba biex jintużaw biss għal finijiet taċ-ċibersigurtà ma jikkwalifikawx bħala komponenti ta' sikurezza. Eżempji ta' komponenti ta' sikurezza ta' tali infrastruttura kritika jistgħu jinkludu sistemi għall-monitoraġġ tas-sistemi ta' kontroll tal-pressjoni tal-ilma jew tal-allarm tan-nar fiċ-ċentri tal-cloud computing.
(56)
Wdrażanie systemów AI w edukacji jest ważne, by promować wysokiej jakości kształcenie i szkolenie cyfrowe oraz by umożliwić wszystkim osobom uczącym się i nauczycielom zdobywanie niezbędnych umiejętności i kompetencji cyfrowych, w tym umiejętności korzystania z mediów, i krytycznego myślenia oraz dzielenie się tymi umiejętnościami i kompetencjami, z myślą o aktywnym udziale w gospodarce, społeczeństwie i procesach demokratycznych. Jako systemy AI wysokiego ryzyka należy natomiast zaklasyfikować systemy AI wykorzystywane w obszarze edukacji lub szkolenia zawodowego – w szczególności przeznaczone do celów podejmowania decyzji o dostępie lub przyjęciu do instytucji edukacyjnych i instytucji szkolenia zawodowego lub programów edukacyjnych lub szkolenia zawodowego na wszystkich poziomach lub do przydzielania osób do tych instytucji lub programów, do oceniania wyników nauki osób, do oceniania odpowiedniego poziomu wykształcenia i istotnego oddziaływania na poziom wykształcenia i szkolenia, jaki dana osoba fizyczna otrzyma lub do jakiego będzie mogła mieć dostęp, lub do monitorowania i wykrywania zabronionego zachowania uczniów podczas testów – ponieważ systemy te mogą decydować o przebiegu kształcenia i kariery zawodowej danej osoby, a tym samym mogą wpływać na jej zdolność do zapewnienia sobie źródła utrzymania. Takie systemy, jeżeli są niewłaściwie zaprojektowane i wykorzystywane, mogą być szczególnie inwazyjne i naruszać prawo do kształcenia i szkolenia, a także prawo do niedyskryminacji oraz mogą utrwalać historyczne wzorce dyskryminacji, na przykład wobec kobiet, niektórych grup wiekowych, osób z niepełnosprawnościami lub osób o określonym pochodzeniu rasowym lub etnicznym bądź określonej orientacji seksualnej.
(56)
L-implimentazzjoni tas-sistemi tal-IA fl-edukazzjoni huwa importanti biex jiġu promossi l-edukazzjoni u t-taħriġ diġitali ta' kwalità għolja u biex l-istudenti u l-għalliema kollha jkunu jistgħu jiksbu u jikkondividu l-ħiliet u l-kompetenzi diġitali meħtieġa, inkluż il-litteriżmu fil-media, u l-ħsieb kritiku, biex jieħdu sehem attiv fl-ekonomija, fis-soċjetà, u fil-proċessi demokratiċi. Madankollu, is-sistemi tal-IA użati fl-edukazzjoni jew fit-taħriġ vokazzjonali, b'mod partikolari għad-determinazzjoni tal-aċċess jew l-ammissjoni, għall-assenjazzjoni ta' persuni lil istituzzjonijiet jew programmi edukattivi u ta' taħriġ vokazzjonali fil-livelli kollha, għall-evalwazzjoni tal-eżiti tal-apprendiment tal-persuni, għall-valutazzjoni tal-livell xieraq ta' edukazzjoni għal individwu u li materjalment jinfluwenzaw il-livell ta' edukazzjoni u taħriġ li l-individwi ser jirċievu jew ser ikunu jistgħu jaċċessaw jew għall-monitoraġġ u għad-detezzjoni ta' mġiba pprojbita tal-istudenti matul it-testijiet jenħtieġ li jiġu kklassifikati bħala sistemi tal-IA b'riskju għoli, għax jistgħu jiddeterminaw il-kors edukattiv u professjonali tal-ħajja ta' persuna u għalhekk jistgħu jaffettwaw l-abbiltà ta' dik il-persuna li tiżgura l-għajxien. Meta jitfasslu u jintużaw b'mod mhux xieraq, dawn is-sistemi jistgħu jkunu partikolarment intrużivi u jistgħu jiksru d-dritt għal edukazzjoni u taħriġ kif ukoll id-dritt ta' nondiskriminazzjoni, u jipperpetwaw mudelli storiċi ta' diskriminazzjoni, pereżempju kontra n-nisa, ċerti gruppi ta' età, persuni b'diżabbiltà, jew persuni ta' ċerta oriġini razzjali jew etnika jew orjentazzjoni sesswali.
(57)
Systemy AI wykorzystywane w obszarze zatrudnienia, zarządzania pracownikami i dostępu do samozatrudnienia, w szczególności do rekrutacji i wyboru kandydatów, do podejmowania decyzji mających wpływ na warunki stosunków pracy, decyzji o awansie i rozwiązaniu umownego stosunku pracy, do spersonalizowanego przydzielania zadań w oparciu o indywidualne zachowania, cechy osobowości lub charakter i do monitorowania lub oceny osób pozostających w umownych stosunkach pracy, należy również zaklasyfikować jako systemy wysokiego ryzyka, ponieważ systemy te mogą w znacznym stopniu wpływać na przyszłe perspektywy zawodowe, źródła utrzymania tych osób i prawa pracownicze. Odpowiednie umowne stosunki pracy powinny w znaczący sposób obejmować pracowników i osoby pracujące za pośrednictwem platform internetowych, o czym mowa w programie prac Komisji na 2021 r. W całym procesie rekrutacji oraz w ramach oceniania, awansowania lub utrzymywania na stanowisku osób pozostających w umownych stosunkach pracy systemy takie mogą utrwalać historyczne wzorce dyskryminacji, na przykład wobec kobiet, niektórych grup wiekowych, osób z niepełnosprawnościami lub osób o określonym pochodzeniu rasowym lub etnicznym lub o określonej orientacji seksualnej. Systemy AI wykorzystywane do monitorowania wydajności i zachowania takich osób mogą również podważać ich prawa podstawowe w zakresie ochrony danych i prywatności.
(57)
Jenħtieġ li s-sistemi tal-IA użati fl-impjiegi, fil-ġestjoni tal-ħaddiema u fl-aċċess għal impjieg indipendenti, b'mod partikolari għar-reklutaġġ u għall-għażla tal-persuni, għat-teħid ta' deċiżjonijiet li jaffettwaw it-termini tar-relazzjonijiet marbuta max-xogħol, il-promozzjoni u t-terminazzjoni ta' relazzjonijiet kuntrattwali relatati max-xogħol, għall-allokazzjoni ta' kompiti abbażi tal-imġiba individwali, il-kwalitajiet jew il-karatteristiċi personali u għall-monitoraġġ jew l-evalwazzjoni ta' persuni f'relazzjonijiet kuntrattwali relatati max-xogħol, jiġu kklassifikati wkoll bħala b'riskju għoli, peress li dawk is-sistemi jista' jkollhom impatt sinifikanti fuq il-prospetti futuri tal-karriera, l-għajxien ta' dawk il-persuni u d-drittijiet tal-ħaddiema. Jenħtieġ li r-relazzjonijiet kuntrattwali rilevanti relatati max-xogħol ikunu jinvolvu b'mod sinifikattiv lill-impjegati u lill-persuni li jipprovdu servizzi permezz ta' pjattaformi kif imsemmi fil-Programm ta' Ħidma tal-Kummissjoni għall-2021. Tul il-proċess kollu tar-reklutaġġ u fl-evalwazzjoni, fil-promozzjoni, jew fiż-żamma ta' persuni f'relazzjonijiet kuntrattwali relatati max-xogħol, dawn is-sistemi jistgħu jipperpetwaw mudelli storiċi ta' diskriminazzjoni, pereżempju kontra n-nisa, ċerti gruppi ta' età, persuni b'diżabbiltà, jew persuni ta' ċerta oriġini razzjali jew etnika jew orjentazzjoni sesswali. Is-sistemi tal-IA użati għall-monitoraġġ tal-prestazzjoni u tal-imġiba ta' tali persuni jistgħu jdgħajfu wkoll id-drittijiet fundamentali tagħhom għall-protezzjoni tad-data u l-privatezza.
(58)
Innym obszarem, w którym wykorzystanie systemów AI wymaga szczególnej uwagi, jest dostęp do niektórych podstawowych usług i świadczeń prywatnych i publicznych niezbędnych ludziom do pełnego uczestnictwa w życiu społecznym lub do poprawy poziomu życia oraz korzystanie z tych usług i świadczeń. W szczególności osoby fizyczne ubiegające się o podstawowe świadczenia i usługi w ramach pomocy publicznej lub korzystające z takich świadczeń i usług zapewnianych przez organy publiczne, a mianowicie usług opieki zdrowotnej, świadczeń z zabezpieczenia społecznego, usług społecznych zapewniających ochronę w przypadkach takich jak macierzyństwo, choroba, wypadki przy pracy, zależność lub podeszły wiek oraz utrata zatrudnienia, a także z pomocy społecznej i mieszkaniowej, są zazwyczaj zależne od tych świadczeń i usług oraz znajdują się w słabszym położeniu względem odpowiedzialnych organów. Jeżeli systemy AI są wykorzystywane do ustalenia, czy organy powinny przyznać takie świadczenia i usługi, odmówić ich, ograniczyć je, cofnąć lub odzyskać, w tym do stwierdzenia, czy świadczeniobiorcy są w świetle prawa uprawnieni do takich świadczeń lub usług, systemy te mogą mieć znaczący wpływ na źródła utrzymania osób i mogą naruszać ich prawa podstawowe, takie jak prawo do ochrony socjalnej, niedyskryminacji, godności człowieka lub skutecznego środka prawnego i w związku z tym systemy te należy zaklasyfikować jako systemy wysokiego ryzyka. Niniejsze rozporządzenie nie powinno jednak utrudniać rozwoju i stosowania innowacyjnych rozwiązań w administracji publicznej, która może odnieść korzyści z powszechniejszego wykorzystywania zgodnych i bezpiecznych systemów AI, pod warunkiem że systemy te nie stwarzają wysokiego ryzyka dla osób prawnych i fizycznych. Ponadto jako systemy wysokiego ryzyka należy zaklasyfikować systemy AI wykorzystywane do przeprowadzania scoringu kredytowego lub oceny zdolności kredytowej osób fizycznych, ponieważ systemy te decydują o dostępie tych osób do zasobów finansowych lub podstawowych usług, takich jak mieszkalnictwo, energia elektryczna i usługi telekomunikacyjne. Systemy AI wykorzystywane do tych celów mogą prowadzić do dyskryminacji osób lub grup i mogą utrwalać historyczne wzorce dyskryminacji, takie jak dyskryminacja ze względu na pochodzenie rasowe lub etniczne, płeć, niepełnosprawność, wiek, orientację seksualną, lub mogą powodować powstawanie nowych rodzajów dyskryminacji. Za systemy wysokiego ryzyka na mocy niniejszego rozporządzenia nie należy jednak uznawać systemów AI przewidzianych w prawie Unii do celów wykrywania oszustw w ramach oferowania usług finansowych oraz do celów ostrożnościowych do obliczania wymogów kapitałowych instytucji kredytowych i zakładów ubezpieczeń. Ponadto systemy AI przeznaczone do przeprowadzania oceny ryzyka w przypadku ubezpieczenia zdrowotnego i na życie dla osób fizycznych i ustalania cen tych ubezpieczeń mogą mieć również znaczący wpływ na źródła utrzymania osób, a jeżeli nie są odpowiednio zaprojektowane, rozwinięte i wykorzystywane, mogą naruszać ich prawa podstawowe i prowadzić do poważnych konsekwencji dla życia i zdrowia ludzi, w tym wykluczenia finansowego i dyskryminacji. Wreszcie systemy AI przeznaczone do przeprowadzania oceny i klasyfikowania zgłoszeń alarmowych dokonywanych przez osoby fizyczne lub do wysyłania lub ustalania priorytetów w wysyłaniu służb pierwszej pomocy, w tym policji, straży pożarnej i pomocy medycznej, a także w ramach systemów oceny stanu zdrowia pacjentów w nagłych wypadkach, należy zaklasyfikować jako systemy wysokiego ryzyka, ponieważ służą one do podejmowania decyzji o krytycznym znaczeniu dla życia i zdrowia osób oraz ich mienia.
(58)
Qasam ieħor li fih l-użu tas-sistemi tal-IA jixirqilhom kunsiderazzjoni speċjali hu l-aċċess għal ċerti servizzi u benefiċċji privati u pubbliċi essenzjali u t-tgawdija ta' dawn is-servizzi u l-benefiċċji meħtieġa biex in-nies jipparteċipaw bis-sħiħ fis-soċjetà jew biex itejbu l-istandard tal-għajxien tagħhom. B'mod partikolari, il-persuni fiżiċi li japplikaw għal jew li jirċievu benefiċċji u servizzi essenzjali ta' assistenza pubblika mill-awtoritajiet pubbliċi, jiġifieri s-servizzi tal-kura tas-saħħa, il-benefiċċji tas-sigurtà soċjali, is-servizzi soċjali li jipprovdu protezzjoni f'każijiet bħall-maternità, il-mard, l-inċidenti industrijali, id-dipendenza jew ix-xjuħija u t-telf tal-impjieg u l-assistenza soċjali u tal-akkomodazzjoni, huma tipikament dipendenti fuq dawk il-benefiċċji u s-servizzi u f'pożizzjoni vulnerabbli fir-rigward tal-awtoritajiet responsabbli. Jekk is-sistemi tal-IA jintużaw biex jiġi determinat jekk dawn il-benefiċċji u s-servizzi għandhomx jingħataw, jiċċaħħdu, jitnaqqsu, jitneħħew jew jittieħdu lura mill-awtoritajiet, inkluż jekk il-benefiċjarji humiex leġittimament intitolati għal tali benefiċċji jew servizzi, dawk is-sistemi jista' jkollhom impatt sinifikanti fuq l-għajxien tal-persuni u jistgħu jiksru d-drittijiet fundamentali tagħhom, bħad-dritt għall-protezzjoni soċjali, id-dritt ta' nondiskriminazzjoni, għad-dinjità umana jew għal rimedju effettiv u għalhekk jenħtieġ li jiġu kklassifikati bħala b'riskju għoli. Madankollu, jenħtieġ li dan ir-Regolament ma jfixkilx l-iżvilupp u l-użu ta' approċċi innovattivi fl-amministrazzjoni pubblika, li jkunu jistgħu jibbenefikaw minn użu aktar mifrux ta' sistemi tal-IA konformi u sikuri, dment li dawk is-sistemi ma jkunux jinvolvu riskju għoli għall-persuni ġuridiċi u fiżiċi. Barra minn hekk, jenħtieġ li s-sistemi tal-IA użati biex jevalwaw il-kreditu jew għall-evalwazzjoni tal-affidabbiltà kreditizja ta' xi persuni fiżiċi jiġu kklassifikati bħala b'riskju għoli peress li jiddeterminaw l-aċċess ta' dawk il-persuni għal riżorsi finanzjarji jew għal servizzi essenzjali bħall-akkomodazzjoni, l-elettriku, u s-servizzi tat-telekomunikazzjoni. Is-sistemi tal-IA użati għal dawk il-finijiet jistgħu jwasslu għad-diskriminazzjoni bejn persuni jew gruppi u jistgħu jipperpetwaw mudelli storiċi ta' diskriminazzjoni, dħal dik ibbażati fuq l-oriġini razzjali jew etnika, il-ġeneru, id-diżabbiltà, l-età jew l-orjentazzjoni sesswali, jew jistgħu joħolqu forom ġodda ta' impatti diskriminatorji. Madankollu, jenħtieġ li s-sistemi tal-IA previsti mil-liġi tal-Unjoni għall-fini li tiġi identifikata frodi fl-offerta ta' servizzi finanzjarji u għal finijiet prudenzjali biex jiġu kkalkulati r-rekwiżiti kapitali tal-istituzzjonijiet ta' kreditu u tal-impriżi tal-assigurazzjoni ma jitqisux li jkunu b'riskju għoli skont dan ir-Regolament. Barra minn hekk, is-sistemi tal-IA maħsuba biex jintużaw għall-valutazzjoni tar-riskju u l-ipprezzar fir-rigward ta' persuni fiżiċi għall-assigurazzjoni tas-saħħa u tal-ħajja jista' wkoll ikollhom impatt sinifikanti fuq l-għajxien tal-persuni u jekk ma jkunux imfassla, żviluppati u użati kif xieraq, jistgħu jiksru d-drittijiet fundamentali tagħhom u jistgħu jwasslu għal konsegwenzi serji għall-ħajja u għas-saħħa tan-nies, inkluż l-esklużjoni finanzjarja u d-diskriminazzjoni. Fl-aħħar nett, jenħtieġ li anki s-sistemi tal-IA użati biex jiġu evalwati u kklassifikati telefonati ta' emerġenza minn persuni fiżiċi jew biex tintbagħat jew tiġi stabbilita prijorità fid-dispaċċ ta' servizzi tal-ewwel rispons ta' emerġenza, inkluż mill-pulizija, mill-ħaddiema tat-tifi tan-nar u mill-għajnuna medika, kif ukoll tas-sistemi tat-triage tal-pazjenti fil-qasam tal-kura tas-saħħa ta' emerġenza, jiġu kklassifikati bħala b'riskju għoli għax dawn jieħdu deċiżjonijiet f'sitwazzjonijiet kritiċi ħafna għall-ħajja u għas-saħħa tal-persuni u għall-proprjetà tagħhom.
(59)
Ze względu na rolę i odpowiedzialność organów ścigania ich działania związane z niektórymi rodzajami wykorzystania systemów AI charakteryzują się znacznym brakiem równowagi sił i mogą prowadzić do objęcia osoby fizycznej nadzorem, do jej aresztowania lub pozbawienia wolności, jak również do zaistnienia innego niepożądanego wpływu na prawa podstawowe zagwarantowane w Karcie. W szczególności jeżeli system AI nie jest trenowany z wykorzystaniem danych wysokiej jakości, nie spełnia odpowiednich wymogów pod względem skuteczności jego działania, dokładności lub solidności lub nie został odpowiednio zaprojektowany i przetestowany przed wprowadzeniem do obrotu lub oddaniem do użytku w inny sposób, może on wskazywać osoby w sposób dyskryminacyjny lub w inny nieprawidłowy lub niesprawiedliwy sposób. Ponadto korzystanie z istotnych procesowych praw podstawowych, takich jak prawo do skutecznego środka prawnego i dostępu do bezstronnego sądu, jak również prawo do obrony i domniemania niewinności, może być utrudnione, w szczególności w przypadku gdy takie systemy AI nie są w wystarczającym stopniu przejrzyste, wyjaśnialne i udokumentowane. W związku z tym szereg systemów AI przeznaczonych do wykorzystania w kontekście ścigania przestępstw, w którym dokładność, wiarygodność i przejrzystość są szczególnie ważne dla uniknięcia niepożądanego wpływu, zachowania zaufania publicznego oraz zapewnienia odpowiedzialności i skutecznego dochodzenia roszczeń, należy klasyfikować jako systemy wysokiego ryzyka, o ile ich wykorzystanie jest dozwolone zgodnie z właściwymi przepisami prawa Unii i prawa krajowego. Ze względu na charakter działań i związane z nimi ryzyko do takich systemów AI wysokiego ryzyka należy zaliczyć w szczególności systemy AI przeznaczone do wykorzystywania przez organy ścigania lub w ich imieniu lub przez instytucje, organy i jednostki organizacyjne Unii w ramach wsparcia udzielanego organom ścigania w zakresie oceny ryzyka, że osoba fizyczna stanie się ofiarą przestępstwa, takie jak wariografy i podobne narzędzia, do oceny wiarygodności dowodów podczas prowadzenia postępowań przygotowawczych w sprawie przestępstw lub ich ścigania oraz, o ile nie jest to zakazane na mocy niniejszego rozporządzenia, do oceny ryzyka popełnienia przestępstwa lub ponownego popełnienia przestępstwa przez osobę fizyczną niewyłącznie na podstawie profilowania osób fizycznych lub oceny cech osobowości i charakteru lub wcześniejszego zachowania przestępnego osób fizycznych lub grup, do profilowania w trakcie wykrywania przestępstw, prowadzenia postępowań przygotowawczych w ich sprawie lub ich ścigania. Systemów AI przeznaczonych specjalnie do wykorzystania w postępowaniach administracyjnych prowadzonych przez organy podatkowe i celne, jak również przez jednostki analityki finansowej wykonujące zadania administracyjne dotyczące analizy informacji na podstawie przepisów prawa Unii dotyczących przeciwdziałania praniu pieniędzy, nie należy zaklasyfikować jako systemów AI wysokiego ryzyka wykorzystywanych przez organy ścigania do celów zapobiegania przestępstwom, ich wykrywania, prowadzenia postępowań przygotowawczych w ich sprawie i ich ścigania. Wykorzystanie narzędzi sztucznej inteligencji przez organy ścigania i inne odpowiednie organy nie powinno stać się czynnikiem powodującym nierówności lub wykluczenie. Nie należy ignorować wpływu wykorzystania narzędzi AI na prawo podejrzanych do obrony, w szczególności na trudności w uzyskaniu istotnych informacji na temat funkcjonowania tych systemów oraz wynikające z tego trudności w kwestionowaniu dostarczanych przez nie wyników przed sądem, w szczególności przez osoby fizyczne objęte postępowaniem przygotowawczym.
(59)
Minħabba r-rwol u r-responsabbiltà tagħhom, l-azzjonijiet tal-awtoritajiet tal-infurzar tal-liġi li jinvolvu ċerti użi tas-sistemi tal-IA huma kkaratterizzati minn grad sinifikanti ta' żbilanċ fil-poter u jistgħu jwasslu għal sorveljanza, għal arrest jew għal ċaħda tal-libertà ta' persuna fiżika u għal impatti negattivi oħra fuq id-drittijiet fundamentali garantiti fil-Karta. B'mod partikolari, jekk is-sistema tal-IA ma tkunx imħarrġa b'data ta' kwalità għolja, ma tkunx tissodisfa rekwiżiti adegwati fir-rigward tal-prestazzjoni, l-akkuratezza jew ir-robustezza tagħha, jew ma tkunx imfassla u ttestjata kif xieraq qabel ma tiġi introdotta fis-suq jew titqiegħed fis-servizz b'xi mod ieħor, din tista' tindividwa persuni b'mod diskriminatorju jew b'mod skorrett jew inġust. Barra minn hekk, l-eżerċitar ta' drittijiet fundamentali proċedurali importanti, bħad-dritt għal rimedju effettiv u għal proċess ġust kif ukoll id-dritt għal difiża u l-preżunzjoni tal-innoċenza, jista' jiġi mfixkel meta, b'mod partikolari, dawn is-sistemi tal-IA ma jkunux trasparenti, spjegabbli u dokumentati biżżejjed. Għalhekk, sakemm l-użu tagħhom ikun permess skont il-liġi rilevanti tal-Unjoni u dik nazzjonali, jixraq li xi sistemi tal-IA maħsuba biex jintużaw fil-kuntest tal-infurzar tal-liġi jiġu kklassifikati bħala b'riskju għoli, meta l-akkuratezza, l-affidabbiltà u t-trasparenza jkunu partikolarment importanti biex jiġu evitati impatti negattivi, tinżamm il-fiduċja pubblika u jiġu żgurati r-responsabbiltà u rimedju effettiv. Minħabba n-natura tal-attivitajiet u r-riskji relatati magħhom, jenħtieġ li dawk is-sistemi tal-IA b'riskju għoli jinkludu b'mod partikolari s-sistemi tal-IA maħsuba biex jintużaw minn jew f'isem l-awtoritajiet tal-infurzar tal-liġi jew minn istituzzjonijiet, korpi, uffiċċji jew aġenziji tal-Unjoni b'appoġġ għall-awtoritajiet tal-infurzar tal-liġi għall-valutazzjoni tar-riskju ta' persuna fiżika li ssir vittma ta' reati kriminali, bħal poligrafi u għodod simili, għall-evalwazzjoni tal-affidabbiltà tal-evidenza waqt investigazzjoni jew prosekuzzjoni ta' reati kriminali, u, sa fejn mhux ipprojbit skont dan ir-Regolament, għall-valutazzjoni tar-riskju ta' persuna fiżika li twettaq reat jew twettaq reat mill-ġdid mhux biss abbażi tat-tfassil ta' profili ta' persuni fiżiċi jew tal-valutazzjoni tal-kwalitajiet u l-karatteristiċi tal-personalità jew l-imġiba kriminali fil-passat ta' persuni fiżiċi jew gruppi, għat-tfassil ta' profili matul il-kxif, l-investigazzjoni jew il-prosekuzzjoni ta' reati kriminali. Jenħtieġ li s-sistemi tal-IA maħsuba speċifikament biex jintużaw għal proċedimenti amministrattivi mill-awtoritajiet tat-taxxa u tad-dwana kif ukoll mill-unitajiet tal-intelligence finanzjarja li jwettqu kompiti amministrattivi li janalizzaw l-informazzjoni skont il-liġi tal-Unjoni kontra l-ħasil tal-flus ma jiġux klassifikati bħala sistemi tal-IA b'riskju għoli użati mill-awtoritajiet tal-infurzar tal-liġi għall-fini tal-prevenzjoni, il-kxif, l-investigazzjoni u l-prosekuzzjoni ta' reati kriminali. Jenħtieġ li l-użu tal-għodod tal-IA mill-awtoritajiet tal-infurzar tal-liġi u awtoritajiet rilevanti oħra ma jsirx fattur ta' inugwaljanza jew esklużjoni. Jenħtieġ li l-impatt tal-użu tal-għodod tal-IA fuq id-drittijiet tad-difiża tal-persuni suspettati ma jiġix injorat, b'mod partikolari d-diffikultà biex tinkiseb informazzjoni sinifikattiva dwar il-funzjonament ta' dawk is-sistemi u d-diffikultà li tirriżulta biex jiġu kkontestati r-riżultati tagħhom fil-qorti, b'mod partikolari minn persuni fiżiċi li qed jiġu investigati.
(60)
Systemy AI wykorzystywane w zarządzaniu migracją, azylem i kontrolą graniczną mają wpływ na osoby, które często znajdują się w szczególnie trudnej sytuacji i które są zależne od rezultatów działań właściwych organów publicznych. Dokładność, niedyskryminujący charakter i przejrzystość systemów AI wykorzystywanych w tych kontekstach są zatem szczególnie istotne w celu zapewnienia poszanowania praw podstawowych osób, na które AI ma wpływ, w szczególności ich prawa do swobodnego przemieszczania się, niedyskryminacji, ochrony życia prywatnego i danych osobowych, ochrony międzynarodowej i dobrej administracji. O ile wykorzystanie systemów AI jest dozwolone zgodnie z właściwymi przepisami prawa Unii i prawa krajowego, za systemy wysokiego ryzyka należy zatem uznać systemy AI przeznaczone do wykorzystywania przez właściwe organy publiczne lub w ich imieniu lub przez instytucje, organy i jednostki organizacyjne Unii odpowiedzialne za wykonywanie zadań w dziedzinach zarządzania migracją, azylem i kontrolą graniczną, takie jak wariografy i podobne narzędzia, gdy systemy te stosuje się do oceny niektórych rodzajów ryzyka stwarzanych przez osoby fizyczne wjeżdżające na terytorium państwa członkowskiego lub ubiegające się o wizę lub azyl, do wspierania właściwych organów publicznych przy rozpatrywaniu wniosków o udzielenie azylu, o wydanie wizy i dokumentów pobytowych oraz związanych z nimi skarg w odniesieniu do celu, jakim jest ustalenie kwalifikowalności osób fizycznych ubiegających się o przyznanie określonego statusu, w tym przy powiązanej ocenie wiarygodności dowodów, do celów wykrywania, rozpoznawania lub identyfikacji osób fizycznych w kontekście zarządzania migracją, azylem i kontrolą graniczną, z wyjątkiem weryfikacji dokumentów podróży. Systemy AI w obszarze zarządzania migracją, azylem i kontrolą graniczną objęte niniejszym rozporządzeniem powinny być zgodne z odpowiednimi wymogami proceduralnymi określonymi w rozporządzeniu Parlamentu Europejskiego i Rady (WE) nr 810/2009 (32), dyrektywie Parlamentu Europejskiego i Rady 2013/32/UE (33) i w innych właściwych przepisach prawa Unii. Wykorzystanie systemów AI w zarządzaniu migracją, azylem i kontrolą graniczną nie powinno w żadnym wypadku być wykorzystywane przez państwa członkowskie lub instytucje, organy i jednostki organizacyjne Unii jako sposób na obejście ich międzynarodowych zobowiązań wynikających z Konwencji ONZ dotyczącej statusu uchodźców sporządzonej w Genewie dnia 28 lipca 1951 r., zmienionej protokołem z dnia 31 stycznia 1967 r. Nie powinny być one również wykorzystywane w żaden sposób do naruszania zasady non-refoulement ani do odmawiania bezpiecznych i skutecznych legalnych sposobów wjazdu na terytorium Unii, w tym prawa do ochrony międzynarodowej.
(60)
Is-sistemi tal-IA użati fil-ġestjoni tal-migrazzjoni, tal-ażil u tal-kontroll fil-fruntieri jaffettwaw lil persuni li spiss ikunu f'pożizzjoni partikolarment vulnerabbli u li jiddependu fuq l-eżitu tal-azzjonijiet tal-awtoritajiet pubbliċi kompetenti. Għalhekk, l-akkuratezza, in-natura nondiskriminatorja u t-trasparenza tas-sistemi tal-IA użati f'dawk il-kuntesti huma partikolarment importanti biex ikun żgurat ir-rispett għad-drittijiet fundamentali tal-persuni affettwati, b'mod partikolari d-drittijiet tagħhom ta' moviment liberu, ta' nondiskriminazzjoni, ta' protezzjoni tal-ħajja privata u ta' data personali, ta' protezzjoni internazzjonali u ta' amministrazzjoni tajba. Għalhekk, sa fejn l-użu tagħhom ikun permess skont il-liġi rilevanti tal-Unjoni u nazzjonali, jixraq li jiġu kklassifikati bħala b'riskju għoli s-sistemi tal-IA maħsuba biex jintużaw minn jew f'isem awtoritajiet pubbliċi kompetenti jew minn istituzzjonijiet, korpi, uffiċċji jew aġenziji tal-Unjoni inkarigati b'kompiti fl-oqsma tal-migrazzjoni, l-ażil u l-ġestjoni tal-kontroll tal-fruntieri, bħal pereżempju poligrafi u għodod simili, għall-valutazzjoni ta' ċerti riskji maħluqa minn persuni fiżiċi li jidħlu fit-territorju ta' Stat Membru jew li japplikaw għal viża jew ażil, biex jassistu lill-awtoritajiet pubbliċi kompetenti għall-eżami, inkluż il-valutazzjoni relatata tal-affidabbiltà tal-evidenza, tal-applikazzjonijiet għall-ażil, tal-viża u tal-permessi ta' residenza u tal-ilmenti assoċjati fir-rigward tal-objettiv li tiġi stabbilita l-eliġibbiltà tal-persuni fiżiċi li japplikaw għal status, għall-fini tad-detezzjoni, ir-rikonoxximent jew l-identifikazzjoni ta' persuni fiżiċi fil-kuntest tal-ġestjoni tal-migrazzjoni, l-ażil u l-kontroll tal-fruntieri, bl-eċċezzjoni tal-verifika tad-dokumenti tal-ivvjaġġar. Jenħtieġ li s-sistemi tal-IA fil-qasam tal-ġestjoni tal-migrazzjoni, tal-ażil u tal-kontroll fil-fruntieri koperti b'dan ir-Regolament ikunu konformi mar-rekwiżiti proċedurali rilevanti stabbiliti mir-Regolament (KE) Nru 810/2009 tal-Parlament Ewropew u tal-Kunsill (32), mid-Direttiva 2013/32/UE tal-Parlament Ewropew u tal-Kunsill (33), u minn leġiżlazzjoni rilevanti oħra tal-Unjoni. Jenħtieġ li l-użu tas-sistemi tal-IA fil-ġestjoni tal-migrazzjoni, tal-ażil u tal-kontroll fil-fruntieri, fl-ebda ċirkostanza, ma jintuża mill-Istati Membri jew mill-istituzzjonijiet, mill-korpi, mill-uffiċċji jew mill-aġenziji tal-Unjoni bħala mezz biex jevitaw l-obbligi internazzjonali tagħhom skont il-Konvenzjoni tan-NU dwar l-Istatus tar-Refuġjati magħmula f'Ġinevra fit-28 ta' Lulju 1951 kif emendata mill-Protokoll tal-31 ta' Jannar 1967. Jenħtieġ li lanqas ma jintużaw biex jinkiser il-prinċipju ta' non-refoulement, jew biex jiġu mċaħħda perkorsi legali sikuri u effettivi lejn it-territorju tal-Unjoni, inkluż id-dritt għall-protezzjoni internazzjonali.
(61)
Niektóre systemy AI przeznaczone na potrzeby sprawowania wymiaru sprawiedliwości i procesów demokratycznych należy zaklasyfikować jako systemy wysokiego ryzyka, biorąc pod uwagę ich potencjalnie istotny wpływ na demokrację, praworządność, wolności osobiste, a także prawo do skutecznego środka prawnego i dostępu do bezstronnego sądu. W szczególności, aby wyeliminować potencjalne ryzyko stronniczości, błędów i efektu czarnej skrzynki, jako systemy wysokiego ryzyka należy zakwalifikować systemy AI przeznaczone do wykorzystania przez organy wymiaru sprawiedliwości lub w ich imieniu, aby pomóc tym organom w poszukiwaniu i interpretacji faktów i prawa oraz w stosowaniu przepisów prawa do konkretnego stanu faktycznego. Systemy AI przeznaczone do wykorzystania w tych celach przez organy alternatywnego rozstrzygania sporów również należy uznać za systemy wysokiego ryzyka, jeżeli wyniki postępowania w sprawie alternatywnego rozstrzygania sporów wywołują skutki prawne dla stron. Wykorzystanie narzędzi AI może wspierać uprawnienia decyzyjne sędziów lub niezależność sądownictwa, ale nie powinno ich zastępować; podejmowanie ostatecznej decyzji musi pozostać działaniem kierowanym przez człowieka. Kwalifikacja systemów AI jako systemów AI wysokiego ryzyka nie powinna jednak rozciągać się na systemy AI przeznaczone do czysto pomocniczych czynności administracyjnych, które nie mają wpływu na faktyczne sprawowanie wymiaru sprawiedliwości w poszczególnych przypadkach, takich jak anonimizacja lub pseudonimizacja orzeczeń sądowych, dokumentów lub danych, komunikacja między członkami personelu, zadania administracyjne.
(61)
Jenħtieġ li ċerti sistemi tal-IA maħsuba għall-amministrazzjoni tal-ġustizzja u għall-proċessi demokratiċi jiġu kklassifikati bħala b'riskju għoli, meta jitqies l-impatt potenzjalment sinifikanti tagħhom fuq id-demokrazija, l-istat tad-dritt, il-libertajiet individwali u d-dritt għal rimedju effettiv u għal proċess imparzjali. B'mod partikolari, biex jiġu indirizzati r-riskji ta' preġudizzji, żbalji u opaċità potenzjali, jixraq li s-sistemi maħsuba biex jintużaw minn awtorità ġudizzjarja jew f'isimha biex jgħinu lill-awtoritajiet ġudizzjarji fir-riċerka u l-interpretazzjoni tal-fatti u tal-liġi u fl-applikazzjoni tal-liġi għal sett konkret ta' fatti, jikkwalifikaw bħala sistemi tal-IA b'riskju għoli. Jenħtieġ li s-sistemi tal-IA maħsuba biex jintużaw minn korpi għal soluzzjonijiet alternattivi għat-tilwim għal dawk il-finijiet jitqiesu wkoll li huma b'riskju għoli meta l-eżiti tal-proċedimenti ta' soluzzjoni alternattiva għat-tilwim jipproduċu effetti legali għall-partijiet. L-użu ta' għodod tal-IA jista' jappoġġa s-setgħa tat-teħid ta' deċiżjonijiet tal-imħallfin jew l-indipendenza ġudizzjarja, iżda jenħtieġ li ma jissostitwixxihiex: it-teħid finali ta' deċiżjonijiet irid jibqa' attività mmexxija mill-bniedem. Madankollu, jenħtieġ li l-klassifikazzjoni ta' sistemi tal-IA bħala b'riskju għoli ma testendix għal sistemi tal-IA maħsuba għal attivitajiet amministrattivi purament anċillari li ma jaffettwawx l-amministrazzjoni attwali tal-ġustizzja f'każijiet individwali, bħall-anonimizzazzjoni jew il-psewdonimizzazzjoni ta' deċiżjonijiet ġudizzjarji, ta' dokumenti jew ta' data, il-komunikazzjoni bejn il-persunal jew il-kompiti amministrattivi.
(62)
Bez uszczerbku dla przepisów ustanowionych w rozporządzeniu Parlamentu Europejskiego i Rady (UE) 2024/900 (34) oraz aby zapobiec ryzyku nadmiernej zewnętrznej ingerencji w prawo do głosowania zapisane w art. 39 Karty oraz niepożądanemu wpływowi na demokrację i praworządność, systemy AI przeznaczone do wykorzystania, by wpływać na wynik wyborów lub referendum lub na zachowania wyborcze osób fizycznych podczas głosowania w wyborach lub referendach, należy zaklasyfikować jako systemy AI wysokiego ryzyka, z wyjątkiem systemów AI, na których wyniki osoby fizyczne nie są bezpośrednio narażone, takich jak narzędzia wykorzystywane do organizowania, optymalizacji i strukturyzowania kampanii politycznych z administracyjnego i logistycznego punktu widzenia.
(62)
Mingħajr preġudizzju għar-regoli previsti fir-Regolament (UE) 2024/… tal-Parlament Ewropew u tal-Kunsill (34), u sabiex jiġu indirizzati r-riskji ta' interferenza esterna mhux dovuta fuq id-dritt tal-vot minqux fl-Artikolu 39 tal-Karta, u ta' effetti negattivi fuq id-demokrazija u l-istat tad-dritt, jenħtieġ li s-sistemi tal-IA maħsuba biex jintużaw bil-għan li jinfluwenzaw l-eżitu ta' elezzjoni jew referendum jew l-imġiba tal-votazzjoni ta' persuni fiżiċi fl-eżerċizzju tal-vot tagħhom fl-elezzjonijiet jew fir-referenda jiġu kklassifikati bħala sistemi tal-IA b'riskju għoli bl-eċċezzjoni ta' sistemi tal-IA li l-output tagħhom ma jkunx espost għal persuni fiżiċi, bħal għodod użati għall-organizzazzjoni, l-ottimizzazzjoni u l-istruttura ta' kampanji politiċi minn perspettiva amministrattiva u loġistika.
(63)
Faktu, że dany system AI został zaklasyfikowany jako system AI wysokiego ryzyka zgodnie z niniejszym rozporządzeniem, nie należy interpretować jako wskazującego na to, że korzystanie z tego systemu jest zgodne z prawem na podstawie innych aktów prawa Unii lub prawa krajowego zgodnego z prawem Unii, na przykład w zakresie ochrony danych osobowych, stosowania wariografów i podobnych narzędzi lub innych systemów służących wykrywaniu stanu emocjonalnego osób fizycznych. Każde takie wykorzystanie można kontynuować wyłącznie w sposób zgodny z mającymi zastosowanie wymogami wynikającymi z Karty oraz z mającymi zastosowanie aktami prawa wtórnego Unii i prawa krajowego. Niniejszego rozporządzenia nie należy rozumieć jako ustanawiającego podstawę prawną przetwarzania danych osobowych, w tym w stosownych przypadkach szczególnych kategorii danych osobowych, o ile niniejsze rozporządzenie nie stanowi wyraźnie inaczej.
(63)
Jenħtieġ li l-fatt li sistema tal-IA tiġi kklassifikata bħala sistema tal-IA b'riskju għoli skont dan ir-Regolament ma jiġix interpretat bħala indikatur li l-użu tas-sistema huwa legali skont atti oħra tal-liġi tal-Unjoni jew skont il-liġi nazzjonali kompatibbli mal-liġi tal-Unjoni, bħal dwar il-protezzjoni tad-data personali, dwar l-użu tal-poligrafi u ta' għodod simili jew ta' sistemi oħra biex jiġi identifikat l-istat emozzjonali ta' persuni fiżiċi. Jenħtieġ li kull użu bħal dan ikompli jseħħ biss f'konformità mar-rekwiżiti applikabbli li jirriżultaw mill-Karta u mill-atti applikabbli tal-liġi sekondarja tal-Unjoni u tal-liġi nazzjonali. Jenħtieġ li dan ir-Regolament ma jinftiehemx li jipprevedi l-bażi legali għall-ipproċessar tad-data personali, inkluż kategoriji speċjali ta' data personali, meta rilevanti, sakemm mhux speċifikament previst mod ieħor f'dan ir-Regolament.
(64)
Aby ograniczyć ryzyko stwarzane przez systemy AI wysokiego ryzyka wprowadzone do obrotu lub oddawane do użytku oraz aby zapewnić wysoki poziom wiarygodności, należy stosować pewne obowiązkowe wymogi do systemów AI wysokiego ryzyka, z uwzględnieniem przeznaczenia systemu AI i kontekstu jego wykorzystania oraz zgodnie z systemem zarządzania ryzykiem, który ma zostać ustanowiony przez dostawcę. Środki przyjęte przez dostawców w celu zapewnienia zgodności z obowiązkowymi wymogami niniejszego rozporządzenia powinny uwzględniać powszechnie uznany stan wiedzy technicznej w zakresie AI, być proporcjonalne i skuteczne do osiągnięcia celów niniejszego rozporządzenia. W oparciu o nowe ramy prawne, jak wyjaśniono w zawiadomieniu Komisji „Niebieski przewodnik – wdrażanie unijnych przepisów dotyczących produktów 2022”, ogólna zasada stanowi, że do jednego produktu można stosować więcej niż jedne akt prawny unijnego prawodawstwa harmonizacyjnego, ponieważ udostępnianie lub oddawanie do użytku może mieć miejsce tylko wtedy, gdy produkt jest zgodny z całością obowiązującego unijnego prawodawstwa harmonizacyjnego. Zagrożenia związane z systemami AI objętymi wymogami niniejszego rozporządzenia dotyczą innych aspektów niż obowiązujące unijne prawodawstwo harmonizacyjne, w związku z czym wymogi niniejszego rozporządzenia uzupełnią obowiązujące unijne prawodawstwo harmonizacyjne. Na przykład maszyny lub wyroby medyczne zawierające system AI mogą stwarzać ryzyko, które nie zostało uwzględnione w zasadniczych wymogach w zakresie zdrowia i bezpieczeństwa ustanowionych w odpowiednim unijnym prawodawstwie harmonizacyjnym, ponieważ to prawo sektorowe nie reguluje ryzyka specyficznego dla systemów AI. Wymaga to jednoczesnego i komplementarnego stosowania różnych aktów ustawodawczych. Aby zapewnić spójność i uniknąć niepotrzebnych obciążeń administracyjnych i niepotrzebnych kosztów, dostawcy produktu, który zawiera co najmniej jeden system AI wysokiego ryzyka, do którego stosuje się wymogi niniejszego rozporządzenia i unijnego prawodawstwa harmonizacyjnego opartego na nowych ramach prawnych, wymienionego w załączniku do niniejszego rozporządzenia, powinni mieć swobodę w zakresie decyzji operacyjnych dotyczących sposobu zapewnienia w optymalny sposób zgodności produktu zawierającego co najmniej jeden system AI ze wszystkimi mającymi zastosowanie wymogami unijnego prawodawstwa harmonizacyjnego. Swoboda ta może oznaczać na przykład decyzję dostawcy o włączeniu części niezbędnych procesów testowania i sprawozdawczości, informacji i dokumentacji wymaganych na mocy niniejszego rozporządzenia do już istniejącej dokumentacji i procedur wymaganych na mocy obowiązującego unijnego prawodawstwa harmonizacyjnego opartego na nowych ramach prawnych i wymienionego w załączniku do niniejszego rozporządzenia. Nie powinno to w żaden sposób podważać spoczywającego na dostawcy obowiązku zapewnienia zgodności z wszystkimi mającymi zastosowanie wymogami.
(64)
Biex jiġu mitigati r-riskji minn sistemi tal-IA b'riskju għoli introdotti fis-suq jew imqiegħda fis-servizz u biex jiġi żgurat livell għoli ta' affidabbiltà, jenħtieġ li ċerti rekwiżiti obbligatorji japplikaw għas-sistemi tal-IA b'riskju għoli, filwaqt li jitqies l-għan maħsub u l-kuntest tal-użu tas-sistema tal-IA u skont is-sistema ta' ġestjoni tar-riskju li għandha tiġi stabbilita mill-fornitur. Jenħtieġ li l-miżuri adottati mill-fornituri biex jikkonformaw mar-rekwiżiti obbligatorji ta' dan ir-Regolament iqisu l-ogħla livell ta' żvilupp tekniku rikonoxxut b'mod ġenerali dwar l-IA, u jkunu proporzjonati u effettivi biex jintlaħqu l-objettivi ta' dan ir-Regolament. Abbażi tal-Qafas Leġiżlattiv Ġdid, kif iċċarat fl-avviż tal-Kummissjoni “Il-‘Gwida Blu’ dwar l-implimentazzjoni tar-regoli tal-prodotti tal-UE tal-2022” ir-regola ġenerali hija li aktar minn att legali wieħed tal-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni jista’ jkun applikabbli għal prodott wieħed, peress li l-introduzzjoni fis-suq jew it-tqegħid fis-servizz jista' jseħħ biss meta l-prodott jikkonforma mal-leġiżlazzjoni applikabbli kollha tal-Unjoni dwar l-armonizzazzjoni. Il-perikli tas-sistemi tal-IA koperti mir-rekwiżiti ta' dan ir-Regolament jikkonċernaw aspetti differenti mill-leġiżlazzjoni eżistenti tal-Unjoni dwar l-armonizzazzjoni u għalhekk ir-rekwiżiti ta' dan ir-Regolament jikkomplementaw il-korp eżistenti tal-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni. Pereżempju, prodotti ta' makkinarju jew ta' apparati mediċi li jinkorporaw sistema tal-IA jistgħu jippreżentaw riskji mhux indirizzati mir-rekwiżiti essenzjali tas-saħħa u s-sikurezza stipulati fil-leġiżlazzjoni armonizzata rilevanti tal-Unjoni, peress li dik il-liġi settorjali ma tittrattax riskji speċifiċi għas-sistemi tal-IA. Dan jitlob li jkun hemm l-applikazzjoni simultanja u komplementari tad-diversi atti leġiżlattivi. Sabiex tiġi żgurata l-konsistenza u jiġu evitati piż u kostijiet amministrattivi bla bżonn, jenħtieġ li l-fornituri ta' prodott li jkun fih sistema ta' IA b'riskju għoli waħda jew aktar, li għaliha japplikaw ir-rekwiżiti ta' dan ir-Regolament u tal-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni bbażata fuq il-Qafas Leġiżlattiv Ġdid u elenkata f'anness ta' dan ir-Regolament, ikollhom flessibbiltà fir-rigward tad-deċiżjonijiet operazzjonali dwar kif tiġi żgurata l-konformità ta' prodott li jkun fih sistema tal-IA waħda jew aktar mar-rekwiżiti applikabbli kollha ta' dik il-leġiżlazzjoni armonizzata tal-Unjoni bl-aħjar mod. Dik il-flessibbiltà tista' tfisser, pereżempju, deċiżjoni mill-fornitur li jintegra parti mill-proċessi ta' ttestjar u rapportar, informazzjoni u dokumentazzjoni meħtieġa skont dan ir-Regolament fid-dokumentazzjoni u l-proċeduri diġà eżistenti meħtieġa skont il-leġiżlazzjoni eżistenti tal-Unjoni dwar l-armonizzazzjoni bbażata fuq il-Qafas Leġiżlattiv Ġdid u elenkata f'anness ta' dan ir-Regolament. Dan jenħtieġ li bl-ebda mod ma jimmina l-obbligu tal-fornitur li jikkonforma mar-rekwiżiti applikabbli kollha.
(65)
System zarządzania ryzykiem powinien obejmować ciągły, iteracyjny proces, który jest planowany i realizowany przez cały cykl życia systemu AI wysokiego ryzyka. Proces ten powinien mieć na celu identyfikację i ograniczenie istotnego ryzyka, jakie systemy AI stwarzają dla zdrowia, bezpieczeństwa i praw podstawowych. System zarządzania ryzykiem powinien podlegać regularnym przeglądom i aktualizacji, aby zapewnić jego stałą skuteczność oraz uzasadnienie i dokumentację wszelkich istotnych decyzji i działań podjętych zgodnie z niniejszym rozporządzeniem. Proces ten powinien zapewniać, aby dostawca identyfikował ryzyko lub niepożądany wpływ oraz wdrażał środki ograniczające znane i racjonalnie przewidywalne ryzyko dla zdrowia, bezpieczeństwa i praw podstawowych związane z systemami AI w świetle ich przeznaczenia i dającego się racjonalnie przewidzieć niewłaściwego wykorzystania, w tym możliwego ryzyka wynikającego z interakcji między systemem AI a środowiskiem, w którym ten system działa. W systemie zarządzania ryzykiem należy przyjąć najbardziej odpowiednie – w świetle aktualnego stanu wiedzy technicznej w dziedzinie AI – środki zarządzania ryzykiem. Przy określaniu najbardziej odpowiednich środków zarządzania ryzykiem dostawca powinien udokumentować i wyjaśnić dokonane wybory oraz, w stosownych przypadkach, zaangażować ekspertów i zewnętrzne zainteresowane strony. Identyfikując dające się racjonalnie przewidzieć niewłaściwe wykorzystanie systemów AI wysokiego ryzyka, dostawca powinien uwzględnić przypadki wykorzystania systemów AI, w odniesieniu do których można zasadnie oczekiwać, że będą one wynikać z łatwo przewidywalnego zachowania ludzkiego w kontekście szczególnych cech i wykorzystania danego systemu AI, chociaż takich przypadków wykorzystania nie przewidziano w przeznaczeniu danego systemu ani w jego instrukcji obsługi. Wszelkie znane lub dające się przewidzieć okoliczności związane z wykorzystaniem systemu AI wysokiego ryzyka zgodnie z jego przeznaczeniem lub w warunkach dającego się racjonalnie przewidzieć niewłaściwego wykorzystania, mogące powodować ryzyko dla zdrowia i bezpieczeństwa lub praw podstawowych, powinny zostać uwzględnione w instrukcji obsługi dostarczonej przez dostawcę. Ma to na celu zapewnienie, aby podmiot stosujący był ich świadomy i uwzględniał je przy korzystaniu z systemu AI wysokiego ryzyka. Określenie i wdrożenie – na podstawie niniejszego rozporządzenia – środków ograniczających ryzyko w odniesieniu dodającego się przewidzieć niewłaściwego wykorzystania nie powinno wymagać od dostawcy wprowadzenia szczególnego dodatkowego szkolenia, by zaradzić temu dającemu się przewidzieć niewłaściwemu wykorzystaniu. Zachęca się jednak dostawców do rozważenia takich dodatkowych środków szkoleniowych w celu ograniczenia dającego się racjonalnie przewidzieć niewłaściwego wykorzystania, o ile będzie to konieczne i stosowne.
(65)
Jenħtieġ li s-sistema ta' ġestjoni tar-riskju tkun tikkonsisti fi proċess iterattiv kontinwu li jkun ippjanat u mħaddem tul iċ-ċiklu tal-ħajja kollu ta' sistema tal-IA b'riskju għoli. Jenħtieġ li dak il-proċess ikollu l-għan li jidentifika u jimmitiga r-riskji rilevanti tas-sistemi tal-IA fuq is-saħħa, is-sikurezza u d-drittijiet fundamentali. Jenħtieġ li s-sistema tal-ġestjoni tar-riskju tiġi rieżaminata u aġġornata regolarment biex jiġi żgurat li titkompla l-effettività tagħha, kif ukoll il-ġustifikazzjoni u d-dokumentazzjoni ta' kwalunkwe deċiżjoni u azzjoni sinifikanti meħuda soġġett għal dan ir-Regolament. Jenħtieġ li dan il-proċess jiżgura li l-fornitur jidentifika r-riskji jew l-impatti negattivi u jimplimenta miżuri ta' mitigazzjoni għar-riskji magħrufa u raġonevolment prevedibbli tas-sistemi tal-IA għas-saħħa, għas-sikurezza u għad-drittijiet fundamentali fid-dawl tal-għan maħsub tagħhom u tal-użu ħażin raġonevolment prevedibbli, inkluż ir-riskji possibbli li jirriżultaw mill-interazzjoni bejn is-sistema tal-IA u l-ambjent li topera fih. Jenħtieġ li s-sistema tal-ġestjoni tar-riskju tadotta l-aktar miżuri xierqa ta' ġestjoni tar-riskju fid-dawl tal-ogħla livell ta' żvilupp tekniku fl-IA. Meta jidentifika l-aktar miżuri xierqa ta' ġestjoni tar-riskju, jenħtieġ li l-fornitur jiddokumenta u jispjega l-għażliet li jkunu saru u, meta rilevanti, jinvolvi esperti u partijiet ikkonċernati esterni. Meta jidentifika l-użu ħażin raġonevolment prevedibbli ta' sistemi tal-IA b'riskju għoli, il-fornitur jenħtieġ li jkopri l-użi ta' sistemi tal-IA li, filwaqt li ma jkunux koperti direttament mill-għan maħsub u previst fl-istruzzjoni għall-użu, xorta waħda jistgħu jkunu raġonevolment mistennija li jirriżultaw minn imġiba umana faċilment prevedibbli fil-kuntest tal-karatteristiċi speċifiċi u tal-użu ta' sistema tal-IA partikolari. Jenħtieġ li kwalunkwe ċirkostanza magħrufa jew prevedibbli relatata mal-użu tas-sistema tal-IA b'riskju għoli f'konformità mal-għan maħsub tagħha jew f'kundizzjonijiet ta' użu ħażin raġonevolment prevedibbli, li tista' twassal għal riskji għas-saħħa u s-sikurezza jew għad-drittijiet fundamentali, tiġi inkluża fl-istruzzjonijiet għall-użu li huma pprovduti mill-fornitur. Dan biex jiġi żgurat li l-implimentatur ikun konxju u jqishom meta juża s-sistema tal-IA b'riskju għoli. Jenħtieġ li l-identifikazzjoni u l-implimentazzjoni ta' miżuri ta' mitigazzjoni tar-riskju għal użu ħażin prevedibbli skont dan ir-Regolament ma jirrikjedux taħriġ addizzjonali speċifiku għas-sistema tal-IA b'riskju għoli mill-fornitur biex jiġi indirizzat l-użu ħażin prevedibbli. Madankollu, il-fornituri huma mħeġġa jikkunsidraw tali miżuri ta' taħriġ addizzjonali biex itaffu l-użi ħżiena prevedibbli raġonevoli kif meħtieġ u xieraq.
(66)
Do systemów AI wysokiego ryzyka należy stosować wymogi dotyczące zarządzania ryzykiem, jakości i istotności wykorzystywanych zbiorów danych, dokumentacji technicznej i rejestrowania zdarzeń, przejrzystości i przekazywania informacji podmiotom stosującym, nadzoru ze strony człowieka oraz solidności, dokładności i cyberbezpieczeństwa. Wymogi te są konieczne, aby skutecznie ograniczyć ryzyko dla zdrowia, bezpieczeństwa i praw podstawowych. Z uwagi na brak innych racjonalnie dostępnych środków, które powodowałyby mniejsze ograniczenia w handlu, wymogi te nie stanowią nieuzasadnionych ograniczeń w handlu.
(66)
Jenħtieġ li r-rekwiżiti japplikaw għas-sistemi tal-IA b'riskju għoli fir-rigward tal-ġestjoni tar-riskju, il-kwalità u r-rilevanza tas-settijiet tad-data użati, id-dokumentazzjoni teknika u ż-żamma tar-rekords, it-trasparenza u l-għoti tal-informazzjoni lill-implimentaturi, is-sorveljanza mill-bniedem, u r-robustezza, l-akkuratezza u ċ-ċibersigurtà. Dawk ir-rekwiżiti huma meħtieġa biex itaffu b'mod effettiv ir-riskji għas-saħħa u s-sikurezza u għad-drittijiet fundamentali. Billi l-ebda miżura oħra anqas restrittiva għall-kummerċ ma tkun raġonevolment disponibbli, dawk ir-rekwiżiti mhumiex restrizzjonijiet mhux ġustifikati għall-kummerċ.
(67)
Wysokiej jakości dane i dostęp do wysokiej jakości danych odgrywają kluczową rolę w ustanawianiu struktury i zapewnianiu skuteczności działania wielu systemów AI, w szczególności w przypadku stosowania technik obejmujących trenowanie modeli, w celu zapewnienia, aby system AI wysokiego ryzyka działał zgodnie z przeznaczeniem i bezpiecznie oraz aby nie stał się źródłem zakazanej przez prawo Unii dyskryminacji. Wysokiej jakości zbiory danych treningowych, walidacyjnych i testowych wymagają wdrożenia odpowiednich praktyk w zakresie administrowania i zarządzania danymi. Zbiory danych treningowych, walidacyjnych i testowych, w tym etykiety, powinny być adekwatne, wystarczająco reprezentatywne oraz w jak największym stopniu wolne od błędów i kompletne z punktu widzenia przeznaczenia systemu. Aby ułatwić zapewnienie zgodności z prawem Unii o ochronie danych, takim jak rozporządzenie (UE) 2016/679, praktyki w zakresie administrowania i zarządzania danymi powinny przewidywać, w przypadku danych osobowych, zapewnianie przejrzystości pierwotnego celu zbierania danych. Te zbiory danych powinny również charakteryzować się odpowiednimi właściwościami statystycznymi, w tym w odniesieniu do osób lub grup osób, wobec których system AI wysokiego ryzyka ma być wykorzystywany, ze szczególnym uwzględnieniem ograniczania ewentualnej stronniczości w zbiorach danych, która może mieć wpływ na zdrowie i bezpieczeństwo osób, negatywnie oddziaływać na prawa podstawowe lub prowadzić do dyskryminacji zakazanej na mocy prawa Unii, zwłaszcza w przypadku gdy dane wyjściowe wpływają na dane wejściowe wykorzystywane na potrzeby przyszłych operacji (sprzężenie zwrotne, ang. feedback loops). Stronniczość może być na przykład nieodłączną cechą źródłowych zbiorów danych, szczególnie jeżeli używa się danych historycznych lub wygenerowanych na etapie wdrażania systemów w warunkach rzeczywistych. Na wyniki generowane przez systemy AI może wpływać taka nieodłączna stronniczość, która z zasady stopniowo zwiększa się, a tym samym utrwala i pogłębia istniejącą dyskryminację, zwłaszcza w odniesieniu do osób należących do grup szczególnie wrażliwych, w tym grup rasowych lub etnicznych. Wymóg, aby zbiory danych były w jak największym stopniu kompletne i wolne od błędów, nie powinien wpływać na stosowanie technik ochrony prywatności w kontekście wdrażania i testowania systemów AI. W szczególności zbiory danych powinny uwzględniać – w zakresie wymaganym z uwagi na ich przeznaczenie – cechy, właściwości lub elementy, które są specyficzne dla określonego otoczenia geograficznego, kontekstualnego, behawioralnego lub funkcjonalnego, w którym dany system AI ma być wykorzystywany. Zgodność z wymogami związanymi z zarządzaniem danymi można zapewnić, korzystając z usług stron trzecich, które oferują certyfikowane usługi w zakresie zgodności, w tym weryfikację zarządzania danymi i integralności zbioru danych oraz praktyki w zakresie trenowania, walidacji i testowania danych, o ile zapewniona jest zgodność z wymogami dotyczącymi danych określonymi w niniejszym rozporządzeniu.
(67)
Id-data ta' kwalità għolja u l-aċċess għal data ta' kwalità għolja għandhom rwol vitali fl-għoti tal-istruttura u fl-iżgurar tal-prestazzjoni ta' ħafna sistemi tal-IA, speċjalment meta jintużaw tekniki li jinvolvu t-taħriġ tal-mudelli, bl-għan li jiġi żgurat li s-sistema tal-IA b'riskju għoli taħdem kif suppost u b'mod sikur u ma ssirx sors ta' diskriminazzjoni pprojbit mil-liġi tal-Unjoni. Settijiet tad-data ta' kwalità għolja għal taħriġ, validazzjoni u ttestjar jirrikjedu l-implimentazzjoni ta' prattiki xierqa ta' governanza u ġestjoni tad-data. Jenħtieġ li s-settijiet tad-data għal taħriġ, validazzjoni u ttestjar, inkluż it-tikketti, ikunu rilevanti, rappreżentattivi biżżejjed, u sa fejn possibbli mingħajr żbalji u kompluti fid-dawl tal-għan maħsub tas-sistema. Sabiex tiġi ffaċilitata l-konformità mal-liġi tal-Unjoni dwar il-protezzjoni tad-data, bħar-Regolament (UE) 2016/679, jenħtieġ li l-prattiki ta' governanza u tal-ġestjoni tad-data jinkludu, fil-każ ta' data personali, trasparenza fir-rigward tal-iskop oriġinali tal-ġbir tad-data. Jenħtieġ li s-settijiet tad-data jkollhom ukoll il-proprjetajiet statistiċi xierqa, inkluż fir-rigward tal-persuni jew tal-gruppi ta' persuni li fir-rigward tagħhom hija maħsuba li tintuża s-sistema tal-IA b'riskju għoli, b'attenzjoni speċifika għall-mitigazzjoni tal-preġudizzji possibbli fis-settijiet tad-data, li x'aktarx jaffettwaw is-saħħa u s-sikurezza tal-persuni, ikollhom impatt negattiv fuq id-drittijiet fundamentali jew iwasslu għal diskriminazzjoni pprojbita skont il-liġi tal-Unjoni, speċjalment meta l-outputs tad-data jinfluwenzaw l-inputs għal operazzjonijiet futuri (feedback loops). Il-preġudizzji jistgħu pereżempju jkunu inerenti fis-settijiet tad-data sottostanti, speċjalment meta tkun qed tintuża data storika, jew iġġenerati meta s-sistemi jiġu implimentati f'ambjenti reali. Ir-riżultati pprovduti mis-sistemi tal-IA jistgħu jiġu influwenzati minn tali preġudizzji inerenti li huma inklinati li jiżdiedu gradwalment u b'hekk jipperpetwaw u jamplifikaw id-diskriminazzjoni eżistenti, b'mod partikolari għal persuni li jagħmlu parti minn ċerti gruppi vulnerabbli, inkluż gruppi razzjali jew etniċi. Jenħtieġ li r-rekwiżit li s-settijiet tad-data jkunu kemm jista' jkun kompluti u mingħajr żbalji ma jaffettwax l-użu ta' tekniki li jippreservaw il-privatezza fil-kuntest tal-iżvilupp u l-ittestjar tas-sistemi tal-IA. B'mod partikolari, jenħtieġ li s-settijiet tad-data jqisu, sa fejn ikun meħtieġ mill-għan maħsub tagħhom, il-karatteristiċi jew l-elementi partikolari għall-ambjent jew għall-issettjar ġeografiku, kuntestwali, komportamentali jew funzjonali speċifiku li fih tkun maħsuba li tintuża s-sistema tal-IA. Ir-rekwiżiti relatati mal-governanza tad-data jistgħu jiġu rrispettati billi jsir rikors għal partijiet terzi li joffru servizzi ta' konformità ċċertifikati inkluż verifika tal-governanza tad-data, tal-integrità tas-sett tad-data, u tat-taħriġ tad-data, il-prattiki tal-validazzjoni u tal-ittestjar, sa fejn tiġi żgurata l-konformità mar-rekwiżiti tad-data ta' dan ir-Regolament.
(68)
Przy wdrażaniu i ocenie systemów AI wysokiego ryzyka niektóre podmioty, takie jak dostawcy, jednostki notyfikowane i inne odpowiednie podmioty, takie jak europejskie centra innowacji cyfrowych, ośrodki testowo-doświadczalne i naukowcy, powinny mieć możliwość uzyskania dostępu do wysokiej jakości zbiorów danych i korzystania z nich w zakresie obszarów działalności tych podmiotów związanych z niniejszym rozporządzeniem. Wspólne europejskie przestrzenie danych ustanowione przez Komisję oraz ułatwienie wymiany danych między przedsiębiorstwami i udostępniania danych administracji publicznej w interesie publicznym będą miały zasadnicze znaczenie dla zapewnienia zaufanego, odpowiedzialnego i niedyskryminacyjnego dostępu do danych wysokiej jakości na potrzeby trenowania, walidacji i testowania systemów AI. Na przykład w dziedzinie zdrowia europejska przestrzeń danych dotyczących zdrowia ułatwi niedyskryminacyjny dostęp do danych dotyczących zdrowia oraz trenowanie algorytmów AI na tych zbiorach danych w sposób bezpieczny, terminowy, przejrzysty, wiarygodny i zapewniający ochronę prywatności oraz z odpowiednim zarządzaniem instytucjonalnym. Odpowiednie właściwe organy, w tym organy sektorowe, zapewniające dostęp do danych lub wspierające taki dostęp, mogą również wspierać dostarczanie wysokiej jakości danych na potrzeby trenowania, walidacji i testowania systemów AI.
(68)
Għall-iżvilupp u l-valutazzjoni ta' sistemi tal-IA b'riskju għoli, jenħtieġ li ċerti atturi, bħal fornituri, korpi notifikati u entitajiet rilevanti oħra, bħaċ-Ċentri Ewropej tal-Innovazzjoni Diġitali, il-faċilitajiet tal-esperimentazzjoni u ttestjar, u r-riċerkaturi, ikunu jistgħu jaċċessaw u jużaw settijiet tad-data ta' kwalità għolja fl-oqsma tal-attivitajiet ta' dawk l-atturi li huma relatati ma' dan ir-Regolament. L-ispazji komuni Ewropej tad-data stabbiliti mill-Kummissjoni u l-faċilitazzjoni tal-kondiviżjoni tad-data bejn in-negozji u mal-gvern fl-interess pubbliku ser ikunu strumentali biex jipprovdu aċċess affidabbli, responsabbli u nondiskriminatorju għal data ta' kwalità għolja għat-taħriġ, il-validazzjoni u l-ittestjar tas-sistemi tal-IA. Pereżempju, fil-qasam tas-saħħa, l-ispazju Ewropew tad-data dwar is-saħħa ser jiffaċilita aċċess nondiskriminatorju għal data dwar is-saħħa u t-taħriġ ta' algoritmi tal-IA fuq dawk is-settijiet tad-data, b'mod li jiżgura l-privatezza, li hu sigur, fil-ħin, trasparenti u affidabbli, u b'governanza istituzzjonali xierqa. L-awtoritajiet kompetenti rilevanti, inkluż dawk settorjali, li jipprovdu jew jappoġġaw l-aċċess għad-data, jistgħu jappoġġaw ukoll il-forniment ta' data ta' kwalità għolja għat-taħriġ, il-validazzjoni u l-ittestjar tas-sistemi tal-IA.
(69)
Prawo do prywatności i ochrony danych osobowych musi być zagwarantowane przez cały cykl życia systemu AI. W tym względzie, gdy przetwarzane są dane osobowe, zastosowanie mają zasady minimalizacji danych oraz uwzględnienia ochrony danych już w fazie projektowania i domyślnej ochrony danych, które określono w prawie Unii o ochronie danych. Środki podejmowane przez dostawców w celu zapewnienia zgodności z tymi zasadami mogą obejmować nie tylko anonimizację i szyfrowanie, ale również wykorzystanie technologii, która umożliwia wprowadzanie algorytmów do danych i umożliwia trenowanie systemów AI bez przekazywania między stronami lub kopiowania samych surowych lub ustrukturyzowanych danych, bez uszczerbku dla wymogów dotyczących zarządzania danymi przewidzianych w niniejszym rozporządzeniu.
(69)
Id-dritt għall-privatezza u għall-protezzjoni tad-data personali jrid jiġi ggarantit tul iċ-ċiklu tal-ħajja kollu tas-sistema tal-IA. F'dan ir-rigward, il-prinċipji tal-minimizzazzjoni tad-data u tal-protezzjoni tad-data mid-disinn u b'mod awtomatiku, kif stipulati fil-liġi tal-Unjoni dwar il-protezzjoni tad-data, huma applikabbli meta tiġi pproċessata d-data personali. Il-miżuri meħuda mill-fornituri biex jiżguraw il-konformità ma' dawk il-prinċipji jistgħu jinkludu mhux biss l-anonimizzazzjoni u l-kriptaġġ, iżda wkoll l-użu ta' teknoloġija li tippermetti li l-algoritmi jinġiebu fid-data u li tippermetti t-taħriġ tas-sistemi tal-IA mingħajr it-trażmissjoni bejn il-partijiet jew l-ikkupjar tad-data mhux ipproċessata jew strutturata nnifisha, mingħajr preġudizzju għar-rekwiżiti dwar il-governanza tad-data previsti f'dan ir-Regolament.
(70)
W celu ochrony praw innych osób przed dyskryminacją, która może wynikać ze stronniczości systemów AI, dostawcy powinni wyjątkowo, w zakresie, w jakim jest to bezwzględnie konieczne do celów zapewnienia wykrywania i korygowania stronniczości w odniesieniu do systemów AI wysokiego ryzyka – z zastrzeżeniem odpowiednich zabezpieczeń w zakresie podstawowych praw i wolności osób fizycznych oraz po spełnieniu wszystkich mających zastosowanie warunków ustanowionych w niniejszym rozporządzeniu, w uzupełnieniu warunków ustanowionych w rozporządzeniach (UE) 2016/679 i (UE) 2018/1725 oraz w dyrektywie (UE) 2016/680 – mieć możliwość przetwarzania również szczególnych kategorii danych osobowych w związku z istotnym interesem publicznym w rozumieniu art. 9 ust. 2 lit. g) rozporządzenia (UE) 2016/679 i art. 10 ust. 2 lit. g) rozporządzenia (UE) 2018/1725.
(70)
Biex jiġi protett id-dritt ta' oħrajn mid-diskriminazzjoni li tista' tirriżulta mill-preġudizzju fis-sistemi tal-IA, jenħtieġ li l-fornituri, b'mod eċċezzjonali, sa fejn ikun strettament meħtieġ għall-fini tal-iżgurar tal-kxif u l-korrezzjoni tal-preġudizzji fir-rigward tas-sistemi tal-IA b'riskju għoli, soġġetti għal salvagwardji xierqa għad-drittijiet u l-libertajiet fundamentali tal-persuni fiżiċi u wara l-applikazzjoni tal-kundizzjonijiet applikabbli kollha stabbiliti f'dan ir-Regolament flimkien mal-kundizzjonijiet stabbiliti fir-Regolamenti (UE) 2016/679 u (UE) 2018/1725 u fid-Direttiva (UE) 2016/680, ikunu jistgħu jipproċessaw ukoll kategoriji speċjali ta' data personali, bħala kwistjoni ta' interess pubbliku sostanzjali skont it-tifsira tal-Artikolu 9(2), il-punt (g) tar-Regolament (UE) 2016/679 u l-Artikolu 10(2), il-punt (g) tar-Regolament (UE) 2018/1725.
(71)
Dysponowanie zrozumiałymi informacjami na temat tego, w jaki sposób rozwinięto systemy AI wysokiego ryzyka i jak działają one w całym cyklu życia, ma zasadnicze znaczenie dla umożliwienia identyfikowalności tych systemów, weryfikacji zgodności z wymogami określonymi w niniejszym rozporządzeniu, a także dla monitorowania ich działania i monitorowania po wprowadzeniu do obrotu. W tym celu konieczne jest prowadzenie rejestrów zdarzeń oraz zapewnienie dostępności dokumentacji technicznej zawierającej informacje niezbędne do oceny zgodności systemu AI z odpowiednimi wymogami i do ułatwienia monitorowania po wprowadzeniu do obrotu. Informacje takie powinny być podane w jasnej i kompleksowej formie i obejmować ogólne cechy, zdolności i ograniczenia systemu, algorytmy, dane, procesy związane z trenowaniem, testowaniem i walidacją, a także dokumentację dotyczącą odpowiedniego systemu zarządzania ryzykiem. Dokumentacja techniczna powinna podlegać odpowiedniej aktualizacji w całym cyklu życia systemu AI. Ponadto w systemach AI wysokiego ryzyka powinno być technicznie możliwe automatyczne rejestrowanie zdarzeń – za pomocą rejestrów zdarzeń – w całym cyklu życia systemu.
(71)
Huwa essenzjali li jkun hemm informazzjoni komprensibbli dwar kif ġew żviluppati s-sistemi tal-IA b'riskju għoli u kif jaħdmu tul ħajjithom kollha biex tkun tista' ssir it-traċċabbiltà ta' dawk is-sistemi, biex tiġi vverifikata l-konformità mar-rekwiżiti skont dan ir-Regolament, kif ukoll biex isir monitoraġġ tal-operazzjonijiet tagħhom u sorveljanza ta' wara t-tqegħid fis-suq. Għal dan il-għan, hemm bżonn li jinżammu rekords u li jkun hemm disponibbli dokumentazzjoni teknika, bl-informazzjoni meħtieġa biex tiġi vvalutata l-konformità tas-sistema tal-IA mar-rekwiżiti rilevanti u tiġi ffaċilitata s-sorveljanza ta' wara t-tqegħid fis-suq. Jenħtieġ li din l-informazzjoni tkun tinkludi l-karatteristiċi ġenerali, il-kapaċitajiet u l-limitazzjonijiet tas-sistema, tal-algoritmi, tad-data, tat-taħriġ, tal-ittestjar u tal-proċessi ta' validazzjoni użati kif ukoll dokumentazzjoni dwar is-sistema rilevanti tal-ġestjoni tar-riskji u li tkun mfassla f'forma ċara u komprensiva. Jenħtieġ li d-dokumentazzjoni teknika tinżamm aġġornata b'mod xieraq tul il-ħajja tas-sistema tal-IA. Barra minn hekk, jenħtieġ li s-sistemi tal-IA b'riskju għoli jippermettu teknikament ir-reġistrazzjoni awtomatika tal-avvenimenti, permezz ta' reġistri, tul il-ħajja tas-sistema.
(72)
Aby zająć się kwestiami związanymi z efektem czarnej skrzynki i złożonością niektórych systemów AI i pomóc podmiotom stosującym w spełnianiu ich obowiązków ustanowionych w niniejszym rozporządzeniu, od systemów AI wysokiego ryzyka należy wymagać określonego stopnia przejrzystości przed wprowadzeniem ich do obrotu lub oddaniem ich do użytku. Systemy AI wysokiego ryzyka należy projektować w taki sposób, aby umożliwić podmiotom stosującym zrozumienie funkcjonowania systemu AI, ocenę jego funkcjonalności oraz zrozumienie jego mocnych stron i ograniczeń. Systemom AI wysokiego ryzyka powinny towarzyszyć odpowiednie informacje w formie instrukcji obsługi. Takie informacje powinny obejmować cechy, zdolności i ograniczenia skuteczności działania systemu AI. Obejmowałyby one informacje na temat ewentualnych znanych i dających się przewidzieć okoliczności związanych z wykorzystaniem systemu AI wysokiego ryzyka, w tym działań podmiotu stosującego, które mogą wpływać na zachowanie i skuteczność działania systemu, i w których to okolicznościach system AI może powodować ryzyko dla zdrowia, bezpieczeństwa i praw podstawowych; a także informacje na temat zmian, które zostały z góry zaplanowane i ocenione pod kątem zgodności przez dostawcę, oraz na temat odpowiednich środków nadzoru ze strony człowieka, w tym środków ułatwiających podmiotom stosującym AI interpretację wyników systemu AI. Przejrzystość, w tym towarzyszące instrukcje obsługi, powinny pomóc podmiotom stosującym w korzystaniu z systemu i wspierać podejmowanie przez te podmioty świadomych decyzji. Podmioty stosujące powinny, między innymi, być lepiej przygotowane, aby dokonać właściwego wyboru systemu, z którego zamierzają korzystać w świetle mających do nich zastosowanie obowiązków, mieć wiedzę na temat zamierzonych i wykluczonych sposobów wykorzystania oraz prawidłowo i odpowiednio korzystać z systemu AI. Aby zwiększyć czytelność i dostępność informacji zawartych w instrukcji obsługi, w stosownych przypadkach należy uwzględnić konkretne przykłady, takie jak przykłady ograniczeń czy zamierzonych i wykluczonych sposobów wykorzystania systemu AI. Dostawcy powinni zapewnić, aby wszelka dokumentacja, w tym instrukcje obsługi, zawierała istotne, wyczerpujące, dostępne i zrozumiałe informacje, z uwzględnieniem potrzeb docelowych podmiotów stosujących i prawdopodobnie posiadanej przez te podmioty wiedzy. Instrukcje obsługi powinny być udostępniane w języku łatwo zrozumiałym dla docelowych podmiotów stosujących, określonym przez zainteresowane państwo członkowskie.
(72)
Biex jiġi indirizzat it-tħassib relatat mal-opaċità u l-kumplessità ta' ċerti sistemi tal-IA u biex l-implimentaturi jiġu megħjuna jissodisfaw l-obbligi tagħhom skont dan ir-Regolament, jenħtieġ li tkun meħtieġa trasparenza għas-sistemi tal-IA b'riskju għoli qabel ma jiġu introdotti fis-suq jew jitqiegħdu fis-servizz. Jenħtieġ li s-sistemi tal-IA b'riskju għoli jitfasslu b'mod li jippermetti lill-implimentaturi jifhmu kif taħdem is-sistema tal-IA, jevalwaw il-funzjonalità tagħha, u jifhmu l-elementi b'saħħithom u l-limitazzjonijiet tagħha. Jenħtieġ li s-sistemi tal-IA b'riskju għoli jkunu akkumpanjati minn informazzjoni xierqa fil-forma ta' struzzjonijiet dwar l-użu. Jenħtieġ li tali informazzjoni tinkludi l-karatteristiċi, il-kapaċitajiet u l-limitazzjonijiet tal-prestazzjoni tas-sistema tal-IA. Dawk ikopru informazzjoni dwar ċirkostanzi magħrufa u prevedibbli possibbli relatati mal-użu tas-sistema tal-IA b'riskju għoli, inkluż l-azzjoni tal-implimentatur li tista' tinfluwenza l-imġiba u l-prestazzjoni tas-sistema, li skontha s-sistema tal-IA tista' twassal għal riskji għas-saħħa, is-sikurezza, u d-drittijiet fundamentali, dwar il-bidliet li jkunu ġew iddeterminati minn qabel u vvalutati għall-konformità mill-fornitur u dwar il-miżuri rilevanti ta' sorveljanza mill-bniedem, inkluż il-miżuri li jiffaċilitaw l-interpretazzjoni tal-outputs tas-sistema tal-IA mill-implimentaturi. It-trasparenza, inkluż l-istruzzjonijiet ta' akkumpanjament għall-użu, għandha tassisti lill-implimentaturi fl-użu tas-sistema u tappoġġa t-teħid ta' deċiżjonijiet infurmat minnhom., Jenħtieġ li l-implimentaturi, fost l-oħrajn, jkunu f'pożizzjoni aħjar biex jagħmlu l-għażla korretta tas-sistema li beħsiebhom jużaw fid-dawl tal-obbligi applikabbli għalihom, jiġu edukati dwar l-użi maħsuba u preklużi, u jużaw is-sistema tal-IA b'mod korrett u kif xieraq. Biex jissaħħu l-leġibbiltà u l-aċċessibbiltà tal-informazzjoni inkluża fl-istruzzjonijiet tal-użu, meta xieraq, jenħtieġ li jiġu inklużi eżempji illustrattivi, pereżempju dwar il-limitazzjonijiet u dwar l-użi maħsuba u preklużi tas-sistema tal-IA. Jenħtieġ li l-fornituri jiżguraw li d-dokumentazzjoni kollha, inkluż l-istruzzjonijiet għall-użu, ikun fiha informazzjoni sinifikanti, komprensiva, aċċessibbli u li tinftiehem, filwaqt li jitqiesu l-ħtiġijiet u l-għarfien prevedibbli tal-implimentaturi fil-mira. Jenħtieġ li l-istruzzjonijiet għall-użu jkunu disponibbli b'lingwa li tista' tinftiehem faċilment mill-implimentaturi fil-mira, kif determinat mill-Istat Membru kkonċernat.
(73)
Systemy AI wysokiego ryzyka należy projektować i rozwijać w taki sposób, aby osoby fizyczne mogły nadzorować ich funkcjonowanie, zapewniać, by ich wykorzystanie było zgodne z przeznaczeniem oraz zapewniać, aby skutki ich wykorzystania były uwzględniane w całym cyklu życia systemu. W tym celu przed wprowadzeniem systemu do obrotu lub oddaniem go do użytku dostawca systemu powinien określić odpowiednie środki związane z nadzorem ze strony człowieka. W szczególności, w stosownych przypadkach, takie środki powinny gwarantować, że system podlega wbudowanym ograniczeniom operacyjnym, których sam nie jest w stanie obejść, i reaguje na działania człowieka – operatora systemu, oraz że osoby fizyczne, którym powierzono sprawowanie nadzoru ze strony człowieka, posiadają niezbędne kompetencje, przeszkolenie i uprawnienia do pełnienia tej funkcji. W stosownych przypadkach istotne jest także zapewnienie, aby systemy AI wysokiego ryzyka obejmowały mechanizmy udzielania wskazówek i informacji osobom fizycznym, którym powierzono nadzór ze strony człowieka, aby mogły one podejmować świadome decyzje, czy, kiedy i w jaki sposób należy interweniować w celu uniknięcia negatywnych konsekwencji lub ryzyka lub zatrzymać system, jeżeli nie działa on zgodnie z przeznaczeniem. Zważywszy na istotne konsekwencje dla osób w przypadku nieprawidłowego dopasowania przez niektóre systemy identyfikacji biometrycznej, należy wprowadzić wymóg sprawowania w odniesieniu do tych systemów wzmocnionego nadzoru ze strony człowieka, tak aby podmiot stosujący nie mógł podejmować żadnych działań ani decyzji na podstawie identyfikacji wynikającej z systemu, dopóki nie została ona odrębnie zweryfikowana i potwierdzona przez co najmniej dwie osoby fizyczne. Osoby te mogą pochodzić z różnych podmiotów i mogą to być osoby obsługujące system lub z niego korzystające. Wymóg ten nie powinien powodować niepotrzebnych obciążeń ani opóźnień i powinno wystarczyć, że odrębne weryfikacje dokonywane przez różne osoby będą automatycznie rejestrowane w wygenerowanych przez system rejestrach zdarzeń. Biorąc pod uwagę specyfikę obszarów ścigania przestępstw, migracji, kontroli granicznej i azylu, wymóg ten nie powinien mieć zastosowania, jeżeli na mocy prawa Unii lub prawa krajowego stosowanie tego wymogu uznaje się za nieproporcjonalne.
(73)
Jenħtieġ li s-sistemi tal-IA b'riskju għoli jitfasslu u jiġu żviluppati b'tali mod li l-persuni fiżiċi jkunu jistgħu jissorveljaw il-funzjonament tagħhom, jiżguraw li jintużaw kif maħsub u li l-impatti tagħhom jiġu indirizzati matul iċ-ċiklu tal-ħajja tas-sistema. Għal dak il-għan, jenħtieġ li l-fornitur tas-sistema jidentifika miżuri xierqa ta' sorveljanza mill-bniedem qabel ma tiġi introdotta fis-suq jew imqiegħda fis-servizz. B'mod partikolari, meta xieraq, jenħtieġ li dawn il-miżuri jkunu jiggarantixxu li s-sistema tkun soġġetta għal restrizzjonijiet operazzjonali inkorporati li ma jistgħux jitwarrbu mis-sistema nnifisha u li tkun tirreaġixxi għall-operatur uman, u li l-persuni fiżiċi li lilhom tkun ġiet assenjata sorveljanza mill-bniedem jkollhom il-kompetenza, it-taħriġ u l-awtorità meħtieġa biex jaqdu dak ir-rwol. Huwa essenzjali wkoll, kif xieraq, li jiġi żgurat li s-sistemi tal-IA b'riskju għoli jinkludu mekkaniżmi li jiggwidaw u jinfurmaw lil persuna fiżika li lilha tkun ġiet assenjata s-sorveljanza mill-bniedem biex tieħu deċiżjonijiet infurmati dwar jekk, meta u kif għandha tintervjeni biex jiġu evitati konsegwenzi jew riskji negattivi, jew biex titwaqqaf is-sistema jekk ma taħdimx kif maħsub. Meta jitqiesu l-konsegwenzi sinifikanti għall-persuni fil-każ ta' tqabbil mhux korrett minn ċerti sistemi ta’ identifikazzjoni bijometrika, huwa xieraq li jiġi previst rekwiżit imtejjeb ta' sorveljanza mill-bniedem għal dawk is-sistemi sabiex ma tittieħed l-ebda azzjoni jew deċiżjoni mill-implimentatur abbażi tal-identifikazzjoni li tirriżulta mis-sistema sakemm dan ma jkunx ġie vverifikat u kkonfermat separatament minn mill-inqas żewġ persuni fiżiċi. Dawk il-persuni jistgħu jkunu minn entità waħda jew aktar u jinkludu l-persuna li topera jew li tuża s-sistema. Jenħtieġ li dan ir-rekwiżit ma joħloqx piż jew dewmien bla bżonn u jista' jkun biżżejjed li l-verifiki separati mill-persuni differenti jiġu rreġistrati awtomatikament fir-reġistri ġġenerati mis-sistema. Minħabba l-ispeċifiċitajiet tal-oqsma tal-infurzar tal-liġi, il-migrazzjoni, il-kontroll tal-fruntieri u l-ażil, jenħtieġ li dan ir-rekwiżit ma japplikax fejn il-liġi tal-Unjoni jew dik nazzjonali tqis li l-applikazzjoni ta' dak ir-rekwiżit hija sproporzjonata.
(74)
Systemy AI wysokiego ryzyka powinny działać w sposób spójny w całym cyklu życia i charakteryzować się odpowiednim poziomem dokładności, solidności i cyberbezpieczeństwa – w świetle ich przeznaczenia i zgodnie z powszechnie uznawanym stanem wiedzy technicznej. Komisję oraz odpowiednie organizacje i zainteresowane strony zachęca się, by należycie uwzględniały ograniczanie ryzyka i negatywnych skutków związanych z systemem AI. Oczekiwany poziom wskaźników skuteczności działania należy zadeklarować w załączonej instrukcji obsługi. Dostawców wzywa się, by przekazywali te informacje podmiotom stosującym w jasny i łatwo zrozumiały sposób, wolny od dwuznaczności i stwierdzeń wprowadzających w błąd. Prawo Unii dotyczące metrologii prawnej, w tym dyrektywy Parlamentu Europejskiego i Rady 2014/31/UE (35) i 2014/32/UE (36), ma na celu zapewnienie dokładności pomiarów oraz wspieranie przejrzystości i uczciwości transakcji handlowych. W tym kontekście, we współpracy z odpowiednimi zainteresowanymi stronami i organizacjami, takimi jak organy ds. metrologii i organy ds. analizy porównawczej, Komisja powinna w stosownych przypadkach zachęcać do opracowywania poziomów odniesienia i metod pomiaru dotyczących systemów AI. Komisja powinna przy tym współpracować z partnerami międzynarodowymi pracującymi nad metrologią i odpowiednimi wskaźnikami pomiarowymi związanymi z AI oraz uwzględniać ich działania.
(74)
Jenħtieġ li s-sistemi tal-IA b'riskju għoli jaħdmu b'mod konsistenti tul iċ-ċiklu tal-ħajja tagħhom u jissodisfaw livell xieraq ta' akkuratezza, robustezza u ċibersigurtà, fid-dawl tal-għan maħsub tagħhom u f'konformità mal-ogħla livell ta' żvilupp tekniku rikonoxxut b'mod ġenerali. Il-Kummissjoni u l-organizzazzjonijiet u l-partijiet ikkonċernati rilevanti huma mħeġġa jqisu kif xieraq il-mitigazzjoni tar-riskji u l-impatti negattivi tas-sistema tal-IA. Jenħtieġ li l-livell mistenni tal-metriċi tal-prestazzjoni jiġi ddikjarat fl-istruzzjonijiet tal-użu li jakkumpanjawhom. Il-fornituri huma mħeġġa jikkomunikaw dik l-informazzjoni lill-implimentaturi b'mod ċar u li jinftiehem faċilment, mingħajr nuqqas ta' fehim jew dikjarazzjonijiet qarrieqa. Il-liġi tal-Unjoni dwar il-metroloġija legali, inkluż id-Direttivi 2014/31/UE (35) u 2014/32/UE (36) tal-Parlament Ewropew u tal-Kunsill, għandha l-għan li tiżgura l-akkuratezza tal-kejl u li tgħin it-trasparenza u l-ġustizzja tat-tranżazzjonijiet kummerċjali. F'dak il-kuntest, f'kooperazzjoni mal-partijiet ikkonċernati u l-organizzazzjoni rilevanti, bħall-awtoritajiet tal-metroloġija u tal-valutazzjoni komparattiva, jenħtieġ li l-Kummissjoni tħeġġeġ, kif xieraq, l-iżvilupp ta' parametri referenzjarji u metodoloġiji ta' kejl għas-sistemi tal-IA. Meta tagħmel dan, jenħtieġ li l-Kummissjoni tieħu nota u tikkollabora mas-sħab internazzjonali li jaħdmu fuq il-metroloġija u l-indikaturi tal-kejl rilevanti relatati mal-IA.
(75)
Kluczowym wymogiem dotyczącym systemów AI wysokiego ryzyka jest solidność techniczna. Powinny one być odporne na szkodliwe lub w inny sposób niepożądane zachowania, które mogą wynikać z ograniczeń w systemach lub ze środowiska, w którym te systemy działają (np. błędy, usterki, niespójności, nieoczekiwane sytuacje). W związku z tym należy wprowadzić środki techniczne i organizacyjne, by zapewnić solidność systemów AI wysokiego ryzyka, na przykład poprzez projektowanie i rozwijanie odpowiednich rozwiązań technicznych w celu zapobiegania szkodliwym lub innym niepożądanym zachowaniom lub ich ograniczania. Takie rozwiązania techniczne mogą obejmować na przykład mechanizmy umożliwiające bezpieczne przerwanie działania systemu (przejście systemu w stan bezpieczny – tzw. „fail-safe”), jeśli zaistnieją pewne nieprawidłowości lub gdy działanie wykracza poza określone z góry granice. Brak ochrony przed tym ryzykiem może mieć konsekwencje dla bezpieczeństwa lub negatywnie wpłynąć na prawa podstawowe, na przykład z powodu błędnych decyzji lub nieprawidłowych lub stronniczych wyników generowanych przez system AI.
(75)
Ir-robustezza teknika hi rekwiżit ewlieni għas-sistemi tal-IA b'riskju għoli. Jenħtieġ li dawn ikunu reżiljenti fir-rigward ta' mġiba li tagħmel ħsara jew li mhux mixtieqa b'xi mod ieħor li tista' tirriżulta minn limitazzjonijiet fis-sistemi jew fl-ambjent li fih joperaw is-sistemi (eż. żbalji, ħsarat, inkonsistenzi, sitwazzjonijiet mhux mistennija). Għalhekk, jenħtieġ li jittieħdu miżuri tekniċi u organizzattivi biex tiġi żgurata r-robustezza tas-sistemi tal-IA b'riskju għoli, pereżempju billi jitfasslu u jiġu żviluppati soluzzjonijiet tekniċi xierqa biex tiġi evitata jew minimizzata mġiba ta' ħsara jew fi kwalunkwe każ, mhux mixtieqa. Dawk is-soluzzjonijiet tekniċi jistgħu jinkludu pereżempju mekkaniżmi li jippermettu lis-sistema tinterrompi b'mod sikur l-operat tagħha (pjanijiet sikuri) fil-preżenza ta' ċerti anomaliji jew meta l-operazzjoni sseħħ barra minn ċerti limiti predeterminati. In-nuqqas ta' protezzjoni kontra dawn ir-riskji jista' jwassal għal impatti fuq is-sikurezza jew jaffettwa ħażin id-drittijiet fundamentali, pereżempju minħabba deċiżjonijiet żbaljati jew outputs ħżiena jew preġudikati ġġenerati mis-sistema tal-IA.
(76)
Cyberbezpieczeństwo odgrywa kluczową rolę w zapewnianiu odporności systemów AI na próby modyfikacji ich wykorzystania, zachowania, skuteczności działania lub obejścia ich zabezpieczeń przez działające w złej wierze osoby trzecie wykorzystujące słabe punkty systemu. Cyberataki na systemy AI mogą polegać na wykorzystaniu konkretnych zasobów AI, takich jak zbiory danych treningowych (np. zatruwanie danych) lub trenowane modele (np. ataki kontradyktoryjne lub ataki wnioskowania o członkostwie), lub wykorzystaniu słabych punktów w zasobach cyfrowych systemu AI lub w bazowej infrastrukturze ICT. Aby zapewnić poziom cyberbezpieczeństwa odpowiedni do ryzyka, dostawcy systemów AI wysokiego ryzyka powinni zatem wdrożyć odpowiednie środki, takie jak mechanizmy kontroli bezpieczeństwa, uwzględniając również w stosownych przypadkach infrastrukturę ICT, na której opiera się dany system.
(76)
Iċ-ċibersigurtà taqdi rwol kruċjali biex ikunu żgurati sistemi tal-IA reżiljenti kontra tentattivi biex jinbidlu l-użu, l-imġiba jew il-prestazzjoni tal-proprjetajiet tas-sigurtà tagħhom jew li dawn il-proprjetajiet jiġu kompromessi minn partijiet terzi malizzjużi li jisfruttaw il-vulnerabbiltajiet tas-sistema. Iċ-ċiberattakki kontra s-sistemi tal-IA jistgħu jisfruttaw assi speċifiċi għall-IA, bħal settijiet tad-data għat-taħriġ (eż. avvelenament tad-data) jew mudelli mħarrġin (eż. attakki kontradittorji jew inferenza ta' sħubija), jew jisfruttaw vulnerabbiltajiet fl-assi diġitali tas-sistema tal-IA jew fl-infrastruttura sottostanti tal-ICT. Għalhekk, biex ikun żgurat livell ta' ċibersigurtà xieraq għar-riskji, jenħtieġ li l-fornituri tas-sistemi tal-IA b'riskju għoli jieħdu l-miżuri adegwati, bħal kontrolli ta' sigurtà, filwaqt li jqisu wkoll kif xieraq l-infrastruttura sottostanti tal-ICT.
(77)
Bez uszczerbku dla wymogów związanych z solidnością i dokładnością określonych w niniejszym rozporządzeniu systemy AI wysokiego ryzyka, które wchodzą w zakres stosowania rozporządzenia Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi, zgodnie z tym rozporządzeniem mogą wykazać zgodność z wymogami w zakresie cyberbezpieczeństwa określonymi w niniejszym rozporządzeniu w drodze spełnienia zasadniczych wymogów w zakresie cyberbezpieczeństwa ustanowionych w tym rozporządzeniu. W przypadku gdy systemy AI wysokiego ryzyka spełniają zasadnicze wymogi rozporządzenia Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi, należy uznać, że wykazują zgodność z wymogami w zakresie cyberbezpieczeństwa ustanowionymi w niniejszym rozporządzeniu w zakresie, w jakim spełnienie tych wymogów wykazano w deklaracji zgodności UE lub w jej częściach wydanych zgodnie z tym rozporządzeniem. W tym celu ocena ryzyka dotyczącego cyberbezpieczeństwa związanego z produktem z elementami cyfrowymi, które zaklasyfikowano jako system AI wysokiego ryzyka zgodnie z niniejszym rozporządzeniem, przeprowadzana na podstawie rozporządzenia Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi, powinna uwzględniać ryzyko dla cyberodporności systemu AI w odniesieniu do podejmowanych przez nieupoważnione osoby trzecie prób zmiany jego wykorzystania, zachowania lub skuteczności działania, w tym uwzględniać charakterystyczne dla AI słabe punkty, takie jak ryzyko zatruwania danych lub ataki kontradyktoryjne, a także, w stosownych przypadkach, uwzględniać ryzyko dla praw podstawowych zgodnie z wymogami niniejszego rozporządzenia.
(77)
Mingħajr preġudizzju għar-rekwiżiti relatati mar-robustezza u l-akkuratezza stipulati f'dan ir-Regolament, is-sistemi tal-IA b'riskju għoli li jaqgħu fil-kamp ta' applikazzjoni ta’ Regolament tal-Parlament Ewropew u tal-Kunsill dwar ir-rekwiżiti orizzontali taċ-ċibersigurtà għall-prodotti b'elementi diġitali, f'konformità ma' dak ir-regolament jistgħu juru konformità mar-rekwiżiti taċ-ċibersigurtà ta' dan ir-Regolament billi jissodisfaw ir-rekwiżiti essenzjali taċ-ċibersigurtà stipulati f’ dak ir-regolament. Meta s-sistemi tal-IA b'riskju għoli jissodisfaw ir-rekwiżiti essenzjali ta’ regolament tal-Parlament Ewropew u tal-Kunsill dwar ir-rekwiżiti orizzontali taċ-ċibersigurtà għall-prodotti b'elementi diġitali, jenħtieġ li jitqiesu bħala konformi mar-rekwiżiti taċ-ċibersigurtà stipulati f'dan ir-Regolament sa fejn il-kisba ta' dawk ir-rekwiżiti tintwera fid-dikjarazzjoni ta' konformità tal-UE jew partijiet minnha maħruġa skont dak ir-regolament. Għal dak il-għan, jenħtieġ li l-valutazzjoni tar-riskji taċ-ċibersigurtà, assoċjati ma' prodott b'elementi diġitali kklassifikati bħala sistema tal-IA b'riskju għoli skont dan ir-Regolament, imwettqa skont regolament tal-Parlament Ewropew u tal-Kunsill dwar ir-rekwiżiti orizzontali taċ-ċibersigurtà għall-prodotti b'elementi diġitali, tqis ir-riskji għar-reżiljenza ċibernetika ta' sistema tal-IA fir-rigward ta' tentattivi minn partijiet terzi mhux awtorizzati biex ibiddlu l-użu, l-imġiba jew il-prestazzjoni tagħha, inkluż vulnerabbiltajiet speċifiċi għall-IA bħall-avvelenament tad-data jew attakki kontradittorji, kif ukoll, kif rilevanti, riskji għad-drittijiet fundamentali kif meħtieġ minn dan ir-Regolament.
(78)
Procedura oceny zgodności przewidziana w niniejszym rozporządzeniu powinna mieć zastosowanie do zasadniczych wymogów w zakresie cyberbezpieczeństwa produktu z elementami cyfrowymi objętego rozporządzeniem Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi i zaklasyfikowanego jako system AI wysokiego ryzyka na podstawie niniejszego rozporządzenia. Zasada ta nie powinna jednak powodować zmniejszenia niezbędnego poziomu ufności w odniesieniu do produktów krytycznych z elementami cyfrowymi objętych rozporządzeniem Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi. W związku z tym, na zasadzie odstępstwa od tej zasady, systemy AI wysokiego ryzyka, które wchodzą w zakres niniejszego rozporządzenia i są również kwalifikowane jako ważne i krytyczne produkty z elementami cyfrowymi zgodnie z rozporządzeniem Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi i do których ma zastosowanie procedura oceny zgodności oparta na kontroli wewnętrznej określona w załączniku do niniejszego rozporządzenia, podlegają przepisom dotyczącym oceny zgodności zawartym w rozporządzeniu Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi w zakresie, w jakim dotyczy to zasadniczych wymogów w zakresie cyberbezpieczeństwa określonych w tym rozporządzeniu. W tym przypadku do wszystkich pozostałych aspektów objętych niniejszym rozporządzeniem należy stosować odpowiednie przepisy dotyczące oceny zgodności opierającej się na kontroli wewnętrznej określone w załączniku do niniejszego rozporządzenia. By wykorzystać wiedzę teoretyczną i fachową ENISA w zakresie polityki cyberbezpieczeństwa i w oparciu o zadania powierzone ENISA na podstawie rozporządzenia Parlamentu Europejskiego i Rady (UE) 2019/881 (37), Komisja powinna współpracować z ENISA w kwestiach związanych z cyberbezpieczeństwem systemów AI.
(78)
Jenħtieġ li l-proċedura ta' valutazzjoni tal-konformità prevista minn dan ir-Regolament tapplika fir-rigward tar-rekwiżiti essenzjali taċ-ċibersigurtà ta' prodott b'elementi diġitali kopert minn Regolament tal-Parlament Ewropew u tal-Kunsill dwar ir-rekwiżiti orizzontali taċ-ċibersigurtà għall-prodotti b'elementi diġitali u kklassifikat bħala sistema tal-IA b'riskju għoli skont dan ir-Regolament. Madankollu, jenħtieġ li din ir-regola ma tirriżultax fit-tnaqqis tal-livell meħtieġ ta' assigurazzjoni għal prodotti kritiċi b'elementi diġitali koperti minn Regolament tal-Parlament Ewropew u tal-Kunsill dwar ir-rekwiżiti orizzontali taċ-ċibersigurtà għall-prodotti b'elementi diġitali. Għalhekk, b'deroga minn din ir-regola, sistemi tal-IA b'riskju għoli li jaqgħu fil-kamp ta' applikazzjoni ta' dan ir-Regolament u li huma kkwalifikati wkoll bħala prodotti importanti u kritiċi b'elementi diġitali skont Regolament tal-Parlament Ewropew u tal-Kunsill dwar ir-rekwiżiti orizzontali taċ-ċibersigurtà għall-prodotti b'elementi diġitali u li għalihom tapplika l-proċedura ta' valutazzjoni tal-konformità bbażata fuq il-kontroll intern stipulata f'anness ta' dan ir-Regolament, huma soġġetti għad-dispożizzjonijiet dwar il-valutazzjoni tal-konformità ta’ Regolament tal-Parlament Ewropew u tal-Kunsill dwar ir-rekwiżiti orizzontali taċ-ċibersigurtà għall-prodotti b'elementi diġitali sa fejn ikunu kkonċernati r-rekwiżiti essenzjali taċ-ċibersigurtà ta' dak ir-Regolament. F'dan il-każ, jenħtieġ li għall-aspetti l-oħra kollha koperti minn dan ir-Regolament japplikaw id-dispożizzjonijiet rispettivi dwar il-valutazzjoni tal-konformità bbażata fuq il-kontroll intern stipulati f'anness ta' dan ir-Regolament. Filwaqt li tibni fuq l-għarfien u l-kompetenza esperta tal-ENISA dwar il-politika taċ-ċibersigurtà u l-kompiti assenjati lill-ENISA skont ir-Regolament (UE) 2019/881 tal-Parlament Ewropew u tal-Kunsill (37), jenħtieġ li l-Kummissjoni tikkoopera mal-ENISA dwar kwistjonijiet relatati maċ-ċibersigurtà tas-sistemi tal-IA.
(79)
Należy zapewnić, aby odpowiedzialność za wprowadzenie do obrotu lub oddanie do użytku systemu AI wysokiego ryzyka ponosiła konkretna osoba fizyczna lub prawna określona jako dostawca, niezależnie od tego, czy ta osoba fizyczna lub prawna jest osobą, która zaprojektowała lub rozwinęła system.
(79)
Huwa xieraq li persuna fiżika jew ġuridika speċifika, definita bħala l-fornitur, tieħu r-responsabbiltà għall-introduzzjoni fis-suq jew għat-tqegħid fis-servizz ta' sistema tal-IA b'riskju għoli, irrispettivament minn jekk dik il-persuna fiżika jew ġuridika tkunx il-persuna li fasslet jew żviluppat is-sistema.
(80)
Jako sygnatariusze Konwencji ONZ o prawach osób niepełnosprawnych Unia i państwa członkowskie są prawnie zobowiązane do ochrony osób z niepełnosprawnościami przed dyskryminacją i do propagowania ich równości, do zapewnienia im dostępu na równych zasadach z innymi osobami do technologii i systemów informacyjno-komunikacyjnych oraz do zapewnienia poszanowania ich prywatności. Z uwagi na rosnące znaczenie i wykorzystanie systemów sztucznej inteligencji stosowanie zasad projektowania uniwersalnego do wszystkich nowych technologii i usług powinno zapewniać pełny i równy dostęp dla wszystkich osób, których potencjalnie dotyczą technologie AI lub które je stosują, w tym osób z niepełnosprawnościami, w sposób uwzględniający w pełni ich przyrodzoną godność i różnorodność. Istotne jest zatem, aby dostawcy zapewniali pełną zgodność z wymogami dostępności, w tym z dyrektywą Parlamentu Europejskiego i Rady (UE) 2016/2102 (38) i dyrektywą (UE) 2019/882. Dostawcy powinni zapewnić zgodność z tymi wymogami już na etapie projektowania. W związku z tym w projektowaniu systemu AI wysokiego ryzyka należy w jak największym stopniu uwzględnić niezbędne środki.
(80)
Bħala firmatarji tal-Konvenzjoni tan-Nazzjonijiet Uniti dwar id-Drittijiet ta' Persuni b'Diżabbiltà, l-Unjoni u l-Istati Membri huma legalment obbligati li jipproteġu lill-persuni b'diżabbiltà mid-diskriminazzjoni u li jippromwovu l-ugwaljanza tagħhom, li jiżguraw li l-persuni b'diżabbiltà jkollhom aċċess, fuq bażi ugwali ma' oħrajn, għat-teknoloġiji u s-sistemi tal-informazzjoni u tal-komunikazzjoni, u li jiżguraw ir-rispett għall-privatezza tal-persuni b'diżabbiltà. Minħabba l-importanza u l-użu dejjem akbar tas-sistemi tal-IA, l-applikazzjoni tal-prinċipji tad-disinn universali għat-teknoloġiji u s-servizzi l-ġodda kollha jenħtieġ li tiżgura aċċess sħiħ u ugwali għal kulħadd li potenzjalment jista' jiġi affettwat minn jew li juża teknoloġiji tal-IA, inkluż persuni b'diżabbiltà, b'mod li jqis bis-sħiħ id-dinjità u d-diversità inerenti tagħhom. Għalhekk huwa essenzjali li l-fornituri jiżguraw konformità sħiħa mar-rekwiżiti ta' aċċessibbiltà, inkluż id-Direttiva (UE) 2016/2102 tal-Parlament Ewropew u tal-Kunsill (38) u d-Direttiva (UE) 2019/882. Jenħtieġ li l-fornituri jiżguraw il-konformità ma' dawn ir-rekwiżiti mid-disinn. Għalhekk, jenħtieġ li l-miżuri meħtieġa jiġu integrati kemm jista' jkun fid-disinn tas-sistema tal-IA b'riskju għoli.
(81)
Dostawca powinien ustanowić solidny system zarządzania jakością, zapewnić przeprowadzenie wymaganej procedury oceny zgodności, sporządzić odpowiednią dokumentację i ustanowić solidny system monitorowania po wprowadzeniu do obrotu. Dostawcy systemów AI wysokiego ryzyka, którzy podlegają obowiązkom dotyczącym systemów zarządzania jakością na mocy odpowiednich sektorowych przepisów prawa Unii, powinni mieć możliwość włączenia elementów systemu zarządzania jakością przewidzianego w niniejszym rozporządzeniu do istniejącego systemu zarządzania jakością przewidzianego w innych sektorowych przepisach prawa Unii. Komplementarność między niniejszym rozporządzeniem a obowiązującymi sektorowymi przepisami prawa Unii powinna być również brana pod uwagę w przyszłych działaniach normalizacyjnych lub wytycznych przyjmowanych przez Komisję. Organy publiczne, które oddają do użytku systemy AI wysokiego ryzyka do celów własnych, mogą – w ramach przyjętego, odpowiednio, na poziomie krajowym lub regionalnym systemu zarządzania jakością – przyjąć i wdrożyć zasady dotyczące systemu zarządzania jakością, z uwzględnieniem specyfiki sektora oraz kompetencji i organizacji danego organu publicznego.
(81)
Jenħtieġ li l-fornitur jistabbilixxi sistema tajba ta' ġestjoni tal-kwalità, jiżgura t-twettiq tal-proċedura mitluba għal valutazzjoni tal-konformità, ifassal id-dokumentazzjoni rilevanti u jistabbilixxi sistema robusta ta' sorveljanza ta' wara t-tqegħid fis-suq. Jenħtieġ li l-fornituri tas-sistemi tal-IA b'riskju għoli li huma soġġetti għal obbligi rigward is-sistemi ta' ġestjoni tal-kwalità skont il-liġi settorjali rilevanti tal-Unjoni jkollhom il-possibbiltà li jinkludu l-elementi tas-sistema ta' ġestjoni tal-kwalità previsti f'dan ir-Regolament bħala parti mis-sistema eżistenti ta' ġestjoni tal-kwalità prevista f'dik il-liġi settorjali l-oħra tal-Unjoni. Jenħtieġ li l-komplementarjetà bejn dan ir-Regolament u l-liġi settorjali eżistenti tal-Unjoni titqies ukoll fl-attivitajiet ta' standardizzazzjoni jew ta' gwida futuri adottati mill-Kummissjoni. L-awtoritajiet pubbliċi li jqiegħdu fis-servizz sistemi tal-IA b'riskju għoli għall-użu tagħhom stess jistgħu jadottaw u jimplimentaw ir-regoli għas-sistema ta' ġestjoni tal-kwalità bħala parti mis-sistema ta' ġestjoni tal-kwalità adottata fil-livell nazzjonali jew reġjonali, kif xieraq, filwaqt li jqisu l-ispeċifiċitajiet tas-settur u l-kompetenzi u l-organizzazzjoni tal-awtorità pubblika kkonċernata.
(82)
W celu umożliwienia egzekwowania przepisów niniejszego rozporządzenia i stworzenia równych warunków działania dla operatorów, a także uwzględniając różne formy udostępniania produktów cyfrowych, należy zapewnić, aby w każdych okolicznościach osoba, która ma miejsce zamieszkania lub siedzibę w Unii, była w stanie przekazać organom wszystkie niezbędne informacje dotyczące zgodności danego systemu AI. W związku z tym dostawcy mający miejsce zamieszkania lub siedzibę w państwach trzecich przed udostępnieniem swoich systemów AI w Unii powinni ustanowić – na podstawie pisemnego pełnomocnictwa – upoważnionego przedstawiciela mającego miejsce zamieszkania lub siedzibę w Unii. Ten upoważniony przedstawiciel odgrywa kluczową rolę w zapewnianiu zgodności systemów AI wysokiego ryzyka wprowadzanych do obrotu lub oddawanych do użytku w Unii przez dostawców, którzy nie mają miejsca zamieszkania lub siedziby w Unii, oraz w pełnieniu funkcji ich osoby kontaktowej mającej miejsce zamieszkania lub siedzibę w Unii.
(82)
Biex jiġi ffaċilitat l-infurzar ta' dan ir-Regolament u jinħolqu kundizzjonijiet ekwi għall-operaturi, u filwaqt li jitqiesu l-forom differenti ta' tqegħid għad-dispożizzjoni tal-prodotti diġitali, hu importanti li jkun żgurat li, f'kull ċirkostanza, persuna stabbilita fl-Unjoni tkun tista' tipprovdi l-informazzjoni kollha meħtieġa lill-awtoritajiet dwar il-konformità tas-sistema tal-IA. Għalhekk, qabel ma jagħmlu s-sistemi tal-IA tagħhom disponibbli fl-Unjoni, il-fornituri stabbiliti f'pajjiżi terzi jenħtieġ li jaħtru, b'mandat bil-miktub, rappreżentant awtorizzat stabbilit fl-Unjoni. Dan ir-rappreżentant awtorizzat għandu rwol kruċjali biex jiżgura l-konformità tas-sistemi tal-IA b'riskju għoli introdotti fis-suq jew imqiegħda fis-servizz fl-Unjoni minn dawk il-fornituri li mhumiex stabbiliti fl-Unjoni, u biex iservi bħala l-persuna ta' kuntatt tagħhom stabbilit fl-Unjoni.
(83)
W świetle charakteru i złożoności łańcucha wartości systemów AI oraz zgodnie z nowymi ramami prawnymi konieczne jest zapewnienie pewności prawa i ułatwienie zgodności z niniejszym rozporządzeniem. W związku z tym konieczne jest wyjaśnienie roli i konkretnych obowiązków odpowiednich operatorów w całym łańcuchu wartości, takich jak importerzy i dystrybutorzy, którzy mogą przyczyniać się do rozwoju systemów AI. W niektórych sytuacjach operatorzy ci mogą odgrywać więcej niż jedną rolę jednocześnie i w związku z tym powinni łącznie spełniać wszystkie odpowiednie obowiązki związane z tymi rolami. Na przykład operator może występować jednocześnie jako dystrybutor i importer.
(83)
Fid-dawl tan-natura u l-kumplessità tal-katina tal-valur għas-sistemi tal-IA u f'konformità mal-Qafas Leġiżlattiv Ġdid, huwa essenzjali li tiġi żgurata ċ-ċertezza legali u tiġi ffaċilitata l-konformità ma' dan ir-Regolament. Għalhekk, jeħtieġ li jiġu ċċarati r-rwol u l-obbligi speċifiċi tal-operaturi rilevanti tul dik il-katina tal-valur, bħall-importaturi u d-distributuri li jistgħu jikkontribwixxu għall-iżvilupp tas-sistemi tal-IA. F'ċerti sitwazzjonijiet, dawk l-operaturi jistgħu jaġixxu f'aktar minn rwol wieħed fl-istess ħin u għalhekk jenħtieġ li jissodisfaw b'mod kumulattiv l-obbligi rilevanti kollha assoċjati ma' dawk ir-rwoli. Pereżempju, operatur jista' jaġixxi bħala distributur u importatur fl-istess ħin.
(84)
Aby zapewnić pewność prawa, należy wyjaśnić, że w pewnych określonych warunkach każdego dystrybutora, importera, podmiot stosujący lub inną stronę trzecią należy uznać za dostawcę systemu AI wysokiego ryzyka i w związku z tym powinni oni przyjąć na siebie wszystkie związane z tym obowiązki. Miałoby to miejsce w przypadku, gdy strona ta umieszcza swoją nazwę lub znak towarowy w systemie AI wysokiego ryzyka, który został już wprowadzony do obrotu lub oddany do użytku, bez uszczerbku dla ustaleń umownych przewidujących odmienny podział obowiązków. Miałoby to miejsce również w przypadku, gdy strona ta dokonuje istotnej zmiany w systemie AI wysokiego ryzyka, który został już wprowadzony do obrotu lub oddany do użytku, w taki sposób, że pozostaje on systemem AI wysokiego ryzyka zgodnie z niniejszym rozporządzeniem, lub jeżeli zmieni przeznaczenie systemu AI, w tym systemu AI ogólnego przeznaczenia, który nie został zaklasyfikowany jako system wysokiego ryzyka i został już wprowadzony do obrotu lub oddany do użytku, w taki sposób, że ten system AI staje się systemem wysokiego ryzyka zgodnie z niniejszym rozporządzeniem. Przepisy te należy stosować bez uszczerbku dla bardziej szczegółowych przepisów ustanowionych w unijnym prawodawstwie harmonizacyjnym opartym o nowe ramy prawne, wraz z którymi należy stosować niniejsze rozporządzenie. Na przykład do systemów AI wysokiego ryzyka będących wyrobami medycznymi w rozumieniu rozporządzenia (UE) 2017/745, należy nadal stosować art. 16 ust. 2 tego rozporządzenia stanowiący, że niektórych zmian nie należy uznawać za modyfikację wyrobu mogącą wpłynąć na jego zgodność z obowiązującymi wymogami.
(84)
Biex tiġi żgurata ċ-ċertezza legali, jeħtieġ li jiġi ċċarat li, taħt ċerti kundizzjonijiet speċifiċi, jenħtieġ li kwalunkwe distributur, importatur, implimentatur jew parti terza oħra titqies bħala fornitur ta' sistema ġdida tal-IA b'riskju għoli u għalhekk tassumi l-obbligi rilevanti kollha. Dan ikun il-każ jekk dik il-parti tqiegħed isimha jew it-trademark tagħha fuq sistema tal-IA b'riskju għoli diġà introdotta fis-suq jew imqiegħda fis-servizz, mingħajr preġudizzju għall-arranġamenti kuntrattwali li jistipulaw li l-obbligi jiġu allokati mod ieħor. Dan ikun ukoll il-każ jekk dik il-parti tagħmel modifika sostanzjali f'sistema tal-IA b'riskju għoli li tkun diġà introdotta fis-suq jew diġà tqiegħdet fis-servizz b'mod li tibqa' sistema tal-IA b'riskju għoli f'konformità ma' dan ir-Regolament, jew jekk timmodifika l-għan maħsub ta' sistema tal-IA, inkluż sistema tal-IA bi skop ġenerali, li ma tkunx ġiet ikklassifikata bħala b'riskju għoli u li tkun diġà introdotta fis-suq jew imqiegħda fis-servizz, b'mod li s-sistema tal-IA ssir sistema tal-IA b'riskju għoli f'konformità ma' dan ir-Regolament. Jenħtieġ li dawk id-dispożizzjonijiet japplikaw mingħajr preġudizzju għal dispożizzjonijiet aktar speċifiċi stabbiliti f'ċerti leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni bbażata fuq il-Qafas Leġiżlattiv Ġdid, li flimkien miegħu għandu japplika dan ir-Regolament. Pereżempju, jenħtieġ li l-Artikolu 16(2), tar-Regolament (UE) 2017/745, li jistabbilixxi li ċerti bidliet m'għandhomx jitqiesu bħala modifiki ta' apparat li jistgħu jaffettwaw il-konformità tiegħu mar-rekwiżiti applikabbli, ikompli japplika għal sistemi tal-IA b'riskju għoli li huma apparati mediċi skont it-tifsira ta' dak ir-Regolament.
(85)
Systemy AI ogólnego przeznaczenia mogą być wykorzystywane jako samodzielne systemy AI wysokiego ryzyka lub stanowić element innych systemów AI wysokiego ryzyka. W związku z tym z uwagi na ich szczególny charakter i aby zapewnić sprawiedliwy podział odpowiedzialności w całym łańcuchu wartości AI, dostawcy takich systemów, niezależnie od tego, czy ich mogą być one wykorzystywane jako systemy AI wysokiego ryzyka przez innych dostawców czy jako elementy systemów AI wysokiego ryzyka, powinni ściśle współpracować – o ile niniejsze rozporządzenie nie stanowi inaczej – z dostawcami odpowiednich systemów AI wysokiego ryzyka, aby umożliwić im spełnianie odpowiednich obowiązków ustanowionych w niniejszym rozporządzeniu, oraz z właściwymi organami ustanowionymi na podstawie niniejszego rozporządzenia.
(85)
Sistemi tal-IA bi skop ġenerali jistgħu jintużaw bħala sistemi tal-IA b'riskju għoli waħedhom jew ikunu komponenti ta' sistemi oħra tal-IA b'riskju għoli. Għaldaqstant, minħabba n-natura partikolari tagħhom u sabiex jiġi żgurat tqassim ġust tar-responsabbiltajiet tul il-katina ta' valur tal-IA, jenħtieġ li l-fornituri ta' tali sistemi, irrispettivament minn jekk jistgħux jintużaw bħala sistemi tal-IA b'riskju għoli bħala tali minn fornituri oħra jew bħala komponenti ta' sistemi tal-IA b'riskju għoli u dment li ma jkunx previst mod ieħor skont dan ir-Regolament, jikkooperaw mill-qrib mal-fornituri tas-sistemi tal-IA b'riskju għoli rilevanti biex jiffaċilitaw il-konformità tagħhom mal-obbligi rilevanti skont dan ir-Regolament u mal-awtoritajiet kompetenti stabbiliti skont dan ir-Regolament.
(86)
W przypadku gdy zgodnie z warunkami ustanowionymi w niniejszym rozporządzeniu dostawcy, który pierwotnie wprowadził system AI do obrotu lub oddał go do użytku, nie należy już uznawać za dostawcę do celów niniejszego rozporządzenia, a dostawca ten nie wykluczył wyraźnie, że system AI może zostać zmieniony w system AI wysokiego ryzyka, ten pierwszy dostawca powinien nadal ściśle współpracować i udostępniać niezbędne informacje oraz zapewniać dostęp techniczny i inną pomoc, których można zasadnie oczekiwać i które są wymagane do spełnienia obowiązków ustanowionych w niniejszym rozporządzeniu, w szczególności w zakresie wymogów dotyczących oceny zgodności systemów AI wysokiego ryzyka.
(86)
Meta, skont il-kundizzjonijiet stabbiliti f'dan ir-Regolament, jenħtieġ li l-fornitur li inizjalment ikun introduċa s-sistema tal-IA fis-suq jew qiegħdha fis-servizz ma jibqax jitqies bħala l-fornitur għall-finijiet ta' dan ir-Regolament, u meta dak il-fornitur ma jkunx eskluda espressament il-bidla tas-sistema tal-IA f'sistema tal-IA b'riskju għoli, jenħtieġ li dan il-fornitur preċedenti madankollu jikkoopera mill-qrib u jagħmel disponibbli l-informazzjoni meħtieġa u jipprovdi l-aċċess tekniku raġonevolment mistenni u assistenza oħra meħtieġa għat-twettiq tal-obbligi stipulati f'dan ir-Regolament, b'mod partikolari fir-rigward tar-rispett tal-valutazzjoni tal-konformità tas-sistemi tal-IA b'riskju għoli.
(87)
Ponadto w przypadku gdy system AI wysokiego ryzyka będący związanym z bezpieczeństwem elementem produktu, który wchodzi w zakres stosowania unijnego prawodawstwa harmonizacyjnego opartego na nowych ramach prawnych, nie jest wprowadzany do obrotu ani oddawany do użytku niezależnie od tego produktu, producent produktu – w rozumieniu tego prawodawstwa – powinien spełniać obowiązki dostawcy ustanowione w niniejszym rozporządzeniu, a w szczególności zapewnić zgodność systemu AI wbudowanego w produkt końcowy z wymogami niniejszego rozporządzenia.
(87)
Barra minn hekk, meta sistema tal-IA b'riskju għoli li tkun komponent tas-sikurezza ta' prodott li jaqa' fil-kamp ta' applikazzjoni tal-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni bbażata fuq il-Qafas Leġiżlattiv Ġdid ma tkunx introdotta fis-suq jew ma titqiegħedx fis-servizz indipendentement mill-prodott, jenħtieġ li l-manifattur tal-prodott definit f'dik il-leġiżlazzjoni jikkonforma mal-obbligi tal-fornitur stabbilit f'dan ir-Regolament u jenħtieġ li, b'mod partikolari, jiżgura li s-sistema tal-IA inkorporata fil-prodott finali tikkonforma mar-rekwiżiti ta' dan ir-Regolament.
(88)
W całym łańcuchu wartości AI wiele podmiotów często dostarcza systemy AI, narzędzia i usługi, ale również elementy lub procesy, które są włączane przez dostawcę do systemu AI w różnych celach, w tym trenowania modelu, retrenowania modelu, testowania i oceny modelu, integracji z oprogramowaniem lub innych aspektów rozwoju modelu. Podmioty te mają do odegrania ważną rolę w łańcuchu wartości w stosunku do dostawcy systemu AI wysokiego ryzyka, z którym to systemem zintegrowane są ich systemy AI, narzędzia, usługi, elementy lub procesy; podmioty te powinny zapewnić temu dostawcy na podstawie pisemnej umowy niezbędne informacje, zdolności, dostęp techniczny i inną pomoc w oparciu o powszechnie uznany stan wiedzy technicznej, aby umożliwić dostawcy pełne spełnienie obowiązków ustanowionych w niniejszym rozporządzeniu, bez uszczerbku dla ich własnych praw własności intelektualnej lub tajemnic przedsiębiorstwa.
(88)
Tul il-katina tal-valur tal-IA diversi partijiet spiss jipprovdu sistemi tal-IA, għodod u servizzi iżda wkoll komponenti jew proċessi li jiġu inkorporati mill-fornitur fis-sistema tal-IA, b'diversi objettivi inkluż it-taħriġ tal-mudell, it-taħriġ mill-ġdid tal-mudell, l-ittestjar u l-evalwazzjoni tal-mudell, l-integrazzjoni fis-software, jew aspetti oħra tal-iżvilupp tal-mudell. Dawk il-partijiet għandhom rwol importanti fil-katina tal-valur għall-fornitur tas-sistema tal-IA b'riskju għoli li fiha jiġu integrati s-sistemi, l-għodod, is-servizzi, il-komponenti jew il-proċessi tal-IA tagħhom, u jenħtieġ li jipprovdu, permezz ta' ftehim bil-miktub lil dan il-fornitur, l-informazzjoni, il-kapaċitajiet, l-aċċess tekniku u assistenza oħra meħtieġa abbażi tal-ogħla livell ta' żvilupp tekniku rikonoxxut b'mod ġenerali, sabiex il-fornitur ikun jista' jikkonforma bis-sħiħ mal-obbligi stipulati f'dan ir-Regolament, mingħajr ma jikkompromettu d-drittijiet tal-proprjetà intellettwali jew is-sigrieti kummerċjali tagħhom stess.
(89)
Strony trzecie udostępniające publicznie narzędzia, usługi, procesy lub elementy AI, inne niż modele AI ogólnego przeznaczenia, nie powinny być zobowiązane do zapewnienia zgodności z wymogami dotyczącymi odpowiedzialności w całym łańcuchu wartości AI, w szczególności wobec dostawcy, który je wykorzystał lub zintegrował, jeżeli te narzędzia, usługi, procesy lub elementy AI są udostępniane na podstawie bezpłatnej licencji otwartego oprogramowania. Należy zachęcać twórców narzędzi, usług, procesów lub elementów AI, innych niż modele AI ogólnego przeznaczenia, które są udostępniane na bezpłatnej licencji otwartego oprogramowania, do wdrażania powszechnie przyjętych praktyk w zakresie dokumentacji, takich jak karta modelu i karta charakterystyki, jako sposobu na przyspieszenie wymiany informacji w całym łańcuchu wartości AI, co umożliwi promowanie godnych zaufania systemów AI w Unii.
(89)
Partijiet terzi li jagħmlu aċċessibbli għall-pubbliku l-għodod, is-servizzi, il-proċessi, jew il-komponenti tal-IA għajr il-mudelli tal-IA bi skop ġenerali, jenħtieġ li ma jingħatawx il-mandat li jikkonformaw mar-rekwiżiti mmirati lejn ir-responsabbiltajiet tul il-katina tal-valur tal-IA, b'mod partikolari lejn il-fornitur li jkun użahom jew integrahom, meta dawk l-għodod, servizzi, proċessi, jew komponenti tal-IA jsiru aċċessibbli b'liċenzja libera u b’sors miftuħ. Jenħtieġ li l-iżviluppaturi ta' għodod, servizzi, proċessi jew komponenti tal-IA liberi u b'sors miftuħ jitħeġġu jimplimentaw prattiki ta' dokumentazzjoni adottati b'mod wiesa', bħal kards mudell u skedi tad-data, bħala mod biex titħaffef il-kondiviżjoni tal-informazzjoni tul il-katina tal-valur tal-IA, u dan jippermetti l-promozzjoni ta' sistemi tal-IA affidabbli fl-Unjoni.
(90)
Komisja mogłaby opracować dobrowolne wzorcowe postanowienia umowne między dostawcami systemów AI wysokiego ryzyka a stronami trzecimi dostarczającymi narzędzia, usługi, elementy lub procesy, które są wykorzystywane w systemach AI wysokiego ryzyka lub z nimi zintegrowane, i zalecać stosowanie tych modelowych postanowień, aby ułatwić współpracę w całym łańcuchu wartości. Przy opracowywaniu dobrowolnych wzorcowych postanowień umownych, Komisja powinna też brać pod uwagę wymogi umowne, które mogą mieć zastosowanie w szczególnych sektorach lub przypadkach biznesowych.
(90)
Il-Kummissjoni tista' tiżviluppa u tirrakkomanda mudelli volontarji ta' termini kuntrattwali bejn il-fornituri ta' sistemi tal-IA b'riskju għoli u l-partijiet terzi li jipprovdu għodod, servizzi, komponenti jew proċessi li jintużaw jew jiġu integrati f'sistemi tal-IA b'riskju għoli, biex tiġi ffaċilitata l-kooperazzjoni tul il-katina tal-valur. Meta tiżviluppa mudelli volontarji ta' termini kuntrattwali, jenħtieġ li l-Kummissjoni qis ir-rekwiżiti kuntrattwali possibbli applikabbli f'setturi jew każijiet ta' negozju speċifiċi.
(91)
Ze względu na charakter systemów AI oraz ryzyko dla bezpieczeństwa i praw podstawowych, jakie może wiązać się z ich wykorzystywaniem, uwzględniając przy tym potrzebę zapewnienia właściwego monitorowania skuteczności działania systemu AI w warunkach rzeczywistych, należy określić szczególne obowiązki podmiotów stosujących. Podmioty stosujące powinny w szczególności wprowadzić odpowiednie środki techniczne i organizacyjne w celu zapewnienia, aby systemy AI wysokiego ryzyka były wykorzystywane przez nich zgodnie z instrukcjami obsługi, a w stosownych przypadkach należy przewidzieć określone inne obowiązki w odniesieniu do monitorowania funkcjonowania systemów AI oraz rejestrowania zdarzeń. Ponadto podmioty stosujące powinny zapewnić, aby osoby wyznaczone do stosowania instrukcji obsługi i sprawowania nadzoru ze strony człowieka, zgodnie z niniejszym rozporządzeniem, posiadały niezbędne kompetencje, w szczególności odpowiedni poziom kompetencji w zakresie AI oraz odpowiedni poziom przeszkolenia i uprawnień, aby właściwie wykonywać te zadania. Obowiązki te powinny pozostawać bez uszczerbku dla innych wynikających z prawa Unii lub prawa krajowego obowiązków podmiotów stosujących w odniesieniu do systemów AI wysokiego ryzyka.
(91)
Minħabba n-natura tas-sistemi tal-IA u r-riskji għas-sikurezza u għad-drittijiet fundamentali possibbilment assoċjati mal-użu tagħhom, inkluż fir-rigward tal-ħtieġa li jkun żgurat monitoraġġ xieraq tal-prestazzjoni tas-sistema tal-IA f'ambjent tal-ħajja reali, jixraq jiġu stabbiliti responsabbiltajiet speċifiċi għall-implimentaturi. Jenħtieġ li l-implimentaturi, b'mod partikolari, jieħdu miżuri tekniċi u organizzattivi biex jiżguraw li jużaw sistemi tal-IA b'riskju għoli f'konformità mal-istruzzjonijiet tal-użu u jenħtieġ li jiġu previsti ċerti obbligi oħra fir-rigward tal-monitoraġġ tal-funzjonament tas-sistemi tal-IA u fir-rigward taż-żamma tar-rekords, kif xieraq. Barra minn hekk, jenħtieġ li l-implimentaturi jiżguraw li l-persuni assenjati biex jimplimentaw l-istruzzjonijiet għall-użu u għas-sorveljanza mill-bniedem kif stipulat f'dan ir-Regolament ikollhom il-kompetenza meħtieġa, b'mod partikolari livell adegwat ta' litteriżmu, taħriġ u awtorità fir-rigward tal-IA biex iwettqu dawk il-kompiti kif suppost. Jenħtieġ li dawk l-obbligi jkunu mingħajr preġudizzju għal obbligi oħra tal-implimentatur fir-rigward tas-sistemi tal-IA b'riskju għoli skont il-liġi tal-Unjoni jew dik nazzjonali.
(92)
Niniejsze rozporządzenie pozostaje bez uszczerbku dla obowiązków pracodawców w zakresie informowania pracowników lub ich przedstawicieli i konsultowania się z nimi na podstawie prawa Unii o prawa krajowego oraz unijnej lub krajowej praktyki, w tym dyrektywy 2002/14/WE Parlamentu Europejskiego i Rady (39), na temat decyzji o oddaniu do użytku lub korzystaniu z systemów AI. Nadal konieczne jest zapewnienie pracownikom i ich przedstawicielom informacji na temat planowanego wdrożenia systemów AI wysokiego ryzyka w miejscu pracy, w przypadku gdy warunki dotyczące tych obowiązków w zakresie informowania lub informowania i przeprowadzania konsultacji określone w innych instrumentach prawnych nie są spełnione. Ponadto takie prawo do informacji ma charakter pomocniczy i konieczny w stosunku do leżącego u podstaw niniejszego rozporządzenia celu, jakim jest ochrona praw podstawowych. W związku z tym w niniejszym rozporządzeniu należy ustanowić wymóg informowania w tym zakresie, nie naruszając żadnych istniejących praw pracowników.
(92)
Dan ir-Regolament huwa mingħajr preġudizzju għall-obbligi għall-impjegaturi li jinfurmaw jew jinfurmaw u jikkonsultaw lill-ħaddiema jew lir-rappreżentanti tagħhom skont id-dritt u l-prattika tal-Unjoni jew nazzjonali, inkluż id-Direttiva 2002/14/KE tal-Parlament Ewropew u tal-Kunsill (39), dwar deċiżjonijiet biex jitqiegħdu fis-servizz jew jintużaw sistemi tal-IA. Jibqa' meħtieġ li tiġi żgurata l-informazzjoni tal-ħaddiema u tar-rappreżentanti tagħhom dwar l-użu ppjanat ta' sistemi tal-IA b'riskju għoli fuq il-post tax-xogħol fejn il-kundizzjonijiet għal dawk l-obbligi ta' informazzjoni jew ta' informazzjoni u konsultazzjoni fi strumenti legali oħra ma jkunux issodisfati. Barra minn hekk, tali dritt għall-informazzjoni huwa anċillari u meħtieġ għall-objettiv tal-protezzjoni tad-drittijiet fundamentali li huwa l-bażi ta' dan ir-Regolament. Għalhekk, jenħtieġ li jiġi stabbilit rekwiżit ta' informazzjoni għal dak l-għan f'dan ir-Regolament, mingħajr ma jiġi affettwat l-ebda dritt eżistenti tal-ħaddiema.
(93)
Ryzyko związane z systemami AI może wynikać ze sposobu zaprojektowania takich systemów, jak również ze sposobu ich wykorzystania. Podmioty stosujące systemy AI wysokiego ryzyka odgrywają zatem kluczową rolę w zapewnianiu ochrony praw podstawowych w uzupełnieniu obowiązków dostawcy podczas rozwoju systemu AI. Podmioty stosujące najlepiej rozumieją, jak konkretnie wykorzystywany będzie system AI wysokiego ryzyka, i mogą w związku z tym zidentyfikować potencjalne znaczące ryzyko, które nie zostało przewidziane na etapie rozwoju, dzięki bardziej precyzyjnej wiedzy na temat kontekstu wykorzystania, osób lub grup osób, na które system może wywierać wpływ, w tym grup szczególnie wrażliwych. Podmioty stosujące systemy AI wysokiego ryzyka wymienione w załączniku do niniejszego rozporządzenia również odgrywają kluczową rolę w informowaniu osób fizycznych i powinny – gdy podejmują decyzje lub pomagają w podejmowaniu decyzji dotyczących osób fizycznych, w stosownych przypadkach, informować osoby fizyczne, że jest w stosunku do nich wykorzystywany system AI wysokiego ryzyka. Taka informacja powinna obejmować przeznaczenie systemu i typ podejmowanych przez niego decyzji. Podmiot stosujący informuje również osoby fizyczne o przysługujących im prawie do uzyskania wyjaśnienia, które przewiduje niniejsze rozporządzenie. W odniesieniu do systemów AI wysokiego ryzyka wykorzystywanych do celów ścigania przestępstw obowiązek ten należy wykonywać zgodnie z art. 13 dyrektywy (UE) 2016/680.
(93)
Filwaqt li r-riskji relatati mas-sistemi tal-IA jistgħu jirriżultaw mill-mod kif jiġu ddisinjati sistemi bħal dawn, ir-riskji jistgħu jinħolqu wkoll minn kif jintużaw sistemi tal-IA bħal dawn. L-implimentaturi ta' sistema tal-IA b'riskju għoli għaldaqstant għandhom rwol kritiku fl-iżgurar li jiġu protetti d-drittijiet fundamentali, filwaqt li jikkomplementaw l-obbligi tal-fornitur meta jiżviluppa s-sistema tal-IA. L-implimentaturi jinsabu fl-aħjar pożizzjoni biex jifhmu kif is-sistema tal-IA b'riskju għoli ser tintuża b'mod konkret u għalhekk jistgħu jidentifikaw riskji sinfikanti potenzjali li ma kinux previsti fil-fażi tal-iżvilupp, minħabba għarfien aktar preċiż tal-kuntest tal-użu, tal-persuni jew tal-gruppi ta' persuni li x'aktarx jiġu affettwati, inkluż gruppi vulnerabbli. L-implimentaturi ta' sistemi tal-IA b'riskju għoli elenkati f'anness ta' dan ir-Regolament ukoll għandhom rwol kruċjali li jinfurmaw lil persuni fiżiċi u, meta jieħdu deċiżjonijiet jew jassistu fit-teħid ta' deċiżjonijiet relatati mal-persuni fiżiċi, jenħtieġ li fejn applikabbli jinfurmaw lill-persuni fiżiċi li huma soġġetti għall-użu ta' sistema tal-IA b'riskju għoli. Jenħtieġ li din l-informazzjoni tinkludi l-għan maħsub u t-tip ta' deċiżjonijiet li tieħu. Jenħtieġ li l-implimentatur jinforma wkoll lill-persuni fiżiċi dwar id-dritt tagħhom għal spjegazzjoni pprovdut skont dan ir-Regolament. Fir-rigward tas-sistemi tal-IA b'riskju għoli użati għall-finijiet tal-infurzar tal-liġi, jenħtieġ li dak l-obbligu jiġi implimentat f'konformità mal-Artikolu 13 tad-Direttiva (UE) 2016/680.
(94)
Wszelkie przetwarzanie danych biometrycznych związane z wykorzystywaniem systemów AI do identyfikacji biometrycznej do celów ścigania przestępstw musi być zgodne z art. 10 dyrektywy (UE) 2016/680, który zezwala na takie przetwarzanie wyłącznie wtedy, jeżeli jest to bezwzględnie konieczne, z zastrzeżeniem odpowiednich zabezpieczeń w zakresie praw i wolności osoby, której dane dotyczą, oraz jeżeli jest to dopuszczone prawem Unii lub prawem państwa członkowskiego. Takie wykorzystanie, jeżeli jest dozwolone, musi być również zgodne z zasadami określonymi w art. 4 ust. 1 dyrektywy (UE) 2016/680, w tym zasadami zgodności z prawem, rzetelności i przejrzystości, celowości, dokładności i ograniczenia przechowywania.
(94)
Jenħtieġ li kwalunkwe pproċessar ta' data bijometrika involut fl-użu tas-sistemi tal-IA għall-identifikazzjoni bijometrika għall-fini ta' infurzar tal-liġi jikkonforma mal-Artikolu 10 tad-Direttiva (UE) 2016/680, li jippermetti dan l-ipproċessar biss meta strettament meħtieġ, soġġett għal salvagwardji xierqa għad-drittijiet u l-libertajiet tas-suġġett tad-data, u meta awtorizzat mil-liġi tal-Unjoni jew ta' Stat Membru. Tali użu, meta awtorizzat, għandu jirrispetta wkoll il-prinċipji stabbiliti fl-Artikolu 4(1) tad-Direttiva (UE) 2016/680 inkluż il-legalità, il-ġustizzja u t-trasparenza, il-limitazzjoni tal-iskop, il-preċiżjoni, l-akkuratezza u l-limitazzjoni tal-ħżin.
(95)
Bez uszczerbku dla mającego zastosowanie prawa Unii, w szczególności rozporządzenia (UE) 2016/679 i dyrektywy (UE) 2016/680, biorąc pod uwagę inwazyjny charakter systemów zdalnej identyfikacji biometrycznej post factum, korzystanie z takich systemów powinno podlegać zabezpieczeniom. Systemy identyfikacji biometrycznej post factum powinny być zawsze wykorzystywane w sposób proporcjonalny, zgodny z prawem i jeżeli jest to bezwzględnie konieczne, a tym samym ukierunkowane na osoby fizyczne, które mają zostać zidentyfikowane, na określoną lokalizację i zakres czasowy, oraz opierać się na zamkniętym zbiorze danych pochodzących z legalnie uzyskanych materiałów wideo. W żadnym wypadku systemy zdalnej identyfikacji biometrycznej post factum nie powinny być wykorzystywane w ramach ścigania przestępstw w celu prowadzenia niezróżnicowanego nadzoru. Warunki zdalnej identyfikacji biometrycznej post factum nie powinny w żadnym wypadku stanowić podstawy do obchodzenia warunków zakazu i ścisłych wyjątków dotyczących zdalnej identyfikacji biometrycznej w czasie rzeczywistym.
(95)
Mingħajr preġudizzju għal-liġi applikabbli tal-Unjoni, b'mod partikolari r-Regolament (UE) 2016/679 u d-Direttiva (UE) 2016/680, meta titqies in-natura intrużiva tas-sistemi ta’ identifikazzjoni bijometrika remota “f'ħin aktar tard”, l-użu ta' sistemi ta’ identifikazzjoni bijometrika remota “f'ħin aktar tard” jenħtieġ li jkun soġġett għal salvagwardji. Jenħtieġ li s-sistemi ta’ identifikazzjoni bijometrika remota “f'ħin aktar tard” dejjem jintużaw b'mod li jkun proporzjonat, leġittimu u strettament meħtieġ, u għalhekk immirat, fir-rigward tal-individwi li għandhom jiġu identifikati, il-post, il-kamp ta' applikazzjoni temporali u abbażi ta' sett ta' data magħluq ta' filmati miksuba legalment. Fi kwalunkwe każ, jenħtieġ li s-sistemi ta’ identifikazzjoni bijometrika remota “f'ħin aktar tard” ma jintużawx fil-qafas tal-infurzar tal-liġi biex iwasslu għal sorveljanza indiskriminata. Fi kwalunkwe każ jenħtieġ li l-kundizzjonijiet għall-identifikazzjoni bijometrika remota “f'ħin aktar tard” ma jipprovdux bażi biex jiġu evitati l-kundizzjonijiet tal-projbizzjoni u l-eċċezzjonijiet stretti għall-identifikazzjoni bijometrika remota f'ħin reali.
(96)
Aby skutecznie zapewnić ochronę praw podstawowych, podmioty stosujące systemy AI wysokiego ryzyka będące podmiotami prawa publicznego lub podmiotami prywatnymi świadczącymi usługi publiczne i podmioty stosujące niektóre systemy AI wysokiego ryzyka wymienione w załączniku do niniejszego rozporządzenia, tacy jak podmioty bankowe lub ubezpieczeniowe, powinni przed wprowadzeniem tych systemów do użytku przeprowadzić ocenę skutków dla praw podstawowych. Usługi o charakterze publicznym ważne dla osób fizycznych mogą być również świadczone przez podmioty prywatne. Podmioty prywatne świadczące takie usługi publiczne działają w powiązaniu z zadaniami świadczonymi w interesie publicznym, takimi jak edukacja, opieka zdrowotna, usługi społeczne, mieszkalnictwo, sprawowanie wymiaru sprawiedliwości. Celem oceny skutków dla praw podstawowych jest zidentyfikowanie przez podmiot stosujący konkretnych rodzajów ryzyka dla praw osób fizycznych lub grup osób fizycznych, na które AI może mieć wpływ, oraz określenie środków, które należy podjąć w przypadku urzeczywistnienia się tego ryzyka. Ocena skutków powinna być przeprowadzana przed wdrożeniem systemu AI wysokiego ryzyka i powinna być aktualizowana, gdy podmiot stosujący uzna, że którykolwiek z istotnych czynników uległ zmianie. W ocenie skutków należy określić odpowiednie procesy podmiotu stosującego, w których system AI wysokiego ryzyka będzie wykorzystywany zgodnie z jego przeznaczeniem; powinna ona przedstawiać informacje o okresie, w którym system ma być wykorzystywany, i o częstotliwości jego wykorzystania, a także opis konkretnych kategorii osób fizycznych i grup, na które AI może mieć wpływ w tym konkretnym kontekście wykorzystania. Ocena powinna również obejmować określenie szczególnego ryzyka szkody, które może mieć wpływ na prawa podstawowe tych osób lub grup. Przeprowadzając tę ocenę, podmiot stosujący powinien uwzględnić informacje istotne dla właściwej oceny skutków, w tym między innymi informacje podane przez dostawcę systemu AI wysokiego ryzyka w instrukcji obsługi. W świetle zidentyfikowanego ryzyka podmioty stosujące powinny określić środki, które należy podjąć w przypadku urzeczywistnienia się tego ryzyka, w tym na przykład rozwiązania dotyczące zarządzania w tym konkretnym kontekście wykorzystania, np. dotyczące nadzoru ze strony człowieka zgodnie z instrukcją obsługi lub procedury rozpatrywania skarg i dochodzenia roszczeń, ponieważ mogą one odegrać zasadniczą rolę w ograniczaniu ryzyka dla praw podstawowych w konkretnych przypadkach wykorzystania. Po przeprowadzeniu tej oceny skutków podmiot stosujący powinien powiadomić odpowiedni organ nadzoru rynku. W stosownych przypadkach w celu zebrania odpowiednich informacji niezbędnych do przeprowadzenia oceny skutków podmioty stosujące system AI wysokiego ryzyka, w szczególności gdy systemy AI są wykorzystywane w sektorze publicznym, mogą angażować odpowiednie zainteresowane strony, w tym przedstawicieli grup osób, na które system AI może mieć wpływ, niezależnych ekspertów i organizacje społeczeństwa obywatelskiego w przeprowadzanie takich ocen skutków i opracowywanie środków, które należy wprowadzić w przypadku urzeczywistnienia się ryzyka. Europejski Urząd ds. Sztucznej Inteligencji (zwany dalej „Urzędem ds. AI”) powinien opracować wzór kwestionariusza, by ułatwić zapewnienie zgodności przez podmioty stosujące i zmniejszyć obciążenia administracyjne dla tych podmiotów.
(96)
Biex ikun żgurat b'mod effiċjenti li d-drittijiet fundamentali jiġu protetti, jenħtieġ li l-implimentaturi ta' sistemi tal-IA b'riskju għoli li huma korpi rregolati mil-liġi pubblika, jew entitajiet privati li jipprovdu servizzi pubbliċi u implimentaturi ta’ ċerti sistemi tal-IA b'riskju għoli elenkati f'anness ta' dan ir-Regolament, bħal entitajiet bankarji jew tal-assigurazzjoni, iwettqu valutazzjoni tal-impatt fuq id-drittijiet fundamentali qabel ma jibdew jużawha. Servizzi importanti għal individwi li huma ta' natura pubblika jistgħu jiġu pprovduti wkoll minn entitajiet privati. L-entitajiet privati li jipprovdu tali servizzi pubbliċi huma marbuta ma' kompiti fl-interess pubbliku bħal fl-oqsma tal-edukazzjoni, il-kura tas-saħħa, is-servizzi soċjali, l-akkomodazzjoni, l-amministrazzjoni tal-ġustizzja. L-għan tal-valutazzjoni tal-impatt fuq id-drittijiet fundamentali huwa li l-implimentatur jidentifika r-riskji speċifiċi għad-drittijiet tal-individwi jew tal-gruppi ta' individwi li x'aktarx jiġu affettwati u jidentifika l-miżuri li għandhom jittieħdu fil-każ li dawk ir-riskji jimmaterjalizzaw. Jenħtieġ li l-valutazzjoni tal-impatt titwettaq qabel l-użu tas-sistema tal-IA b'riskju għoli, u jenħtieġ li tiġi aġġornata meta l-implimentatur iqis li jkun inbidel xi wieħed mill-fatturi rilevanti. Jenħtieġ li l-valutazzjoni tal-impatt tidentifika l-proċessi rilevanti tal-implimentatur li fihom ser tintuża s-sistema tal-IA b'riskju għoli f'konformità mal-għan maħsub tagħha, u jenħtieġ li tinkludi deskrizzjoni tal-perjodu ta' żmien u l-frekwenza li fihom is-sistema tkun maħsuba li tintuża kif ukoll ta' kategoriji speċifiċi ta' persuni fiżiċi u gruppi li x'aktarx jiġu affettwati fil-kuntest speċifiku tal-użu. Jenħtieġ li l-valutazzjoni tinkludi wkoll l-identifikazzjoni ta' riskji speċifiċi ta' ħsara li x'aktarx ikollhom impatt fuq id-drittijiet fundamentali ta' dawk il-persuni jew gruppi. Meta jwettaq din il-valutazzjoni, jenħtieġ li l-implimentatur iqis l-informazzjoni rilevanti għal valutazzjoni xierqa tal-impatt, inkluż iżda mhux biss, l-informazzjoni mogħtija mill-fornitur tas-sistema tal-IA b'riskju għoli fl-istruzzjonijiet għall-użu. Fid-dawl tar-riskji identifikati, jenħtieġ li l-implimentaturi jiddeterminaw il-miżuri li għandhom jittieħdu f'każ tal-materjalizzazzjoni ta' dawk ir-riskji, inkluż pereżempju arranġamenti ta' governanza f'dak il-kuntest speċifiku tal-użu, bħal arranġamenti għas-sorveljanza mill-bniedem skont l-istruzzjonijiet tal-użu jew, it-trattament tal-ilmenti u l-proċeduri ta' rimedju, peress li dawn jistgħu jkunu strumentali fil-mitigazzjoni tar-riskji għad-drittijiet fundamentali f'każijiet konkreti ta' użu. Wara li jwettaq dik il-valutazzjoni tal-impatt, jenħtieġ li l-implimentatur jinnotifika lill-awtorità tas-sorveljanza tas-suq rilevanti. Meta xieraq, biex tinġabar l-informazzjoni rilevanti meħtieġa biex titwettaq il-valutazzjoni tal-impatt, l-implimentaturi tas-sistema tal-IA b'riskju għoli, b'mod partikolari meta jintużaw sistemi tal-IA fis-settur pubbliku, jistgħu jinvolvu lill-partijiet ikkonċernati rilevanti, inkluż ir-rappreżentanti ta' gruppi ta' persuni li x'aktarx ikunu affettwati mis-sistema tal-IA, esperti indipendenti, u organizzazzjonijiet tas-soċjetà ċivili fit-twettiq ta' dawn il-valutazzjonijiet tal-impatt u fit-tfassil tal-miżuri li għandhom jittieħdu fil-każ tal-materjalizzazzjoni tar-riskji. Jenħtieġ li l-Uffiċċju Ewropew għall-Intelliġenza Artifiċjali (l-Uffiċċju għall-IA) jiżviluppa mudell għal kwestjonarju sabiex jiffaċilita l-konformità u jnaqqas il-piż amministrattiv għall-amministraturi.
(97)
Należy jasno zdefiniować pojęcie modeli AI ogólnego przeznaczenia i oddzielić je od pojęcia systemów AI, aby zapewnić pewność prawa. Definicja powinna opierać się na kluczowych cechach funkcjonalnych modelu AI ogólnego przeznaczenia, w szczególności na ogólnym charakterze i zdolności do kompetentnego wykonywania szerokiego zakresu różnych zadań. Modele te są zazwyczaj trenowane w oparciu o dużą ilość danych za pomocą różnych metod, takich jak uczenie się samodzielnie nadzorowane, nienadzorowane lub uczenie przez wzmacnianie. Modele AI ogólnego przeznaczenia mogą być wprowadzane do obrotu na różne sposoby, w tym za pośrednictwem bibliotek, interfejsów programowania aplikacji (API), przez bezpośrednie pobieranie lub w wersji fizycznej. Modele te mogą być dalej zmieniane lub dostosowywane jako baza do tworzenia nowych modeli. Chociaż modele AI są zasadniczymi elementami systemów AI, nie stanowią same w sobie systemów AI. Aby model AI mógł stać się systemem AI należy dodać do niego dodatkowe elementy, takie jak na przykład interfejs użytkownika. Modele AI są zwykle zintegrowane z systemami AI i stanowią ich część. Niniejsze rozporządzenie ustanawia przepisy szczególne dotyczące modeli AI ogólnego przeznaczenia oraz modeli AI ogólnego przeznaczenia, które stwarzają ryzyko systemowe, a przepisy te powinny być stosowane również wtedy, gdy modele te są zintegrowane z systemem AI lub stanowią jego część. Należy rozumieć, że obowiązki dostawców modeli AI ogólnego przeznaczenia powinny mieć zastosowanie od momentu wprowadzenia do obrotu modeli AI ogólnego przeznaczenia. W przypadku gdy dostawca modelu AI ogólnego przeznaczenia zintegruje własny model z własnym systemem AI, który jest udostępniany na rynku lub oddany do użytku, model ten należy uznać za wprowadzony do obrotu i w związku z tym ustanowione w niniejszym rozporządzeniu obowiązki dotyczące modeli powinny nadal mieć zastosowanie obok obowiązków dotyczących systemów AI. Obowiązki ustanowione w odniesieniu do modeli nie powinny w żadnym przypadku mieć zastosowania, jeżeli model własny jest stosowany w czysto wewnętrznych procesach, które nie są niezbędne do dostarczania produktu lub usługi osobom trzecim, a prawa osób fizycznych nie są naruszone. Biorąc pod uwagę ich potencjalne znacząco negatywne skutki, modele AI ogólnego przeznaczenia z ryzykiem systemowym powinny zawsze podlegać odpowiednim obowiązkom ustanowionym w niniejszym rozporządzeniu. Definicja nie powinna obejmować modeli AI wykorzystywanych przed wprowadzeniem ich do obrotu wyłącznie do celów działalności badawczo-rozwojowej i tworzenia prototypów. Pozostaje to bez uszczerbku dla obowiązku zapewnienia zgodności z niniejszym rozporządzeniem w przypadku wprowadzenia do obrotu danego modelu w następstwie takiej działalności.
(97)
Jenħtieġ li l-kunċett ta' mudelli tal-IA bi skop ġenerali jiġi ddefinit b'mod ċar u jkun distint mill-kunċett ta' sistemi tal-IA biex ikun hemm ċertezza legali. Jenħtieġ li d-definizzjoni tkun ibbażata fuq il-karatteristiċi funzjonali ewlenin ta' mudell tal-IA bi skop ġenerali, b'mod partikolari l-ġeneralità u l-kapaċità li jwettaq b'mod kompetenti firxa wiesgħa ta' kompiti distinti. Dawn il-mudelli huma tipikament imħarrġa fuq ammonti kbar ta' data, permezz ta' diversi metodi, bħal tagħlim awtosorveljat, mhux sorveljat jew rinforzat. Il-mudelli tal-IA bi skop ġenerali jistgħu jiġu introdotti fis-suq b'diversi modi, inkluż permezz ta' libreriji, interfaċċi għall-ipprogrammar tal-applikazzjonijiet (APIs), bħala tniżżil dirett, jew bħala kopja fiżika. Dawn il-mudelli jistgħu jiġu mmodifikati jew irfinati aktar f'mudelli ġodda. Għalkemm il-mudelli tal-IA huma komponenti essenzjali tas-sistemi tal-IA, waħedhom ma jikkostitwixxux sistemi tal-IA. Il-mudelli tal-IA jeħtieġu ż-żieda ta' komponenti ulterjuri, bħal pereżempju interfaċċa tal-utent, biex isiru sistemi tal-IA. Il-mudelli tal-IA tipikament jiġu integrati fis-sistemi tal-IA u jiffurmaw parti minnhom. Dan ir-Regolament jipprevedi regoli speċifiċi għal mudelli tal-IA bi skop ġenerali u għal mudelli tal-IA bi skop ġenerali li joħolqu riskji sistemiċi, li jenħtieġ li japplikaw ukoll meta dawn il-mudelli jkunu integrati jew jiffurmaw parti minn sistema tal-IA. Jenħtieġ li jinftiehem li l-obbligi għall-fornituri ta' mudelli tal-IA bi skop ġenerali jenħtieġ li japplikaw ladarba l-mudelli tal-IA bi skop ġenerali jiġu introdotti fis-suq. Meta l-fornitur ta' mudell tal-IA bi skop ġenerali jintegra mudell proprju fis-sistema tal-IA tiegħu stess li jiġi introdott fis-suq jew jitqiegħed fis-servizz, jenħtieġ li dak il-mudell jitqies li ġie introdott fis-suq u, għalhekk, jenħtieġ li l-obbligi f'dan ir-Regolament għall-mudelli jkomplu japplikaw flimkien ma' dawk għas-sistemi tal-IA. Fi kwalunkwe każ jenħtieġ li l-obbligi stabbiliti għall-mudelli ma japplikawx meta mudell proprju jintuża għal proċessi purament interni li ma jkunux essenzjali għall-forniment ta' prodott jew servizz lil partijiet terzi u d-drittijiet tal-persuni fiżiċi ma jiġux affettwati. Meta jitqiesu l-effetti negattivi sinifikanti potenzjali tagħhom, jenħtieġ li l-mudelli tal-IA bi skop ġenerali b'riskju sistemiku dejjem ikunu soġġetti għall-obbligi rilevanti skont dan ir-Regolament. Jenħtieġ li d-definizzjoni ma tkoprix il-mudelli tal-IA użati qabel l-introduzzjoni tagħhom fis-suq għall-iskop uniku ta' attivitajiet ta' riċerka, żvilupp u ħolqien ta' prototipi. Dan huwa mingħajr preġudizzju għall-obbligu ta' konformità ma' dan ir-Regolament meta, wara tali attivitajiet, mudell jiġi introdott fis-suq.
(98)
Mając na uwadze, że ogólny charakter modelu można określić między innymi na podstawie liczby parametrów, należy uznać, że modele o co najmniej miliardzie parametrów i trenowane w oparciu o dużą ilość danych z wykorzystaniem nadzoru własnego na dużą skalę są bardzo ogólne i kompetentnie wykonują szeroki zakres różnych zadań.
(98)
Filwaqt li l-ġeneralità ta' mudell tista', fost kriterji oħra, tiġi ddeterminata wkoll minn għadd ta' parametri, jenħtieġ li l-mudelli b'mill-inqas biljun parametru u mħarrġa b'ammont kbir ta' data bl-użu ta' awtosuperviżjoni fuq skala kbira jitqiesu li juru ġeneralità sinifikanti u li jwettqu b'mod kompetenti firxa wiesgħa ta' kompiti distintivi.
(99)
Duże generatywne modele AI są typowym przykładem modelu AI ogólnego przeznaczenia, biorąc pod uwagę, że umożliwiają elastyczne generowanie treści, np. w postaci tekstu, dźwięku, obrazów lub materiałów wideo, i mogą z łatwością wykonywać szeroki zakres różnych zadań.
(99)
Il-mudelli ġenerattivi kbar tal-IA huma eżempju tipiku għal mudell tal-IA bi skop ġenerali, peress li jippermettu ġenerazzjoni flessibbli ta' kontenut, bħal fil-forma ta' test, awdjo, immaġnijiet jew vidjo, li jista' jakkomoda faċilment firxa wiesgħa ta' kompiti distintivi.
(100)
Jeżeli model AI ogólnego przeznaczenia jest zintegrowany z systemem AI lub stanowi jego część, system ten należy uznać za system AI ogólnego przeznaczenia, jeżeli w wyniku zintegrowania modelu system ten może służyć różnym celom. System AI ogólnego przeznaczenia może być wykorzystywany bezpośrednio lub być zintegrowany z innymi systemami AI.
(100)
Meta mudell tal-IA bi skop ġenerali jiġi integrat f'sistema tal-IA jew jifforma parti minnha, jenħtieġ li din is-sistema titqies bħala sistema tal-IA bi skop ġenerali meta, minħabba din l-integrazzjoni, din is-sistema jkollha l-kapaċità li taqdi varjetà ta' skopijiet. Sistema tal-IA bi skop ġenerali tista' tintuża direttament, jew tista' tkun integrata f'sistemi oħra tal-IA.
(101)
Dostawcy modeli AI ogólnego przeznaczenia odgrywają szczególną rolę i ponoszą szczególną odpowiedzialność w całym łańcuchu wartości AI, ponieważ modele, które dostarczają, mogą stanowić podstawę szeregu systemów niższego szczebla, często dostarczanych przez dostawców niższego szczebla, które to systemy wymagają dobrego zrozumienia modeli i ich zdolności, zarówno by umożliwić integrację takich modeli z ich produktami, jak i by spełniać obowiązki ustanowione w niniejszym rozporządzeniu lub innych przepisach. W związku z tym należy ustanowić proporcjonalne środki w zakresie przejrzystości, w tym sporządzanie i aktualizowanie dokumentacji oraz dostarczanie informacji na temat modelu AI ogólnego przeznaczenia do wykorzystania przez dostawców niższego szczebla. Dostawca modelu AI ogólnego przeznaczenia powinien przygotować i aktualizować dokumentację techniczną w celu udostępnienia jej na wniosek Urzędowi ds. AI i właściwym organom krajowym. Minimalny zbiór elementów do uwzględnienia w takiej dokumentacji należy określić w szczególnych załącznikach do niniejszego rozporządzenia. Komisja powinna być uprawniona do zmiany tych załączników w drodze aktów delegowanych w świetle postępu technicznego.
(101)
Il-fornituri ta' mudelli tal-IA bi skop ġenerali għandhom rwol u responsabbiltà partikolari tul il-katina tal-valur tal-IA, peress li l-mudelli li jipprovdu jistgħu jiffurmaw il-bażi għal firxa ta' sistemi downstream, spiss ipprovduti minn fornituri downstream li jeħtieġu għarfien tajjeb tal-mudelli u tal-kapaċitajiet tagħhom, kemm biex jippermettu l-integrazzjoni ta' mudelli bħal dawn fil-prodotti tagħhom, kif ukoll biex jissodisfaw l-obbligi tagħhom skont dan ir-regolament jew skont regolamenti oħra. Għalhekk, jenħtieġ li jiġu stabbiliti miżuri proporzjonati ta' trasparenza, inkluż it-tfassil u ż-żamma aġġornata tad-dokumentazzjoni, u l-għoti ta' informazzjoni dwar il-mudell tal-IA bi skop ġenerali għall-użu tiegħu mill-fornituri downstream. Jenħtieġ li d-dokumentazzjoni teknika titħejja u tinżamm aġġornata mill-fornitur tal-mudell tal-IA bi skop ġenerali bl-għan li ssir disponibbli, fuq talba, għall-Uffiċċju għall-IA u għall-awtoritajiet nazzjonali kompetenti. Jenħtieġ li s-sett minimu ta' elementi li għandhom jiġu inklużi f'tali dokumentazzjoni jiġi stipulat fl-annessi speċifiċi ta' dan ir-Regolament. Jenħtieġ li l-Kummissjoni tingħata s-setgħa li temenda dawk l-annessi permezz ta' atti delegati fid-dawl tal-iżviluppi teknoloġiċi li qed jevolvu.
(102)
Oprogramowanie i dane, w tym modele, udostępniane na podstawie bezpłatnej licencji otwartego oprogramowania, która umożliwia ich ogólne upowszechnianie i zezwala użytkownikom na swobodny dostęp do nich, ich wykorzystywanie, zmianę i ich redystrybucję lub ich zmienionych wersji, mogą przyczynić się do badań naukowych i innowacji na rynku oraz zapewnić gospodarce Unii znaczne możliwości wzrostu. Należy uznać, że modele AI ogólnego przeznaczenia udostępniane na podstawie bezpłatnych licencji otwartego oprogramowania zapewniają wysoki poziom przejrzystości i otwartości, jeżeli ich parametry, w tym wagi, informacje na temat architektury modelu oraz informacje na temat wykorzystania modelu, są publicznie dostępne. Licencję należy uznać za bezpłatną licencję otwartego oprogramowania również wtedy, gdy umożliwia użytkownikom obsługę, kopiowanie, dystrybucję, badanie, zmianę i ulepszanie oprogramowania i danych, w tym modeli, pod warunkiem że umieszcza się wzmiankę o pierwotnym dostawcy modelu i że przestrzega się identycznych lub porównywalnych warunków dystrybucji.
(102)
Software u data, inkluż mudelli, rilaxxati taħt liċenzja libera u b'sors miftuħ li tippermettilhom jiġu kondiviżi b'mod miftuħ u fejn l-utenti jistgħu jaċċessaw, jużaw, jimmodifikaw u jiddistribwixxu mill-ġdid liberament il-verżjonijiet tagħhom jew il-verżjonijiet modifikati tagħhom, jistgħu jikkontribwixxu għar-riċerka u l-innovazzjoni fis-suq u jistgħu jipprovdu opportunitajiet sinifikanti ta' tkabbir għall-ekonomija tal-Unjoni. Jenħtieġ li jiġu kkunsidrati mudelli tal-IA bi skop ġenerali rilaxxati b'liċenzji liberi u b'sors miftuħ biex jiġu żgurati livelli għoljin ta' trasparenza u ftuħ jekk il-parametri tagħhom, inkluż il-piżijiet, l-informazzjoni dwar l-arkitettura tal-mudell, u l-informazzjoni dwar l-użu tal-mudell ikunu disponibbli għall-pubbliku. Jenħtieġ li l-liċenzja titqies b'liċenzja libera u b'sors miftuħ anke meta tippermetti lill-utenti jaħdmu, jikkupjaw, jiddistribwixxu, jistudjaw, jibdlu u jtejbu s-software u d-data, inkluż mudelli bil-kundizzjoni li l-fornitur oriġinali tal-mudell jiġi kkreditat u li jiġu rrispettati t-termini identiċi jew komparabbli tad-distribuzzjoni.
(103)
Elementy AI na bezpłatnej licencji otwartego oprogramowania obejmują oprogramowanie i dane, w tym modele i modele AI ogólnego przeznaczenia, narzędzia, usługi lub procesy systemu AI. Elementy AI na bezpłatnej licencji otwartego oprogramowania mogą być dostarczane za pośrednictwem różnych kanałów, w tym rozwijane w otwartych repozytoriach. Do celów niniejszego rozporządzenia elementy AI, które są dostarczane odpłatnie lub w inny sposób monetyzowane, w tym poprzez zapewnianie wsparcia technicznego lub innych usług związanych z elementem AI, w tym poprzez platformy oprogramowania, lub wykorzystywanie danych osobowych z powodów innych niż wyłącznie poprawa bezpieczeństwa, kompatybilności lub interoperacyjności oprogramowania, z wyjątkiem transakcji między mikroprzedsiębiorstwami, nie powinny korzystać ze zwolnień przewidzianych w odniesieniu do bezpłatnych i otwartych elementów AI. Fakt udostępniania elementów AI w otwartych repozytoriach nie powinien sam w sobie stanowić monetyzacji.
(103)
Komponenti tal-IA b'liċenzja libera u b'sors miftuħ ikopru s-software u d-data, inkluż mudelli u mudelli, għodod, servizzi jew proċessi tal-IA bi skop ġenerali ta' sistema tal-IA. Komponenti tal-IA b'liċenzja libera u b'sors miftuħ jistgħu jiġu pprovduti permezz ta' kanali differenti, inkluż l-iżvilupp tagħhom f'repożitorji miftuħa. Għall-finijiet ta' dan ir-Regolament, jenħtieġ li l-komponenti tal-IA li jiġu pprovduti bi ħlas jew monetizzati b'xi mod ieħor, inkluż bil-forniment ta' appoġġ tekniku jew servizzi oħra, fosthom permezz ta' pjattaforma tas-software, relatati mal-komponent tal-IA, jew l-użu ta' data personali għal raġunijiet għajr esklużivament għat-titjib tas-sigurtà, il-kompatibbiltà jew l-interoperabbiltà tas-software, bl-eċċezzjoni ta' tranżazzjonijiet bejn mikroimpriżi, ma jibbenefikawx mill-eċċezzjonijiet ipprovduti għall-komponenti tal-IA b'liċenzja libera u b'sors miftuħ. Jenħtieġ li fih innifsu, il-fatt li l-komponenti tal-IA jsiru disponibbli permezz ta' repożitorji miftuħa ma jikkostitwixxix monetizzazzjoni.
(104)
Dostawcy modeli AI ogólnego przeznaczenia, które są udostępniane na podstawie bezpłatnej licencji otwartego oprogramowania i których parametry, w tym wagi, informacje o architekturze modelu oraz informacje na temat korzystania z modelu, są udostępniane publicznie, powinni podlegać zwolnieniom w odniesieniu do wymogów związanych z przejrzystością nałożonych na modele AI ogólnego przeznaczenia, chyba że można uznać, że modele te stwarzają ryzyko systemowe, w którym to przypadku fakt, że model jest przejrzysty i że towarzyszy mu licencja otwartego oprogramowania, nie powinien być uznawany za wystarczający powód zwolnienia ze spełnienia obowiązków ustanowionych w niniejszym rozporządzeniu. W każdym razie, biorąc pod uwagę, że udostępnianie modeli AI ogólnego przeznaczenia na podstawie bezpłatnej licencji otwartego oprogramowania niekoniecznie prowadzi do ujawnienia istotnych informacji na temat zbioru danych wykorzystywanego do trenowania lub dostrajania modelu oraz na temat sposobu zapewnienia tym samym zgodności z prawem autorskim, przewidziane w odniesieniu do modeli AI ogólnego przeznaczenia zwolnienie z obowiązku spełnienia wymogów związanych z przejrzystością nie powinno dotyczyć obowiązku sporządzenia streszczenia dotyczącego treści wykorzystywanych do trenowania modeli oraz obowiązku wprowadzenia polityki w celu zapewnienie zgodności z unijnym prawem autorskim, w szczególności w celu zidentyfikowania i zastosowania się do zastrzeżenia praw zgodnie z art. 4 ust. 3 dyrektywy Parlamentu Europejskiego i Rady (UE) 2019/790 (40).
(104)
Il-fornituri ta' mudelli tal-IA bi skop ġenerali li jiġu rilaxxati b'liċenzja libera u b'sors miftuħ, u li l-parametri tagħhom, inkluż il-piżijiet, l-informazzjoni dwar l-arkitettura tal-mudell, u l-informazzjoni dwar l-użu tal-mudell, isiru disponibbli għall-pubbliku, jenħtieġ li jkunu soġġetti għal eċċezzjonijiet fir-rigward tar-rekwiżiti relatati mat-trasparenza imposti fuq il-mudelli tal-IA bi skop ġenerali, sakemm ma jkunux jistgħu jitqiesu li jippreżentaw riskju sistemiku, f'liema każ iċ-ċirkostanza li l-mudell ikun trasparenti u akkumpanjat minn liċenzja b'sors miftuħ jenħtieġ li ma titqiesx bħala raġuni suffiċjenti biex tiġi eskluża l-konformità mal-obbligi skont dan ir-Regolament. Fi kwalunkwe każ, minħabba li r-rilaxx ta' mudelli tal-IA bi skop ġenerali b'liċenzja libera u b'sors miftuħ mhux neċessarjament jiżvela informazzjoni sostanzjali dwar is-sett tad-data użat għat-taħriġ jew għall-irfinar tal-mudell u dwar kif b'hekk ġiet żgurata l-konformità mal-liġi dwar id-drittijiet tal-awtur, jenħtieġ li l-eċċezzjoni prevista għall-mudelli tal-IA bi skop ġenerali mill-konformità mar-rekwiżiti relatati mat-trasparenza ma tikkonċernax l-obbligu li jingħata sommarju dwar il-kontenut użat għat-taħriġ tal-mudell u l-obbligu li tiġi stabbilita politika ta' konformità mal-liġi tal-Unjoni dwar id-drittijiet tal-awtur, b'mod partikolari biex tiġi identifikata u konformi mar-riżerva tad-drittijiet skont l-Artikolu 4(3) tad-Direttiva (UE) 2019/790 tal-Parlament Ewropew u tal-Kunsill (40).
(105)
Modele AI ogólnego przeznaczenia, w szczególności duże generatywne modele AI, zdolne do generowania tekstów, obrazów i innych treści, stwarzają wyjątkowe możliwości w zakresie innowacji, ale także wyzwania dla artystów, autorów i innych twórców oraz w odniesieniu do sposobu tworzenia, rozpowszechniania, wykorzystywania i konsumowania ich treści kreatywnych. Rozwój i trenowanie takich modeli wymaga dostępu do ogromnych ilości tekstów, obrazów, materiałów wideo i innych danych. Techniki eksploracji tekstów i danych mogą być w tym kontekście szeroko wykorzystywane do wyszukiwania i analizy takich treści, które mogą być chronione prawem autorskim i prawami pokrewnymi. Każde wykorzystanie treści chronionych prawem autorskim wymaga zezwolenia danego podmiotu praw, chyba że zastosowanie mają odpowiednie wyjątki i ograniczenia dotyczące praw autorskich. Na mocy dyrektywy (UE) 2019/790 wprowadzono wyjątki i ograniczenia umożliwiające, pod pewnymi warunkami, zwielokrotnianie i pobieranie utworów lub innych przedmiotów objętych ochroną do celów eksploracji tekstów i danych. Zgodnie z tymi przepisami podmioty uprawnione mogą zastrzec swoje prawa do swoich utworów lub innych przedmiotów objętych ochroną, aby zapobiec eksploracji tekstów i danych, chyba że odbywa się to do celów badań naukowych. W przypadku gdy prawo do wyłączenia z eksploracji zostało w odpowiedni sposób wyraźnie zastrzeżone, dostawcy modeli AI ogólnego przeznaczenia muszą uzyskać zezwolenie od podmiotów uprawnionych, jeżeli chcą dokonywać eksploracji tekstów i danych odnośnie do takich utworów.
(105)
Il-mudelli tal-IA bi skop ġenerali, b'mod partikolari mudelli tal-IA ġenerattivi kbar, li kapaċi jiġġeneraw test, immaġnijiet, u kontenut ieħor, jippreżentaw opportunitajiet uniċi ta' innovazzjoni iżda wkoll sfidi għall-artisti, l-awturi, u kreaturi oħra u l-mod kif il-kontenut kreattiv tagħhom jinħoloq, jitqassam, jintuża u jiġi kkunsmat. L-iżvilupp u t-taħriġ ta' mudelli bħal dawn jeħtieġu aċċess għal ammonti kbar ta' testi, immaġnijiet, vidjows, u data oħra. It-tekniki tal-estrazzjoni tat-test u tad-data jistgħu jintużaw b'mod estensiv f'dan il-kuntest għall-irkupru u l-analiżi ta' tali kontenut, li jista' jiġi protett bid-drittijiet tal-awtur u bi drittijiet relatati. Kwalunkwe użu ta' kontenut protett bid-drittijiet tal-awtur jeħtieġ l-awtorizzazzjoni tad-detentur tad-drittijiet ikkonċernat sakemm ma japplikawx eċċezzjonijiet u limitazzjonijiet rilevanti tad-drittijiet tal-awtur. Id-Direttiva (UE) 2019/790 introduċiet eċċezzjonijiet u limitazzjonijiet li jippermettu r-riproduzzjonijiet u l-estrazzjonijiet ta' xogħlijiet jew materjal ieħor, għall-fini tal-estrazzjoni tat-test u tad-data, taħt ċerti kundizzjonijiet. Skont dawn ir-regoli, id-detenturi tad-drittijiet jistgħu jagħżlu li jirriżervaw id-drittijiet tagħhom fuq ix-xogħlijiet jew materjal ieħor tagħhom biex jipprevjenu l-estrazzjoni tat-test u tad-data, sakemm dan ma jsirx għall-finijiet ta' riċerka xjentifika. Meta d-drittijiet ta' nonparteċipazzjoni jkunu ġew espressament riżervati b'mod xieraq, il-fornituri ta' mudelli tal-IA bi skop ġenerali jeħtieġ li jiksbu awtorizzazzjoni mid-detenturi tad-drittijiet jekk ikunu jridu jwettqu estrazzjoni tat-test u tad-data fuq tali xogħlijiet.
(106)
Dostawcy wprowadzający modele AI ogólnego przeznaczenia do obrotu w Unii powinni zapewnić, aby ustanowione w niniejszym rozporządzeniu odpowiednie obowiązki zostały spełnione. W tym celu dostawcy modeli AI ogólnego przeznaczenia powinni wprowadzić politykę w celu zapewnienia zgodności z prawem Unii dotyczącym prawa autorskiego i praw pokrewnych, w szczególności w celu identyfikacji i zastosowania się do zastrzeżenia praw wyrażonego przez podmioty uprawnione zgodnie z art. 4 ust. 3 dyrektywy (UE) 2019/790. Każdy dostawca wprowadzający do obrotu w Unii model AI ogólnego przeznaczenia powinien spełniać ten obowiązek, niezależnie od jurysdykcji, w której mają miejsce czynności regulowane prawem autorskim stanowiące podstawę trenowania tych modeli AI ogólnego przeznaczenia. Jest to konieczne do zapewnienia równych warunków działania dostawcom modeli AI ogólnego przeznaczenia, tak aby żaden dostawca nie mógł uzyskać przewagi konkurencyjnej na rynku Unii poprzez stosowanie niższych standardów praw autorskich niż normy przewidziane w Unii.
(106)
Jenħtieġ li l-fornituri li jintroduċu mudelli tal-IA bi skop ġenerali fis-suq tal-Unjoni jiżguraw il-konformità mal-obbligi rilevanti f'dan ir-Regolament. Għal dak l-għan, jenħtieġ li l-fornituri ta' mudelli tal-IA bi skop ġenerali jistabbilixxu politika biex jikkonformaw mal-liġi tal-Unjoni dwar id-drittijiet tal-awtur u drittijiet relatati, b'mod partikolari biex jidentifikaw u jikkonformaw mar-riżerva tad-drittijiet espressa mid-detenturi tad-drittijiet skont l-Artikolu 4(3) tad-Direttiva (UE) 2019/790. Jenħtieġ li kwalunkwe fornitur li jintroduċi mudell tal-IA bi skop ġenerali fis-suq tal-Unjoni jikkonforma ma' dan l-obbligu, irrispettivament mill-ġuriżdizzjoni li fiha jseħħu l-atti rilevanti għad-drittijiet tal-awtur li jirfdu t-taħriġ ta' dawk il-mudelli tal-IA bi skop ġenerali. Dan huwa meħtieġ biex jiġu żgurati kundizzjonijiet ekwi fost il-fornituri ta' mudelli tal-IA bi skop ġenerali meta l-ebda fornitur ma jkun jista' jikseb vantaġġ kompetittiv fis-suq tal-Unjoni billi japplika standards tad-drittijiet tal-awtur aktar baxxi minn dawk ipprovduti fl-Unjoni.
(107)
W celu zwiększenia przejrzystości dotyczącej danych wykorzystywanych do pretrenowania i trenowania modeli AI ogólnego przeznaczenia, w tym w zakresie tekstów i danych chronionych prawem autorskim, właściwe jest, aby dostawcy takich modeli sporządzali i udostępniali publicznie wystarczająco szczegółowe streszczenie na temat treści wykorzystywanych do trenowania modelu AI ogólnego przeznaczenia. Przy należytym uwzględnieniu potrzeby ochrony tajemnic przedsiębiorstwa i poufnych informacji handlowych streszczenie to nie powinno skupiać się na szczegółach technicznych, lecz mieć zasadniczo kompleksowy charakter, aby ułatwić stronom mającym uzasadniony interes, w tym posiadaczom praw autorskich, wykonywanie i egzekwowanie ich praw wynikających z prawa Unii; streszczenie to powinno więc na przykład wymieniać główne zbiory danych, które wykorzystano do trenowania modelu, takie jak duże prywatne lub publiczne bazy lub archiwa danych, oraz powinno zawierać opisowe wyjaśnienie innych wykorzystanych źródeł danych. Urząd ds. AI powinien zapewnić wzór streszczenia, który powinien być prosty i skuteczny oraz umożliwiać dostawcy przedstawienie wymaganego streszczenia w formie opisowej.
(107)
Sabiex tiżdied it-trasparenza dwar id-data li tintuża fit-taħriġ minn qabel u fit-taħriġ ta' mudelli tal-IA bi skop ġenerali, inkluż it-test u d-data protetti mil-liġi dwar id-drittijiet tal-awtur, huwa xieraq li l-fornituri ta' tali mudelli jfasslu u jagħmlu disponibbli għall-pubbliku sommarju dettaljat biżżejjed tal-kontenut użat għat-taħriġ tal-mudell tal-IA bi skop ġenerali. Filwaqt li titqies kif xieraq il-ħtieġa li jiġu protetti s-sigrieti kummerċjali u l-informazzjoni kummerċjali kunfidenzjali, jenħtieġ li dan is-sommarju jkun ġeneralment komprensiv fil-kamp ta' applikazzjoni tiegħu minflok ma jkun teknikament dettaljat biex jiffaċilita lill-partijiet b'interessi leġittimi, inkluż id-detenturi tad-drittijiet tal-awtur, biex jeżerċitaw u jinfurzaw id-drittijiet tagħhom skont il-liġi tal-Unjoni, pereżempju billi jelenka l-ġabriet jew is-settijiet ewlenin tad-data li jkunu ħarrġu l-mudell, bħal bażijiet tad-data privati jew pubbliċi kbar jew arkivji tad-data, u billi jipprovdi spjegazzjoni narrattiva dwar sorsi oħra ta' data użati. Huwa xieraq li l-Uffiċċju għall-IA jipprovdi mudell għas-sommarju, li jenħtieġ li jkun sempliċi, effettiv, u jippermetti lill-fornitur jipprovdi s-sommarju meħtieġ f'forma narrattiva.
(108)
Urząd ds. AI powinien monitorować, czy dostawca spełnił obowiązki nałożone na dostawców modeli AI ogólnego przeznaczenia dotyczące wprowadzenia polityki w celu zapewnienia zgodności z unijnym prawem autorskim i podania do wiadomości publicznej streszczenia na temat treści wykorzystywanych do trenowania, jednak nie powinien weryfikować danych treningowych pod kątem zgodności z prawami autorskimi ani przystępować do oceny tych danych w podziale na poszczególne utwory. Niniejsze rozporządzenie nie wpływa na egzekwowanie przepisów dotyczących praw autorskich przewidzianych w prawie Unii.
(108)
Fir-rigward tal-obbligi imposti fuq il-fornituri ta' mudelli tal-IA bi skop ġenerali biex jistabbilixxu politika biex jikkonformaw mal-liġi tal-Unjoni dwar id-drittijiet tal-awtur u jagħmlu disponibbli għall-pubbliku sommarju tal-kontenut użat għat-taħriġ, jenħtieġ li l-Uffiċċju għall-IA jimmonitorja jekk il-fornitur ikunx issodisfa dawk l-obbligi mingħajr ma jivverifika jew jipproċedi biex jivvaluta wieħed wieħed kull xogħol tad-data tat-taħriġ fir-rigward tal-konformità mad-drittijiet tal-awtur. Dan ir-Regolament ma jaffettwax l-infurzar tar-regoli dwar id-drittijiet tal-awtur kif previst fil-liġi tal-Unjoni.
(109)
Spełnianie obowiązków mających zastosowanie do dostawców modeli AI ogólnego przeznaczenia powinno być współmierne i proporcjonalne do rodzaju dostawcy modeli, z wyłączeniem konieczności ich spełnienia przez osoby, które rozwijają lub wykorzystują modele do celów pozazawodowych lub badań naukowych – osoby te należy jednak zachęcać do dobrowolnego spełniania tych wymogów. Bez uszczerbku dla unijnego prawa autorskiego spełnianie tych obowiązków powinno odbywać się przy należytym uwzględnieniu wielkości dostawcy i umożliwiać uproszczone sposoby spełnienia tych obowiązków przez MŚP, w tym przedsiębiorstwa typu start-up, które nie powinny wiązać się z nadmiernymi kosztami i zniechęcać do korzystania z takich modeli. W przypadku zmiany lub dostrajania modelu obowiązki dostawców modeli AI ogólnego przeznaczenia powinny być ograniczone do tej zmiany lub dostrajania modelu, na przykład poprzez uzupełnienie już istniejącej dokumentacji technicznej o informacje na temat zmiany, w tym nowych źródeł danych treningowych, w celu spełnienia obowiązków związanych z łańcuchem wartości przewidzianych w niniejszym rozporządzeniu.
(109)
Jenħtieġ li l-konformità mal-obbligi applikabbli għall-fornituri tal-mudelli tal-IA bi skop ġenerali tkun proporzjonata għat-tip ta' fornitur tal-mudell, bl-esklużjoni tal-ħtieġa ta' konformità għall-persuni li jiżviluppaw jew jużaw mudelli għal skopijiet ta' riċerka mhux professjonali jew xjentifika, li madankollu jenħtieġ li jiġu mħeġġa jikkonformaw b'mod volontarju ma' dawn ir-rekwiżiti. Mingħajr preġudizzju għal-liġi tal-Unjoni dwar id-drittijiet tal-awtur, jenħtieġ li l-konformità ma' dawk l-obbligi tqis kif xieraq id-daqs tal-fornitur u tippermetti modi simplifikati ta' konformità għall-SMEs inkluż in-negozji ġodda, li jenħtieġ li ma jirrappreżentawx kost eċċessiv u ma jiskoraġġixxux l-użu ta' tali mudelli. Fil-każ ta' modifika jew irfinar ta' mudell, jenħtieġ li l-obbligi għall-fornituri ta’ mudelli tal-IA bi skop ġenerali jkunu limitati għal dik il-modifika jew irfinar, pereżempju billi d-dokumentazzjoni teknika diġà eżistenti tiġi kkomplementata b'informazzjoni dwar il-modifiki, inkluż sorsi ġodda ta' data tat-taħriġ, bħala mezz biex jikkonformaw mal-obbligi tal-katina tal-valur previsti f'dan ir-Regolament.
(110)
Modele AI ogólnego przeznaczenia mogą stwarzać ryzyko systemowe, które obejmuje między innymi wszelkie rzeczywiste lub racjonalnie przewidywalne negatywne skutki poważnych awarii, zakłóceń w sektorach krytycznych oraz poważne konsekwencje dla zdrowia i bezpieczeństwa publicznego; wszelkie rzeczywiste lub racjonalnie przewidywalne negatywne skutki dla procesów demokratycznych, bezpieczeństwa publicznego i gospodarczego; rozpowszechnianie nielegalnych, fałszywych lub dyskryminujących treści. Należy rozumieć, że ryzyko systemowe wzrasta wraz ze zdolnościami i zasięgiem modelu, może wystąpić w całym cyklu życia modelu i jest uzależnione od warunków niewłaściwego wykorzystania, niezawodności, bezstronności i bezpieczeństwa modelu, poziomu jego autonomii, dostępu do narzędzi, stosowania nowatorskich lub połączonych metod, strategii udostępniania i dystrybucji, możliwości w zakresie usuwania zabezpieczeń i innych czynników. W szczególności podejścia międzynarodowe wskazywały jak dotąd na potrzebę zwrócenia uwagi na ryzyko wynikające z potencjalnego umyślnego niewłaściwego wykorzystania lub niezamierzonych problemów z kontrolą związanych z dostosowaniem się do zamiaru człowieka; ryzyko chemiczne, biologiczne, radiologiczne i jądrowe, takie jak sposoby obniżania barier wejścia na rynek, w tym w zakresie opracowywania, projektowania, nabywania lub stosowania broni; ofensywne zdolności w zakresie cyberbezpieczeństwa, takie jak sposoby wykrywania, wykorzystywania lub operacyjnego stosowania podatności; skutki interakcji i wykorzystania narzędzi, w tym na przykład zdolność do kontrolowania systemów fizycznych i zakłócania infrastruktury krytycznej; ryzyko związane ze sporządzaniem kopii własnych przez modele lub samoreplikacji lub wynikające z trenowania innych modeli przez dany model; sposoby, w jakie modele mogą powodować szkodliwą stronniczość i dyskryminację zagrażające osobom fizycznym, społecznościom lub społeczeństwom; ułatwianie dezinformacji lub naruszanie prywatności, co przedstawia zagrożenie dla wartości demokratycznych i praw człowieka; ryzyko, że dane wydarzenie może spowodować reakcję łańcuchową o znacznych negatywnych skutkach, które mogą mieć wpływ nawet na całe miasta, na całą działalność w danym obszarze lub na całe społeczności.
(110)
Il-mudelli tal-IA bi skop ġenerali jistgħu joħolqu riskji sistemiċi li jinkludu, iżda mhumiex limitati għal, kwalunkwe effett negattiv reali jew raġonevolment prevedibbli fir-rigward ta' aċċidenti kbar, tfixkil ta' setturi kritiċi u konsegwenzi serji għas-saħħa u s-sikurezza pubblika; kwalunkwe effett negattiv attwali jew raġonevolment prevedibbli fuq il-proċessi demokratiċi, is-sigurtà pubblika u ekonomika; id-disseminazzjoni ta' kontenut illegali, falz jew diskriminatorju. Ir-riskji sistemiċi jenħtieġ li jinftiehmu li jiżdiedu bil-kapaċitajiet tal-mudell u l-kopertura tal-mudell, jistgħu jinħolqu tul iċ-ċiklu tal-ħajja kollu tal-mudell, u huma influwenzati minn kundizzjonijiet ta' użu ħażin, l-affidabbiltà tal-mudell, l-imparzjalità tal-mudell u sigurtà tal-mudell, il-livell ta' awtonomija tal-mudell, l-aċċess tiegħu għal għodod, modalitajiet ġodda jew ikkombinati, strateġiji ta' rilaxx u distribuzzjoni, il-potenzjal li jitneħħew il-konfini u fatturi oħra. B'mod partikolari, l-approċċi internazzjonali s'issa identifikaw il-ħtieġa li tingħata attenzjoni għar-riskji minn użu ħażin intenzjonat potenzjali jew kwistjonijiet mhux intenzjonati ta' kontroll relatati mal-allinjament mal-intenzjoni tal-bniedem; riskji kimiċi, bijoloġiċi, radjoloġiċi u nukleari, bħall-modi li bihom jistgħu jitnaqqsu l-ostakli għad-dħul, inkluż għall-iżvilupp, l-akkwist tad-disinn, jew l-użu tal-armi; kapaċitajiet ċibernetiċi offensivi, bħall-modi ta' skoperta tal-vulnerabbiltà, l-isfruttament, jew l-użu operazzjonali jistgħu jiġu attivati; l-effetti tal-interazzjoni u l-użu tal-għodda, inkluż pereżempju l-kapaċità li jiġu kkontrollati s-sistemi fiżiċi u ssir interferenza mal-infrastruttura kritika; riskji minn mudelli li jipproduċu kopji tagħhom infushom jew li jagħmlu “awtoreplikazzjoni” jew iħarrġu mudelli oħrajn; il-modi li bihom il-mudelli jistgħu jwasslu għal preġudizzju ta' ħsara u diskriminazzjoni b'riskji għall-individwi, il-komunitajiet jew is-soċjetajiet; il-faċilitazzjoni tad-diżinformazzjoni jew il-ħsara lill-privatezza b'theddid għall-valuri demokratiċi u d-drittijiet tal-bniedem; riskju li avveniment partikolari jista' jwassal għal reazzjoni katina b'effetti negattivi konsiderevoli li jistgħu jaffettwaw sa belt sħiħa, attività ta' dominju sħiħ jew komunità sħiħa.
(111)
Należy ustanowić metodykę klasyfikacji modeli AI ogólnego przeznaczenia jako modeli AI ogólnego przeznaczenia z ryzykiem systemowym. Ponieważ ryzyko systemowe wynika ze szczególnie wysokich zdolności, należy uznać, że model AI ogólnego przeznaczenia stwarza ryzyko systemowe, jeżeli wykazuje on zdolności dużego oddziaływania, oceniane na podstawie odpowiednich narzędzi technicznych i metodologii, lub jeżeli ze względu na swój zasięg ma znaczący wpływ na rynek wewnętrzny. Zdolności dużego oddziaływania w przypadku modeli AI ogólnego przeznaczenia oznaczają zdolności, które dorównują zdolnościom zapisanym w najbardziej zaawansowanych modelach AI ogólnego przeznaczenia lub je przewyższają. Pełny zakres zdolności danego modelu można lepiej zrozumieć po jego wprowadzeniu do obrotu lub w momencie, w którym podmioty stosujące wchodzą w interakcję z modelem. Zgodnie z aktualnym stanem wiedzy technicznej w momencie wejścia w życie niniejszego rozporządzenia jednym ze sposób przybliżonego określenia zdolności modelu jest łączna liczba obliczeń wykorzystanych do trenowania modelu AI ogólnego zastosowania mierzona w operacjach zmiennoprzecinkowych. Łączna liczba obliczeń wykorzystanych do trenowania obejmuje obliczenia stosowane w odniesieniu do wszystkich działań i metod, które mają na celu zwiększenie zdolności modelu przed wdrożeniem, takich jak pretrenowanie, generowanie danych syntetycznych i dostrajanie. W związku z tym należy określić próg minimalny operacjach zmiennoprzecinkowych, który, jeżeli zostanie spełniony przez model AI ogólnego przeznaczenia, stwarza domniemanie, że model ten jest modelem AI ogólnego przeznaczenia z ryzykiem systemowym. Próg ten powinien być z czasem dostosowywany w celu odzwierciedlenia zmian technologicznych i przemysłowych, takich jak ulepszenia algorytmiczne lub większa wydajność sprzętu, i powinien zostać uzupełniony o poziomy odniesienia i wskaźniki dotyczące zdolności modelu. W tym celu Urząd ds. AI powinien współpracować ze środowiskiem naukowym, przemysłem, społeczeństwem obywatelskim i innymi ekspertami. Progi, a także narzędzia i poziomy odniesienia na potrzeby oceny zdolności dużego oddziaływania powinny zapewniać mocne podstawy przewidywania ogólnego charakteru, zdolności i związanego z nimi ryzyka systemowego modeli AI ogólnego przeznaczenia; mogą one uwzględniać sposób, w jaki model zostanie wprowadzony do obrotu lub liczbę użytkowników, na które model ten może mieć wpływ. Aby uzupełnić ten system, Komisja powinna mieć możliwość podejmowania indywidualnych decyzji w sprawie uznania modelu AI ogólnego przeznaczenia za model AI ogólnego przeznaczenia z ryzykiem systemowym, jeżeli okaże się, że zdolności lub wpływ takiego modelu są równoważne z tymi, na które wskazuje ustalony próg. Decyzję tę należy podjąć na podstawie ogólnej oceny kryteriów do celów uznawania modelu AI ogólnego przeznaczenia za model z ryzykiem systemowym, określonych w załączniku do niniejszego rozporządzenia, takich jak jakość lub wielkość zbioru danych treningowych, liczba użytkowników biznesowych i końcowych, format danych wejściowych i wyjściowych modelu, poziom autonomii i skalowalności lub narzędzia, do których ma dostęp. Na uzasadniony wniosek dostawcy, którego model został uznany za model AI ogólnego przeznaczenia z ryzykiem systemowym, Komisja powinna odnieść się do tego wniosku i może podjąć decyzję o ponownej ocenie, czy model AI ogólnego przeznaczenia nadal można uznać za stwarzający ryzyko systemowe.
(111)
Huwa xieraq li tiġi stabbilita metodoloġija għall-klassifikazzjoni tal-mudelli tal-IA bi skop ġenerali bħala mudelli tal-IA bi skop ġenerali b'riskji sistemiċi. Peress li r-riskji sistemiċi jirriżultaw minn kapaċitajiet partikolarment għoljin, jenħtieġ li l-mudell tal-IA bi skop ġenerali jitqies li jippreżenta riskji sistemiċi jekk ikollu kapaċitajiet b'impatt għoli, evalwati abbażi ta' għodod u metodoloġiji tekniċi xierqa, jew impatt sinifikanti fuq is-suq intern minħabba l-kopertura tiegħu. Kapaċitajiet b'impatt kbir f'mudelli tal-IA bi skop ġenerali tfisser kapaċitajiet li jaqblu mal-kapaċitajiet irreġistrati fl-aktar mudelli avvanzati tal-IA bi skop ġenerali jew jaqbżuhom. Il-firxa sħiħa ta' kapaċitajiet f'mudell tista' tinftiehem aħjar wara l-introduzzjoni tiegħu fis-suq jew meta l-implimentaturi jinteraġixxu mal-mudell. Skont l-ogħla livell ta' żvilupp tekniku fil-mument tad-dħul fis-seħħ ta' dan ir-Regolament, l-ammont kumulattiv ta' komputazzjoni użat għat-taħriġ tal-mudell tal-IA bi skop ġenerali mkejjel f'operazzjonijiet b'punt varjabbli huwa wieħed mill-approssimazzjonijiet rilevanti għall-kapaċitajiet tal-mudell. L-ammont kumulattiv ta’ komputazzjoni użat għat-taħriġ jinkludi l-komputazzjoni użata fl-attivitajiet u l-metodi kollha li huma maħsuba biex itejbu l-kapaċitajiet tal-mudell qabel l-implimentazzjoni, bħal taħriġ minn qabel, ġenerazzjoni ta' data sintetika u rfinar. Għalhekk, jenħtieġ li jiġi stabbilit limitu inizjali tal-operazzjonijiet b'punt varjabbli, li, jekk jiġi ssodisfat minn mudell tal-IA bi skop ġenerali, iwassal għal preżunzjoni li l-mudell huwa mudell tal-IA bi skop ġenerali b'riskji sistemiċi. Jenħtieġ li dan il-limitu jiġi aġġustat maż-żmien biex jirrifletti l-bidliet teknoloġiċi u industrijali, bħat-titjib algoritmiku jew żieda fl-effiċjenza tal-hardware, u jenħtieġ li jiġi ssupplimentat b'parametri referenzjarji u indikaturi għall-kapaċità tal-mudell. Biex jikkontribwixxi għal dan, jenħtieġ li l-Uffiċċju għall-IA jinvolvi ruħu mal-komunità xjentifika, l-industrija, is-soċjetà ċivili u esperti oħra. Jenħtieġ li l-limiti, kif ukoll l-għodod u l-parametri referenzjarji għall-valutazzjoni ta' kapaċitajiet b'impatt għoli, ikunu jistgħu jbassru sew il-ġeneralità, il-kapaċitajiet u r-riskju sistemiku assoċjat ta' mudelli tal-IA bi skop ġenerali, u jistgħu jqisu l-mod kif il-mudell ser jiġi introdott fis-suq jew l-għadd ta' utenti li jista' jaffettwa. Biex tikkomplementa din is-sistema, jenħtieġ ikun hemm il-possibbiltà li l-Kummissjoni tieħu deċiżjonijiet individwali li jiddeżinjaw mudell tal-IA bi skop ġenerali bħala mudell tal-IA bi skop ġenerali b'riskju sistemiku jekk jinstab li tali mudell għandu kapaċitajiet jew impatt ekwivalenti għal dawk koperti mil-livell limitu stabbilit. Jenħtieġ li dik id-deċiżjoni tittieħed abbażi ta' valutazzjoni ġenerali tal-kriterji għad-deżinjazzjoni ta' mudell tal-IA bi skop ġenerali b'riskju sistemiku stipulat f'anness ta' dan ir-Regolament, bħall-kwalità jew id-daqs tas-sett tad-data tat-taħriġ, l-għadd ta' negozji u utenti finali, il-modalitajiet tal-input u tal-output tiegħu, il-livell ta' awtonomija u skalabbiltà tiegħu, jew l-għodod li għandu aċċess għalihom. Fuq talba motivata ta' fornitur li l-mudell tiegħu jkun ġie ddeżinjat bħala mudell tal-IA bi skop ġenerali b'riskju sistemiku, jenħtieġ li l-Kummissjoni tqis it-talba u tista' tiddeċiedi li tivvaluta mill-ġdid jekk il-mudell tal-IA bi skop ġenerali għadux jista' jitqies li jippreżenta riskji sistemiċi.
(112)
Konieczne jest również doprecyzowanie procedury klasyfikacji modelu AI ogólnego zastosowania z ryzykiem systemowym. W przypadku modelu AI ogólnego przeznaczenia, który osiąga mający zastosowanie próg dotyczący zdolności dużego oddziaływania, należy domniemywać, że jest on modelem AI ogólnego przeznaczenia z ryzykiem systemowym. Dostawca powinien powiadomić Urząd ds. AI najpóźniej dwa tygodnie od momentu spełnienia kryteriów lub po uzyskaniu wiedzy, że model AI ogólnego przeznaczenia będzie spełniał kryteria prowadzące do takiego domniemania. Jest to szczególnie istotne w odniesieniu do progu dotyczącego operacji zmiennoprzecinkowych, ponieważ trenowanie modeli AI ogólnego przeznaczenia wymaga znacznego planowania, co obejmuje przydział z góry zasobów obliczeniowych, w związku z czym dostawcy modeli AI ogólnego przeznaczenia są w stanie stwierdzić, czy ich model osiągnąłby ten próg przed zakończeniem trenowania. W kontekście tego powiadomienia dostawca powinien móc wykazać, że ze względu na swoje szczególne cechy model AI ogólnego przeznaczenia wyjątkowo nie stwarza ryzyka systemowego, a zatem nie powinien być zaklasyfikowany jako model AI ogólnego przeznaczenia z ryzykiem systemowym. Powiadomienia te to cenne informacje, które umożliwiają Urzędowi ds. AI przewidywanie, że modele AI sztucznej inteligencji ogólnego przeznaczenia z ryzykiem systemowym zostaną wprowadzone do obrotu, dostawcy mogą zatem rozpocząć współpracę z Urzędem ds. AI na wczesnym etapie. Informacje te są szczególnie ważne w odniesieniu do modeli AI ogólnego przeznaczenia, które mają zostać udostępnione jako otwarte oprogramowanie, zważywszy na to, że wdrożenie środków niezbędnych do zapewnienia spełnienia obowiązków ustanowionych w niniejszym rozporządzeniu może być trudniejsze po udostępnieniu modelu na zasadach otwartego oprogramowania.
(112)
Jeħtieġ ukoll li tiġi ċċarata proċedura għall-klassifikazzjoni ta' mudell tal-IA bi skop ġenerali b'riskji sistemiċi. Jenħtieġ li mudell tal-IA bi skop ġenerali li jissodisfa l-limitu applikabbli għal kapaċitajiet b'impatt għoli jitqies li huwa mudell tal-IA bi skop ġenerali b'riskju sistemiku. Jenħtieġ li l-fornitur jinnotifika lill-Uffiċċju għall-IA mhux aktar tard minn ġimagħtejn wara li jiġu ssodisfati r-rekwiżiti jew isir magħruf li mudell tal-IA bi skop ġenerali ser jissodisfa r-rekwiżiti li jwasslu għall-preżunzjoni. Dan huwa partikolarment rilevanti fir-rigward tal-limitu tal-operazzjonijiet b'punt varjabbli minħabba li t-taħriġ ta' mudelli tal-IA bi skop ġenerali jirrikjedi ippjanar konsiderevoli li jinkludi l-allokazzjoni bil-quddiem tar-riżorsi tal-komputazzjoni u, għalhekk, il-fornituri ta' mudelli tal-IA bi skop ġenerali jistgħu jkunu jafu jekk il-mudell tagħhom jilħaqx il-limitu qabel ma jitlesta t-taħriġ. Fil-kuntest ta' dik in-notifika, jenħtieġ li l-fornitur ikun jista' juri li minħabba l-karatteristiċi speċifiċi tiegħu, mudell tal-IA bi skop ġenerali b'mod eċċezzjonali ma jippreżentax riskji sistemiċi, u li għalhekk jenħtieġ li ma jiġix ikklassifikat bħala mudell tal-IA bi skop ġenerali b'riskji sistemiċi. Dik l-informazzjoni hija siewja għall-Uffiċċju għall-IA biex jantiċipa l-introduzzjoni fis-suq ta' mudelli tal-IA bi skop ġenerali b'riskji sistemiċi u l-fornituri jistgħu jibdew jinvolvu ruħhom mal-Uffiċċju għall-IA minn kmieni. Dik l-informazzjoni hija partikolarment importanti fir-rigward tal-mudelli tal-IA bi skop ġenerali li huma ppjanati li jiġu rilaxxati bħala sors miftuħ, minħabba li, wara r-rilaxx tal-mudell b'sors miftuħ, il-miżuri meħtieġa biex tiġi żgurata l-konformità mal-obbligi skont dan ir-Regolament jistgħu jkunu aktar diffiċli biex jiġu implimentati.
(113)
Jeżeli Komisja dowie się o tym, że model AI ogólnego przeznaczenia spełnia kryteria, by zostać zaklasyfikowany jako model AI o ogólnym przeznaczeniu z ryzykiem systemowym, czego wcześniej nie było wiadomo lub w przypadku gdy odpowiedni dostawca nie wywiązał się z obowiązku powiadomienia o tym Komisji, Komisja powinna być uprawniona do uznania tego modelu za model o ogólnym przeznaczeniu z ryzykiem systemowym. Obok działań monitorujących prowadzonych przez Urząd ds. AI powinien istnieć system, w ramach którego panel naukowy za pośrednictwem ostrzeżeń kwalifikowanych informuje Urząd ds. AI o modelach AI ogólnego przeznaczenia, które należy ewentualnie zaklasyfikować jako modele AI ogólnego przeznaczenia z ryzykiem systemowym.
(113)
Jekk il-Kummissjoni ssir taf bil-fatt li mudell tal-IA bi skop ġenerali jissodisfa r-rekwiżiti biex jiġi kklassifikat bħala mudell tal-IA bi skop ġenerali b'riskju sistemiku, li qabel jew ma kienx magħruf jew li l-fornitur rilevanti naqas milli jinnotifika lill-Kummissjoni, jenħtieġ li l-Kummissjoni tingħata s-setgħa li tiddeżinjah bħala tali. Jenħtieġ li jkun hemm sistema ta' allerti kwalifikati li tiżgura li l-Uffiċċju għall-IA jiġi mgħarraf mill-bord b'mudelli tal-IA bi skop ġenerali li x'aktarx għandhom jiġu kklassifikati bħala mudelli tal-IA bi skop ġenerali b'riskju sistemiku, minbarra l-attivitajiet ta' monitoraġġ tal-Uffiċċju għall-IA.
(114)
Dostawcy modeli AI ogólnego przeznaczenia stwarzających ryzyko systemowe powinni podlegać nie tylko obowiązkom nałożonym na dostawców modeli AI ogólnego przeznaczenia, ale także obowiązkom mającym na celu identyfikację i ograniczenie ryzyka systemowego oraz zapewnienie odpowiedniego poziomu ochrony cyberbezpieczeństwa, niezależnie od tego, czy modele te są dostarczane jako samodzielne modele czy wbudowane w system AI lub w produkt. Aby osiągnąć te cele, w niniejszym rozporządzeniu należy zobowiązać dostawców do przeprowadzania niezbędnych ocen modeli, w szczególności przed ich pierwszym wprowadzeniem do obrotu, w tym przeprowadzania wobec modeli i dokumentowania testów kontradyktoryjnych, również, w stosownych przypadkach, w drodze wewnętrznych lub niezależnych testów zewnętrznych. Ponadto dostawcy modeli AI ogólnego przeznaczenia z ryzykiem systemowym powinni stale oceniać i ograniczać ryzyko systemowe, w tym na przykład poprzez wprowadzanie strategii zarządzania ryzykiem, takich jak procesy rozliczalności i zarządzania, wdrażanie monitorowania po wprowadzeniu do obrotu, podejmowanie odpowiednich środków w całym cyklu życia modelu oraz współpracę z odpowiednimi podmiotami w całym łańcuchu wartości AI.
(114)
Jenħtieġ li l-fornituri ta' mudelli tal-IA bi skop ġenerali li jippreżentaw riskji sistemiċi jkunu soġġetti, minbarra l-obbligi previsti għall-fornituri ta' mudelli tal-IA bi skop ġenerali, għal obbligi mmirati lejn l-identifikazzjoni u l-mitigazzjoni ta' dawk ir-riskji u l-iżgurar ta' livell adegwat ta' protezzjoni taċ-ċibersigurtà, irrispettivament minn jekk jiġix ipprovdut bħala mudell awtonomu jew inkorporat f'sistema tal-IA jew fi prodott. Sabiex jintlaħqu dawk l-objettivi, jenħtieġ li dan ir-Regolament jirrikjedi li l-fornituri jwettqu l-evalwazzjonijiet tal-mudell meħtieġa, b'mod partikolari qabel l-ewwel introduzzjoni tiegħu fis-suq, inkluż it-twettiq u d-dokumentazzjoni tal-ittestjar kontradittorju tal-mudelli, anke, kif xieraq, permezz ta' ttestjar intern jew indipendenti estern. Barra minn hekk, jenħtieġ li l-fornituri ta' mudelli tal-IA bi skop ġenerali b'riskji sistemiċi jivvalutaw u jimmitigaw kontinwament ir-riskji sistemiċi, inkluż pereżempju billi jistabbilixxu politiki ta' ġestjoni tar-riskju, bħal proċessi ta' responsabbiltà u governanza, jimplimentaw sorveljanza ta' wara l-introduzzjoni fis-suq, jieħdu miżuri xierqa tul iċ-ċiklu tal-ħajja kollu tal-mudell u jikkooperaw ma' atturi rilevanti tul il-katina tal-valur tal-IA.
(115)
Dostawcy modeli AI ogólnego przeznaczenia z ryzykiem systemowym powinni oceniać i ograniczać ewentualne ryzyko systemowe. Jeżeli pomimo wysiłków na rzecz zidentyfikowania ryzyka związanego z modelem AI ogólnego przeznaczenia, który może stwarzać ryzyko systemowe, i pomimo wysiłków na rzecz przeciwdziałania temu ryzyku, w wyniku rozwoju lub wykorzystania modelu wystąpi poważny incydent, dostawca modelu AI ogólnego przeznaczenia powinien bez zbędnej zwłoki zacząć śledzić jego przebieg i zgłosić wszelkie istotne informacje i możliwe środki naprawcze Komisji i właściwym organom krajowym. Ponadto dostawcy powinni zapewnić odpowiedni poziom ochrony cyberbezpieczeństwa w odniesieniu do modelu i jego infrastruktury fizycznej, w stosownych przypadkach, w całym cyklu życia modelu. Ochrona cyberbezpieczeństwa w kontekście ryzyka systemowego związanego ze złośliwym wykorzystaniem lub atakami powinna należycie uwzględniać przypadkowe przecieki modelu, nieuprawnione przypadki udostępnienia, obchodzenie środków bezpieczeństwa oraz ochronę przed cyberatakami, nieuprawnionym dostępem lub kradzieżą modelu. Ochronę tę można ułatwić poprzez zabezpieczenie wag modeli, algorytmów, serwerów i zbiorów danych, na przykład za pomocą operacyjnych środków bezpieczeństwa na rzecz bezpieczeństwa informacji, konkretnych strategii cyberbezpieczeństwa, odpowiednich rozwiązań technicznych i ustanowionych rozwiązań oraz kontroli dostępu fizycznego i w cyberprzestrzeni, odpowiednio do danych okoliczności i związanego z nimi ryzyka.
(115)
Jenħtieġ li l-fornituri ta' mudelli tal-IA bi skop ġenerali b'riskji sistemiċi jivvalutaw u jimmitigaw ir-riskji sistemiċi possibbli. Jekk, minkejja l-isforzi biex jiġu identifikati u evitati riskji relatati ma' mudell tal-IA bi skop ġenerali li jista' jippreżenta riskji sistemiċi, l-iżvilupp jew l-użu tal-mudell jikkawża inċident serju, jenħtieġ li l-fornitur tal-mudell tal-IA bi skop ġenerali mingħajr dewmien żejjed iżomm rekord tal-inċident u jirrapporta kwalunkwe informazzjoni rilevanti u miżuri korrettiva possibbli lill-Kummissjoni u lill-awtoritajiet nazzjonali kompetenti. Barra minn hekk, jenħtieġ li l-fornituri jiżguraw livell adegwat ta' protezzjoni taċ-ċibersigurtà għall-mudell u l-infrastruttura fiżika tiegħu, jekk ikun xieraq, tul iċ-ċiklu tal-ħajja kollu tal-mudell. Jenħtieġ li l-protezzjoni taċ-ċibersigurtà relatata mar-riskji sistemiċi assoċjati mal-użu malizzjuż ta' mudell jew attakki tqis kif xieraq ir-rilaxx aċċidentali minn mudell, ir-rilaxxi mhux awtorizzati, iċ-ċirkomvenzjoni tal-miżuri ta' sikurezza, u d-difiża kontra l-attakki ċibernetiċi, l-aċċess mhux awtorizzat jew is-serq tal-mudell. Dik il-protezzjoni tista' tiġi ffaċilitata billi jiġu żgurati piżijiet tal-mudell, algoritmi, servers, u settijiet ta' data, pereżempju permezz ta' miżuri ta' sigurtà operazzjonali għas-sigurtà tal-informazzjoni, politiki speċifiċi dwar iċ-ċibersigurtà, soluzzjonijiet tekniċi u stabbiliti adegwati, u kontrolli tal-aċċess ċibernetiku u fiżiku, adattati għaċ-ċirkostanzi rilevanti u r-riskji involuti.
(116)
Urząd ds. AI powinien wspierać i ułatwiać opracowywanie, przegląd i dostosowywanie kodeksów praktyk, z uwzględnieniem podejść międzynarodowych. Do udziału można zaprosić wszystkich dostawców modeli AI ogólnego przeznaczenia. W celu zapewnienia, aby kodeksy praktyk odzwierciedlały aktualny stan wiedzy technicznej i należycie uwzględniały różne punkty widzenia, przy opracowania takich kodeksów Urząd ds. AI powinien współpracować z odpowiednimi właściwymi organami krajowymi i mógłby, w stosownych przypadkach, konsultować się z organizacjami społeczeństwa obywatelskiego i innymi odpowiednimi zainteresowanymi stronami i ekspertami, w tym z panelem naukowym. Kodeksy praktyk powinny obejmować obowiązki dostawców modeli AI ogólnego przeznaczenia i modeli AI ogólnego przeznaczenia stwarzających ryzyko systemowe. Ponadto w odniesieniu do ryzyka systemowego kodeksy praktyk powinny pomóc w ustanowieniu na poziomie Unii klasyfikacji tego ryzyka pod względem jego różnych rodzajów i charakteru, w tym jego źródeł. Kodeksy praktyk powinny również koncentrować się na konkretnych środkach oceny i ograniczania ryzyka.
(116)
Jenħtieġ li l-Uffiċċju għall-IA jħeġġeġ u jiffaċilita t-tfassil, ir-rieżami u l-adattament tal-kodiċijiet ta' prattika, filwaqt li jqis l-approċċi internazzjonali. Il-fornituri kollha ta' mudelli tal-IA bi skop ġenerali jistgħu jiġu mistiedna jipparteċipaw. Biex jiġi żgurat li l-kodiċijiet ta' prattika jirriflettu l-ogħla livell ta' żvilupp tekniku u jqisu kif xieraq sett varjat ta' perspettivi, jenħtieġ li l-Uffiċċju għall-IA jikkollabora mal-awtoritajiet nazzjonali kompetenti rilevanti, u jista', fejn xieraq, jikkonsulta mal-organizzazzjonijiet tas-soċjetà ċivili u partijiet ikkonċernati u esperti rilevanti oħra, inkluż il-bord, għat-tfassil ta' tali kodiċijiet. Jenħtieġ li l-kodiċijiet ta' prattika jkopru l-obbligi għall-fornituri ta' mudelli tal-IA bi skop ġenerali u ta' mudelli tal-IA bi skop ġenerali li jippreżentaw riskji sistemiċi. Barra minn hekk, fir-rigward tar-riskji sistemiċi, jenħtieġ li l-kodiċijiet ta' prattika jgħinu biex tiġi stabbilita tassonomija tar-riskju tat-tip u n-natura tar-riskji sistemiċi fil-livell tal-Unjoni, inkluż is-sorsi tagħhom. Jenħtieġ li l-Kodiċijiet ta' Prattika jkunu ffukati wkoll fuq valutazzjoni tar-riskju speċifika u miżuri ta' mitigazzjoni.
(117)
Kodeksy praktyk powinny stanowić jedno z głównych narzędzi służących właściwemu spełnianiu obowiązków przewidzianych w niniejszym rozporządzeniu w odniesieniu do dostawców modeli AI ogólnego przeznaczenia. Dostawcy powinni móc polegać na kodeksach praktyk w celu wykazania spełnienia tych obowiązków. W drodze aktów wykonawczych Komisja może podjąć decyzję o zatwierdzeniu kodeksu praktyk i nadaniu mu ogólnej ważności w Unii lub ewentualnie o ustanowieniu wspólnych zasad dotyczących wdrażania odpowiednich obowiązków, jeżeli do czasu rozpoczęcia stosowania niniejszego rozporządzenia prace nad kodeksem praktyk nie mogą zostać sfinalizowane lub jeśli Urząd ds. AI uzna, że kodeks ten nie jest wystarczający. Po opublikowaniu normy zharmonizowanej i po tym jak Urząd ds. AI oceni ją jako właściwą, by objąć odpowiednie obowiązki, zgodność z europejską normą zharmonizowaną powinna w odniesieniu do dostawców oznaczać domniemanie zgodności. Dostawcy modeli AI ogólnego przeznaczenia powinni ponadto być w stanie wykazać zgodność za pomocą odpowiednich alternatywnych środków, jeżeli kodeksy praktyk lub normy zharmonizowane nie są dostępne lub jeśli zdecydują się na nich nie polegać.
(117)
Jenħtieġ li l-kodiċijiet ta' prattika jirrappreżentaw għodda ċentrali għall-konformità xierqa mal-obbligi previsti skont dan ir-Regolament għall-fornituri ta' mudelli tal-IA bi skop ġenerali. Jenħtieġ li l-fornituri jkunu jistgħu jiddependu fuq kodiċijiet ta' prattika biex juru l-konformità mal-obbligi. Permezz ta' atti ta' implimentazzjoni, il-Kummissjoni tista' tiddeċiedi li tapprova kodiċi ta' prattika u tagħtih validità ġenerali fl-Unjoni, jew, alternattivament, li tipprovdi regoli komuni għall-implimentazzjoni tal-obbligi rilevanti, jekk, sa meta dan ir-Regolament isir applikabbli, kodiċi ta' prattika ma jkunx jista' jiġi ffinalizzat jew ma jitqiesx adegwat mill-Uffiċċju għall-IA. Ladarba standard armonizzat jiġi ppubblikat u vvalutat bħala xieraq biex ikopri l-obbligi rilevanti mill-Uffiċċju għall-IA, jenħtieġ li l-konformità ma' standard armonizzat Ewropew tagħti lill-fornituri l-preżunzjoni tal-konformità. Barra minn hekk, jenħtieġ li l-fornituri ta' mudelli tal-IA bi skop ġenerali jkunu jistgħu juru l-konformità bl-użu ta' mezzi adegwati alternattivi, jekk il-kodiċijiet ta' prattika jew l-istandards armonizzati ma jkunux disponibbli, jew jagħżlu li ma jiddependux fuqhom.
(118)
Niniejsze rozporządzenie reguluje systemy AI i modele AI, nakładając określone wymogi i obowiązki na odpowiednie podmioty rynkowe, które wprowadzają je do obrotu, oddają do użytku lub wykorzystują w Unii, i uzupełnia w ten sposób obowiązki dostawców usług pośrednich, którzy włączają takie systemy lub modele do swoich usług uregulowanych rozporządzeniem (UE) 2022/2065. W zakresie, w jakim takie systemy lub modele są wbudowane we wskazane bardzo duże platformy internetowe lub bardzo duże wyszukiwarki internetowe, podlegają one ramom zarządzania ryzykiem przewidzianym w rozporządzeniu (UE) 2022/2065. W związku z tym należy domniemywać, że odpowiednie obowiązki ustanowione w niniejszym rozporządzeniu zostały spełnione, chyba że w takich modelach pojawi się i zostanie zidentyfikowane znaczące ryzyko systemowe nieobjęte rozporządzeniem (UE) 2022/2065. W tych ramach dostawcy bardzo dużych platform internetowych i bardzo dużych wyszukiwarek internetowych są zobowiązani do oceny potencjalnego ryzyka systemowego wynikającego z projektu, funkcjonowania i wykorzystania ich usług, w tym tego, w jaki sposób projekt systemów algorytmicznych wykorzystywanych w danej usłudze może przyczynić się do powstania takiego ryzyka, a także ryzyka systemowego wynikającego z potencjalnego nadużycia. Dostawcy ci są również zobowiązani podjąć odpowiednie środki ograniczające to ryzyko z poszanowaniem praw podstawowych.
(118)
Dan ir-Regolament jirregola s-sistemi tal-IA u l-mudelli tal-IA billi jimponi ċerti rekwiżiti u obbligi għall-atturi rilevanti tas-suq li qed jintroduċuhom fis-suq, iqegħduhom fis-servizz jew fl-użu fl-Unjoni, u b'hekk jikkomplementa l-obbligi għall-fornituri tas-servizzi intermedjarji li jinkorporaw tali sistemi jew mudelli fis-servizzi tagħhom irregolati bir-Regolament (UE) 2022/2065. Sal-punt li tali sistemi jew mudelli jkunu inkorporati fi pjattaformi online kbar ħafna ddeżinjati jew f'magni tat-tiftix online kbar ħafna, dawn ikunu soġġetti għall-qafas ta' ġestjoni tar-riskju previst fir-Regolament (UE) 2022/2065. Konsegwentement, jenħtieġ li l-obbligi korrispondenti ta' dan ir-Regolament jiġu preżunti li ġew issodisfati, dment li ma jitfaċċawx riskji sistemiċi sinifikanti mhux koperti mir-Regolament (UE) 2022/2065 u jiġu identifikati f'tali mudelli. F'dan il-qafas, il-fornituri tal-pjattaformi online kbar ħafna u tal-magni tat-tiftix online kbar ħafna huma obbligati jivvalutaw ir-riskji sistemiċi potenzjali li jirriżultaw mid-disinn, il-funzjonament u l-użu tas-servizzi tagħhom, inkluż kif id-disinn tas-sistemi algoritmiċi użati fis-servizz jista' jikkontribwixxi għal tali riskji, kif ukoll riskji sistemiċi li jirriżultaw minn użi ħżiena potenzjali. Dawk il-fornituri huma obbligati wkoll li jieħdu miżuri ta' mitigazzjoni xierqa b'rispett għad-drittijiet fundamentali.
(119)
Biorąc pod uwagę szybkie tempo innowacji i rozwój technologiczny usług cyfrowych objętych różnymi instrumentami prawa Unii, w szczególności mając na uwadze wykorzystanie tych usług oraz zrozumienie, kto jest ich odbiorcą, systemy AI podlegające niniejszemu rozporządzeniu mogą być dostarczane jako usługi pośrednie lub ich części w rozumieniu rozporządzenia (UE) 2022/2065, które należy postrzegać w sposób neutralny pod względem technologicznym. Na przykład systemy AI mogą być wykorzystywane w roli wyszukiwarek internetowych, w szczególności w zakresie, w jakim system AI, taki jak chatbot internetowy, zasadniczo przeprowadza wyszukiwanie wszystkich stron internetowych, a następnie włącza wyniki do swojej istniejącej wiedzy i wykorzystuje zaktualizowaną wiedzę do wygenerowania jednego wyniku, który łączy różne źródła informacji.
(119)
Meta wieħed iqis il-pass mgħaġġel tal-innovazzjoni u l-evoluzzjoni teknoloġika tas-servizzi diġitali fil-kamp ta' applikazzjoni ta' strumenti differenti tad-dritt tal-Unjoni b'mod partikolari meta wieħed iżomm f'moħħu l-użu u l-perċezzjoni tar-riċevituri tagħhom, is-sistemi tal-IA soġġetti għal dan ir-Regolament jistgħu jiġu previsti bħala servizzi intermedjarji jew partijiet minnhom skont it-tifsira tar-Regolament (UE) 2022/2065, li jenħtieġ li jiġi interpretat b'mod teknoloġikament newtrali. Pereżempju, is-sistemi tal-IA jistgħu jintużaw biex jipprovdu magni tat-tiftix online, b'mod partikolari, sal-punt li sistema tal-IA bħal chatbot online twettaq tfittxijiet, fil-prinċipju, tas-siti web kollha, imbagħad tinkorpora r-riżultati fl-għarfien eżistenti tagħha u tuża l-għarfien aġġornat biex tiġġenera output uniku li jikkombina sorsi differenti ta' informazzjoni.
(120)
Ponadto obowiązki nałożone w niniejszym rozporządzeniu na dostawców i podmioty stosujące niektóre systemy AI, by umożliwić wykrywanie i ujawnianie, że wyniki tych systemów są sztucznie wygenerowane lub zmanipulowane, są szczególnie istotne dla ułatwienia skutecznego wdrożenia rozporządzenia (UE) 2022/2065. Dotyczy to w szczególności obowiązków dostawców bardzo dużych platform internetowych lub bardzo dużych wyszukiwarek internetowych w zakresie identyfikowania i ograniczania ryzyka systemowego, które może wynikać z rozpowszechniania treści sztucznie wygenerowanych lub zmanipulowanych, w szczególności ryzyka faktycznych lub przewidywalnych negatywnych skutków dla procesów demokratycznych, dyskursu obywatelskiego i procesów wyborczych, w tym poprzez stosowanie dezinformacji.
(120)
Barra minn hekk, l-obbligi imposti fuq il-fornituri u l-implimentaturi ta' ċerti sistemi tal-IA f'dan ir-Regolament biex jippermettu l-kxif u d-divulgazzjoni li l-outputs ta' dawk is-sistemi jiġu ġġenerati jew immanipulati b'mod artifiċjali huma partikolarment rilevanti biex tiġi ffaċilitata l-implimentazzjoni effettiva tar-Regolament (UE) 2022/2065. Dan japplika b'mod partikolari fir-rigward tal-obbligi tal-fornituri ta' pjattaformi online kbar ħafna jew ta' magni tat-tiftix online kbar ħafna biex jidentifikaw u jimmitigaw ir-riskji sistemiċi li jistgħu jirriżultaw mid-disseminazzjoni ta' kontenut li jkun ġie ġġenerat jew immanipulat b'mod artifiċjali, b'mod partikolari r-riskju tal-effetti negattivi reali jew prevedibbli fuq il-proċessi demokratiċi, id-diskors ċiviku u l-proċessi elettorali, inkluż permezz tad-diżinformazzjoni.
(121)
Kluczową rolę w dostarczaniu dostawcom rozwiązań technicznych – zgodnie z aktualnym stanem wiedzy technicznej – w celu zapewnienia zgodności z niniejszym rozporządzeniem powinna odgrywać normalizacja, tak aby promować innowacje oraz konkurencyjność i wzrost gospodarczy na jednolitym rynku. Zgodność z normami zharmonizowanymi określonymi w art. 2 pkt 1 lit. c) rozporządzenia Parlamentu Europejskiego i Rady (UE) nr 1025/2012 (41), które z założenia mają odzwierciedlać stan wiedzy technicznej, powinna stanowić dla dostawców sposób wykazania zgodności z wymogami niniejszego rozporządzenia. Przy opracowywaniu norm należy zatem zachęcać do zrównoważonej reprezentacji interesów wszystkich zainteresowanych stron, w szczególności MŚP, organizacji konsumenckich oraz zainteresowanych stron działających na rzecz ochrony środowiska i społeczeństwa zgodnie z art. 5 i 6 rozporządzenia (UE) nr 1025/2012. Aby ułatwić osiąganie zgodności, wnioski o normalizację powinny być wydawane przez Komisję bez zbędnej zwłoki. Przygotowując wniosek o normalizację, Komisja powinna skonsultować się z forum doradczym i Radą ds. AI, aby zebrać odpowiednią wiedzę fachową. Jednakże w przypadku braku odpowiednich odniesień do norm zharmonizowanych Komisja powinna mieć możliwość ustanowienia, w drodze aktów wykonawczych i po konsultacji z forum doradczym, wspólnych specyfikacji dotyczących niektórych wymogów określonych w niniejszym rozporządzeniu. Ta wspólna specyfikacja powinna stanowić wyjątkowe rozwiązanie awaryjne ułatwiające dostawcy spełnienie wymogów niniejszego rozporządzenia, w przypadku gdy wniosek o normalizację nie został zaakceptowany przez żadną z europejskich organizacji normalizacyjnych lub gdy odpowiednie normy zharmonizowane w niewystarczającym stopniu uwzględniają obawy dotyczące praw podstawowych lub gdy normy zharmonizowane nie są zgodne z wnioskiem, lub gdy występują opóźnienia w przyjęciu odpowiedniej normy zharmonizowanej. Jeżeli opóźnienie w przyjęciu normy zharmonizowanej wynika ze złożoności technicznej danej normy, Komisja powinna to uwzględnić, zanim zacznie rozważać ustanowienie wspólnych specyfikacji. Przy opracowywaniu wspólnych specyfikacji zachęca się Komisję do współpracy z partnerami międzynarodowymi i międzynarodowymi organami normalizacyjnymi.
(121)
Jenħtieġ li l-istandardizzazzjoni taqdi rwol ewlieni biex tipprovdi soluzzjonijiet tekniċi lill-fornituri ħalli tkun żgurata l-konformità ma' dan ir-Regolament, f'konformità mal-ogħla livell ta' żvilupp tekniku, biex tippromwovi l-innovazzjoni kif ukoll il-kompetittività u t-tkabbir fis-suq uniku. Jenħtieġ li l-konformità mal-istandards armonizzati kif definiti fl-Artikolu 2, il-punt (1)(c) tar-Regolament (UE) Nru 1025/2012 tal-Parlament Ewropew u tal-Kunsill (41), li normalment mistennija jirriflettu l-ogħla livell ta' żvilupp tekniku, tkun mezz biex il-fornituri juru l-konformità mar-rekwiżiti ta' dan ir-Regolament. Għalhekk jenħtieġ li titħeġġeġ rappreżentazzjoni bilanċjata tal-interessi li tinvolvi l-partijiet ikkonċernati rilevanti kollha fl-iżvilupp tal-istandards, b'mod partikolari l-SMEs, l-organizzazzjonijiet tal-konsumaturi u l-partijiet ikkonċernati fil-qasam tal-ambjent u dak soċjali f'konformità mal-Artikoli 5 u 6 tar-Regolament (UE) Nru 1025/2012. Sabiex tiġi ffaċilitata l-konformità, jenħtieġ li t-talbiet ta' standardizzazzjoni jinħarġu mill-Kummissjoni mingħajr dewmien żejjed. Meta tkun qed tħejji t-talba ta' standardizzazzjoni, jenħtieġ li l-Kummissjoni tikkonsulta lill-forum konsultattiv u lill-Bord sabiex tiġbor l-kompetenza esperta rilevanti. Madankollu, fin-nuqqas ta' referenzi rilevanti għal standards armonizzati, jenħtieġ li l-Kummissjoni tkun tista' tistabbilixxi, permezz ta' atti ta' implimentazzjoni, u wara konsultazzjoni mal-forum konsultattiv, speċifikazzjonijiet komuni għal ċerti rekwiżiti skont dan ir-Regolament. Jenħtieġ li l-ispeċifikazzjoni komuni tkun soluzzjoni ta' riżerva eċċezzjonali biex jiġi ffaċilitat l-obbligu tal-fornitur li jikkonforma mar-rekwiżiti ta' dan ir-Regolament, meta t-talba ta' standardizzazzjoni ma tkunx ġiet aċċettata minn xi waħda mill-organizzazzjonijiet Ewropej tal-istandardizzazzjoni, jew meta l-istandards armonizzati rilevanti ma jindirizzawx biżżejjed it-tħassib dwar id-drittijiet fundamentali, jew meta l-istandards armonizzati ma jikkonformawx mat-talba, jew meta jkun hemm dewmien fl-adozzjoni ta' standard armonizzat xieraq. Fejn tali dewmien fl-adozzjoni ta' standard armonizzat ikun dovut għall-kumplessità teknika ta' dak l-istandard, jenħtieġ li dan jiġi kkunsidrat mill-Kummissjoni qabel ma jiġi maħsub l-istabbiliment ta' speċifikazzjonijiet komuni. Meta tiżviluppa speċifikazzjonijiet komuni, il-Kummissjoni hija mħeġġa tikkoopera mas-sħab internazzjonali u mal-korpi internazzjonali tal-istandardizzazzjoni.
(122)
Bez uszczerbku dla stosowania norm zharmonizowanych i wspólnych specyfikacji zasadnym jest przyjęcie domniemania, że dostawcy systemu AI wysokiego ryzyka, który został wytrenowany i przetestowany w oparciu o dane odzwierciedlające określone otoczenie geograficzne, behawioralne, kontekstualne lub funkcjonalne, w którym dany system AI ma być wykorzystywany, stosują odpowiedni środek przewidziany w ramach wymogu dotyczącego zarządzania danymi określonego w niniejszym rozporządzeniu. Bez uszczerbku dla wymogów dotyczących solidności i dokładności określonych w niniejszym rozporządzeniu, zgodnie z art. 54 ust. 3 rozporządzenia (UE) 2019/881 należy przyjąć domniemanie, że systemy AI wysokiego ryzyka, które zostały certyfikowane lub w odniesieniu do których wydano deklarację zgodności w ramach programu certyfikacji cyberbezpieczeństwa na podstawie tego rozporządzenia i do których to poświadczeń opublikowano odniesienia w Dzienniku Urzędowym Unii Europejskiej, są zgodne z wymogiem cyberbezpieczeństwa określonym w niniejszym rozporządzeniu w zakresie, w jakim certyfikat cyberbezpieczeństwa lub deklaracja zgodności lub ich części obejmują wymóg cyberbezpieczeństwa określony w niniejszym rozporządzeniu. Pozostaje to bez uszczerbku dla dobrowolnego charakteru tego programu certyfikacji cyberbezpieczeństwa.
(122)
Jixraq li, mingħajr preġudizzju għall-użu ta' standards armonizzati u speċifikazzjonijiet komuni, ikun jenħtieġ li l-fornituri tas-sistema tal-IA b'riskju għoli li tkun ġiet imħarrġa u ttestjata fuq data li tirrifletti l-issettjar ġeografiku, komportamentali, kuntestwali jew funzjonali speċifiku li fih tkun maħsuba li tintuża s-sistema tal-IA, jiġu preżunti li jikkonformaw mal-miżura rilevanti prevista fir-rekwiżit dwar il-governanza tad-data stipulata f'dan ir-Regolament. Mingħajr preġudizzju għar-rekwiżiti relatati mar-robustezza u l-akkuratezza stipulati f'dan ir-Regolament, f'konformità mal-Artikolu 54(3) tar-Regolament (UE) 2019/881, jenħtieġ li s-sistemi tal-IA b'riskju għoli li jkunu ġew iċċertifikati jew li għalihom tkun inħarġet dikjarazzjoni ta' konformità taħt skema taċ-ċibersigurtà skont dak ir-Regolament u li r-referenzi tagħhom ikunu ġew ippubblikati f'Il-Ġurnal Uffiċjali tal-Unjoni Ewropea, jiġu preżunti li jikkonformaw mar-rekwiżit taċ-ċibersigurtà ta' dan ir-Regolament dment li ċ-ċertifikat taċ-ċibersigurtà jew id-dikjarazzjoni tal-konformità jew partijiet minnha jkopru r-rekwiżit taċ-ċibersigurtà ta' dan ir-Regolament. Dan jibqa' mingħajr preġudizzju għan-natura volontarja ta' dik l-iskema ta' ċibersigurtà.
(123)
Aby zapewnić wysoki poziom wiarygodności systemów AI wysokiego ryzyka, takie systemy powinny podlegać ocenie zgodności przed wprowadzeniem ich do obrotu lub oddaniem do użytku.
(123)
Biex ikun żgurat livell għoli ta' affidabbiltà tas-sistemi tal-IA b'riskju għoli, jenħtieġ li dawk is-sistemi jkunu soġġetti għal valutazzjoni tal-konformità qabel ma jiġu introdotti fis-suq jew imqiegħda fis-servizz.
(124)
Aby zminimalizować obciążenie dla operatorów i uniknąć ewentualnego powielania działań, zgodność z wymogami niniejszego rozporządzenia w przypadku systemów AI wysokiego ryzyka powiązanych z produktami, które są objęte zakresem stosowania obowiązującego unijnego prawodawstwa harmonizacyjnego opartego na nowych ramach prawnych, należy oceniać w ramach oceny zgodności przewidzianej już w tym prawodawstwie. Stosowanie wymogów niniejszego rozporządzenia nie powinno zatem wpływać na szczególną logikę, metodykę lub ogólną strukturę oceny zgodności określone w unijnym prawodawstwie harmonizacyjnym.
(124)
Jixraq li, biex jitnaqqas kemm jista' jkun il-piż fuq l-operaturi u tkun evitata kwalunkwe duplikazzjoni possibbli, għas-sistemi tal-IA b'riskju għoli relatati ma' prodotti koperti bil-leġiżlazzjoni eżistenti tal-Unjoni dwar l-armonizzazzjoni bbażata fuq il-Qafas Leġiżlattiv Ġdid, jenħtieġ li l-konformità ta' dawk is-sistemi tal-IA mar-rekwiżiti ta' dan ir-Regolament tiġi vvalutata bħala parti mill-valutazzjoni tal-konformità diġà prevista f'dik il-liġi. Għalhekk, jenħtieġ li l-applikabbiltà tar-rekwiżiti ta' dan ir-Regolament ma taffettwax il-loġika, il-metodoloġija jew l-istruttura ġenerali speċifiċi ta' valutazzjoni tal-konformità skont il-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni.
(125)
Biorąc pod uwagę złożoność systemów AI wysokiego ryzyka i związane z nimi ryzyko, ważne jest opracowanie odpowiedniej procedury oceny zgodności w przypadku systemów AI wysokiego ryzyka z udziałem jednostek notyfikowanych, tzw. oceny zgodności przeprowadzanej przez stronę trzecią. Zważywszy jednak na dotychczasowe doświadczenie, jakie zawodowe podmioty zajmujące się certyfikacją przed wprowadzeniem do obrotu mają w dziedzinie bezpieczeństwa produktów, oraz odmienny charakter odnośnego ryzyka, zakres stosowania oceny zgodności przeprowadzanej przez stronę trzecią należy ograniczyć, przynajmniej na początkowym etapie stosowania niniejszego rozporządzenia, w przypadku systemów AI wysokiego ryzyka innych niż te, które są powiązane z produktami. W związku z tym ocena zgodności takich systemów powinna być co do zasady przeprowadzana przez dostawcę na jego własną odpowiedzialność, z wyjątkiem systemów AI przeznaczonych do wykorzystania do celów biometrycznych.
(125)
Minħabba l-kumplessità tas-sistemi tal-IA b'risku għoli u r-riskji li huma assoċjati magħhom, huwa importanti li tiġi żviluppata proċedura adegwata ta' valutazzjoni tal-konformità għal sistemi tal-IA b'risku għoli li jinvolvu korpi notifikati, l-hekk imsejħa valutazzjoni tal-konformità minn parti terza. Madankollu, minħabba l-esperjenza attwali ta' ċertifikaturi professjonali ta' qabel l-introduzzjoni fis-suq fil-qasam tas-sikurezza tal-prodotti u n-natura differenti tar-riskji involuti, jixraq li l-kamp ta' applikazzjoni tal-valutazzjoni tal-konformità minn parti terza jiġi limitat, mill-inqas f'fażi inizjali tal-applikazzjoni ta' dan ir-Regolament għas-sistemi tal-IA b'riskju għoli għajr dawk relatati mal-prodotti. Għalhekk, jenħtieġ li l-valutazzjoni tal-konformità ta' sistemi bħal dawn titwettaq bħala regola ġenerali mill-fornitur taħt ir-responsabbiltà tiegħu stess, bl-unika eċċezzjoni tas-sistemi tal-IA maħsuba biex jintużaw għall-bijometrija.
(126)
Do celów oceny zgodności przeprowadzanej przez stronę trzecią, jeśli jest ona wymagana, właściwe organy krajowe powinny notyfikować na podstawie niniejszego rozporządzenia jednostki notyfikowane, pod warunkiem że jednostki te spełniają szereg wymogów, w szczególności dotyczących niezależności, kompetencji, braku konfliktu interesów i odpowiednich wymogów cyberbezpieczeństwa. Notyfikacja tych jednostek powinna zostać przesłana Komisji i pozostałym państwom członkowskim przez właściwe organy krajowe za pomocą systemu notyfikacji elektronicznej opracowanego i zarządzanego przez Komisję zgodnie z art. R23 załącznika I do decyzji nr 768/2008/WE.
(126)
Biex issir valutazzjoni tal-konformità minn parti terza meta dan ikun meħtieġ, jenħtieġ li l-korpi notifikati jiġu nnotifikati skont dan ir-Regolament mill-awtoritajiet kompetenti nazzjonali, dment li dawn jikkonformaw ma' sett ta' rekwiżiti, b'mod partikolari dwar l-indipendenza, il-kompetenza u n-nuqqas ta' kunflitti ta' interess u rekwiżiti ta' ċibersigurtà adegwati. Jenħtieġ li n-notifika ta' dawk il-korpi tintbagħat mill-awtoritajiet nazzjonali kompetenti lill-Kummissjoni u lill-Istati Membri l-oħra permezz tal-għodda elettronika ta' notifika żviluppata u ġestita mill-Kummissjoni skont l-Artikolu R23 tal-Anness I tad-Deċiżjoni Nru 768/2008/KE.
(127)
Zgodnie ze zobowiązaniami Unii wynikającymi z Porozumienia Światowej Organizacji Handlu w sprawie barier technicznych w handlu właściwe jest ułatwienie wzajemnego uznawania wyników oceny zgodności sporządzonych przez właściwe jednostki oceniające zgodność, niezależnie od terytorium, na którym mają siedzibę, pod warunkiem że te jednostki oceniające zgodność ustanowione na mocy prawa państwa trzeciego spełniają mające zastosowanie wymogi niniejszego rozporządzenia, a Unia zawarła w tym zakresie umowę. W tym kontekście Komisja powinna aktywnie szukać rozwiązań w postaci ewentualnych służących temu celowi instrumentów międzynarodowych, a w szczególności dążyć do zawarcia umów o wzajemnym uznawaniu z państwami trzecimi.
(127)
F'konformità mal-impenji tal-Unjoni skont il-Ftehim tal-Organizzazzjoni Dinjija tal-Kummerċ dwar l-Ostakli Tekniċi għall-Kummerċ, huwa xieraq li jiġi ffaċilitat ir-rikonoxximent reċiproku tar-riżultati tal-valutazzjoni tal-konformità prodotti minn korpi kompetenti tal-valutazzjoni tal-konformità, indipendenti mit-territorju li fih ikunu stabbiliti, dment li dawk il-korpi ta' valutazzjoni tal-konformità stabbiliti skont il-liġi ta' pajjiż terz jissodisfaw ir-rekwiżiti applikabbli ta' dan ir-Regolament u l-Unjoni tkun ikkonkludiet ftehim skont dan. F'dan il-kuntest, jenħtieġ li l-Kummissjoni tesplora b'mod attiv strumenti internazzjonali possibbli għal dak l-għan u b'mod partikolari tfittex il-konklużjoni ta' ftehimiet ta' rikonoxximent reċiproku ma' pajjiżi terzi.
(128)
Zgodnie z powszechnie ugruntowanym pojęciem istotnej zmiany w odniesieniu do produktów regulowanych unijnym prawodawstwem harmonizacyjnym, należy – za każdym razem, gdy dokonuje się zmiany, która może wpłynąć na zgodność danego systemu AI wysokiego ryzyka z niniejszym rozporządzeniem (np. zmiana systemu operacyjnego lub architektury oprogramowania), lub gdy zmienia się przeznaczenie danego systemu – uznać ten system AI za nowy system AI, który powinien zostać poddany nowej ocenie zgodności. Za istotną zmianę nie należy jednak uznawać zmian w algorytmie oraz w skuteczności działania systemu AI, który po wprowadzeniu do obrotu lub oddaniu do użytku nadal się „uczy”, tzn. automatycznie dostosowuje sposób wykonywania funkcji, pod warunkiem że zmiany te zostały z góry zaplanowane przez dostawcę i ocenione w momencie przeprowadzania oceny zgodności.
(128)
F'konformità mal-kunċett stabbilit b'mod komuni ta' modifika sostanzjali għall-prodotti regolati mil-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni, huwa xieraq li kull meta sseħħ bidla li tista' taffettwa l-konformità ta' sistema tal-IA b'riskju għoli ma' dan ir-Regolament (eż. bidla fis-sistema operattiva jew fl-arkitettura tas-software), jew meta jinbidel l-għan maħsub tas-sistema, jenħtieġ li dik is-sistema tal-IA titqies bħala sistema ġdida tal-IA li jenħtieġ li ssirilha valutazzjoni tal-konformità ġdida. Madankollu, il-bidliet li jseħħu fl-algoritmu u l-prestazzjoni tas-sistemi tal-IA li jkomplu “jitgħallmu” wara li jiġu introdotti fis-suq jew jitqiegħdu fis-servizz, jiġifieri l-adattament awtomatiku ta' kif jitwettqu l-funzjonijiet, jenħtieġ li ma jikkostitwixxux modifika sostanzjali, dment li dawk il-bidliet ikunu ġew iddeterminati minn qabel mill-fornitur u vvalutati fil-mument tal-valutazzjoni tal-konformità.
(129)
Systemy AI wysokiego ryzyka powinny posiadać oznakowanie CE wskazujące na ich zgodności z niniejszym rozporządzeniem, aby umożliwić ich swobodny przepływ na rynku wewnętrznym. W przypadku systemów AI wysokiego ryzyka wbudowanych w produkt należy umieścić fizyczne oznakowanie CE, które może zostać uzupełnione cyfrowym oznakowaniem CE. W przypadku systemów AI wysokiego ryzyka dostarczanych wyłącznie w formie cyfrowej należy stosować cyfrowe oznakowanie CE. Państwa członkowskie nie powinny stwarzać nieuzasadnionych przeszkód dla wprowadzania do obrotu lub oddawania do użytku systemów AI wysokiego ryzyka zgodnych z wymogami ustanowionymi w niniejszym rozporządzeniu i posiadających oznakowanie CE.
(129)
Jenħtieġ li s-sistemi tal-IA b'riskju għoli jkollhom il-markatura CE biex jindikaw il-konformità tagħhom ma' dan ir-Regolament b'tali mod li jkunu jistgħu jiċċaqilqu liberament fis-suq intern. Għal sistemi tal-IA b'risku għoli inkorporati fi prodott, jenħtieġ li titwaħħal markatura CE fiżika, u tista' tiġi kkomplementata minn markatura CE diġitali. Għas-sistemi tal-IA b'risku għoli pprovduti biss b'mod diġitali, jenħtieġ li tintuża markatura CE diġitali. Jenħtieġ li l-Istati Membri ma joħolqux xkiel mhux ġustifikat għall-introduzzjoni fis-suq jew għat-tqegħid fis-servizz ta' sistemi tal-IA b'riskju għoli li jikkonformaw mar-rekwiżiti stabbiliti f'dan ir-Regolament u jkollhom il-markatura CE.
(130)
W pewnych warunkach szybka dostępność innowacyjnych technologii może być kluczowa dla zdrowia i bezpieczeństwa osób, ochrony środowiska i zmiany klimatu oraz dla całego społeczeństwa. Jest zatem właściwe, aby w przypadku wystąpienia nadzwyczajnych względów dotyczących bezpieczeństwa publicznego lub ochrony zdrowia i życia osób fizycznych, ochrony środowiska oraz ochrony kluczowych aktywów przemysłowych i infrastrukturalnych, organy nadzoru rynku mogły zezwolić na wprowadzenie do obrotu lub oddanie do użytku systemów AI, które nie przeszły oceny zgodności. W należycie uzasadnionych sytuacjach przewidzianych w niniejszym rozporządzeniu organy ścigania lub organy ochrony ludności mogą oddać do użytku określony system AI wysokiego ryzyka bez zezwolenia organu nadzoru rynku, pod warunkiem że o takie zezwolenie wystąpiono bez zbędnej zwłoki w trakcie jego wykorzystania lub po wykorzystaniu.
(130)
F'ċerti kundizzjonijiet, id-disponibbiltà rapida ta' teknoloġiji innovattivi tista' tkun kruċjali għas-saħħa u s-sikurezza tal-persuni, il-protezzjoni tal-ambjent u t-tibdil fil-klima u għas-soċjetà kollha kemm hi. Għalhekk jixraq li, għal raġunijiet eċċezzjonali ta' sigurtà pubblika jew ta' protezzjoni tal-ħajja u tas-saħħa tal-persuni fiżiċi, il-ħarsien tal-ambjent u l-protezzjoni ta' assi prinċipali industrijali u tal-infrastruttura, l-awtoritajiet tas-sorveljanza tas-suq jkunu jistgħu jawtorizzaw l-introduzzjoni fis-suq jew it-tqegħid fis-servizz ta' sistemi tal-IA li ma tkunx saritilhom valutazzjoni tal-konformità. F'sitwazzjonijiet debitament ġustifikati kif previst f’ dan ir-Regolament, l-awtoritajiet tal-infurzar tal-liġi jew l-awtoritajiet tal-protezzjoni ċivili jistgħu jqiegħdu fis-servizz sistema speċifika tal-IA b'risku għoli mingħajr l-awtorizzazzjoni tal-awtorità tas-sorveljanza tas-suq, dment li tali awtorizzazzjoni tintalab matul jew wara l-użu mingħajr dewmien żejjed.
(131)
Aby ułatwić pracę Komisji i państw członkowskich w dziedzinie AI, jak również zwiększyć przejrzystość wobec ogółu społeczeństwa, dostawców systemów AI wysokiego ryzyka innych niż te, które są powiązane z produktami objętymi zakresem stosowania odpowiedniego obowiązującego unijnego prawodawstwa harmonizacyjnego, a także dostawców, którzy uznają, że w związku z odstępstwem system AI wymieniony w wykazie przypadków wykorzystania stanowiących wysokie ryzyko zamieszczonym w załączniku do niniejszego rozporządzenia nie jest systemem wysokiego ryzyka, należy zobowiązać, by dokonali swojej rejestracji oraz rejestracji informacji na temat swoich systemów AI w bazie danych UE, która zostanie utworzona i będzie zarządzana przez Komisję. Przed wykorzystaniem systemu AI wymienionego w wykazie przypadków wykorzystania stanowiących wysokie ryzyko zamieszczonym w załączniku do niniejszego rozporządzenia będące publicznymi organami, agencjami lub jednostkami organizacyjnymi podmioty stosujące systemy AI wysokiego ryzyka powinny dokonać swojej rejestracji w tej bazie danych i wybrać system, który zamierzają wykorzystywać. Inne podmioty stosujące powinny być uprawnione do uczynienia tego dobrowolnie. Ta sekcja bazy danych UE powinna być publicznie dostępna, nieodpłatna, informacje powinny być łatwe do odnalezienia, zrozumiałe i nadające się do odczytu maszynowego. Ta baza danych UE powinna być również przyjazna dla użytkownika, na przykład poprzez zapewnienie funkcji wyszukiwania, w tym za pomocą słów kluczowych, co umożliwi ogółowi społeczeństwa znalezienie istotnych informacji przedkładanych przy rejestracji systemów AI wysokiego ryzyka, oraz informacji na temat przypadków wykorzystywania systemów AI wysokiego ryzyka, określonych w załączniku do niniejszego rozporządzenia, któremu odpowiadają poszczególne systemy AI wysokiego ryzyka. W unijnej bazie danych UE powinno się też rejestrować wszelkie istotne zmiany systemów sztucznej inteligencji wysokiego ryzyka. W przypadku systemów AI wysokiego ryzyka w obszarze ścigania przestępstw, zarządzania migracją, azylem i kontrolą graniczną obowiązkowej rejestracji należy dokonać w bezpiecznej niepublicznej sekcji bazy danych. Dostęp do tej bezpiecznej niepublicznej sekcji powinna posiadać tylko i wyłącznie Komisja i organy nadzoru rynku w odniesieniu do ich krajowej sekcji bazy danych UE. Systemy AI wysokiego ryzyka w obszarze infrastruktury krytycznej powinny być rejestrowane wyłącznie na poziomie krajowym. Komisja powinna być administratorem bazy danych UE zgodnie z rozporządzeniem (UE) 2018/1725. Aby zapewnić pełną funkcjonalność bazy danych UE po jej wdrożeniu, procedura ustanawiania bazy danych powinna obejmować rozwijanie przez Komisję specyfikacji funkcjonalnych oraz sprawozdanie z niezależnego audytu. Wykonując swoje zadania jako administrator danych bazy danych UE, Komisja powinna wziąć pod uwagę ryzyko dotyczące cyberbezpieczeństwa. Aby zmaksymalizować dostępność i wykorzystywanie bazy danych UE przez społeczeństwo, baza danych UE, w tym udostępniane za jej pośrednictwem informacje, powinna być zgodna z wymogami określonymi w dyrektywie (UE) 2019/882.
(131)
Sabiex tiġi ffaċilitata l-ħidma tal-Kummissjoni u tal-Istati Membri fil-qasam tal-IA u biex tiżdied it-trasparenza lejn il-pubbliku, jenħtieġ li l-fornituri tas-sistemi tal-IA b'riskju għoli għajr dawk relatati ma' prodotti li jaqgħu fil-kamp ta' applikazzjoni tal-leġiżlazzjoni eżistenti rilevanti tal-Unjoni dwar l-armonizzazzjoni, kif ukoll fornituri li jqisu li sistema tal-IA elenkata fil-każijiet ta’ użu b'riskju għoli f'anness ta' dan ir-Regolament mhix ta' riskju għoli abbażi ta' deroga, ikunu mitluba jirreġistraw lilhom infushom u l-informazzjoni dwar is-sistema tal-IA tagħhom f'bażi tad-data tal-UE, li trid tiġi stabbilita u ġestita mill-Kummissjoni. Qabel ma jużaw sistema tal-IA elenkata fil-każijiet ta’ użu b'riskju għoli f’anness ta’ dan ir-Regolament, jenħtieġ li l-implimentaturi ta' sistemi tal-IA b'riskju għoli li jkunu awtoritajiet, aġenziji jew korpi pubbliċi, jirreġistraw lilhom infushom f'tali bażi tad-data tal-UE u jagħżlu s-sistema li beħsiebhom jużaw. Jenħtieġ li implimentaturi oħra jkunu intitolati li jagħmlu dan b'mod volontarju. Jenħtieġ li din it-taqsima tal-bażi tad-data tal-UE tkun aċċessibbli għall-pubbliku, mingħajr ħlas, u jenħtieġ li l-informazzjoni tkun faċilment navigabbli, tinftiehem u tinqara mill-magni. Jenħtieġ li l-bażi tad-data tkun faċli għall-utent ukoll, pereżempju billi tipprovdi funzjonalitajiet ta' tiftix, inkluż permezz ta' keywords, li jippermettu lill-pubbliku ġenerali jsib informazzjoni rilevanti li trid tiġi ppreżentata mar-reġistrazzjoni tas-sistemi tal-IA b'riskju għoli u dwar il-każ ta’ użu tas-sistemi tal-IA b'riskju għoli, stipulati f’anness ta' dan ir-Regolament, li għalihom jikkorrispondu s-sistemi tal-IA b'riskju għoli. Jenħtieġ li kwalunkwe modifika sostanzjali tas-sistemi tal-IA b'riskju għoli tiġi rreġistrata wkoll fil-bażi tad-data tal-UE. Għal sistemi tal-IA b'riskju għoli fil-qasam tal-infurzar tal-liġi, tal-migrazzjoni, tal-ażil u tal-ġestjoni tal-kontroll fil-fruntieri, jenħtieġ li l-obbligi ta' reġistrazzjoni jiġu ssodisfati f'taqsima sigura mhux pubblika tal-bażi tad-data tal-UE. Jenħtieġ li l-aċċess għat-taqsima sigura mhux pubblika jkun strettament limitat għall-Kummissjoni kif ukoll għall-awtoritajiet tas-sorveljanza tas-suq fir-rigward tat-taqsima nazzjonali tagħhom ta’ dik il-bażi tad-data. Jenħtieġ li s-sistemi tal-IA b’riskju għoli fil-qasam tal-infrastruttura kritika jiġu rreġistrati biss fil-livell nazzjonali. Jenħtieġ li l-Kummissjoni tkun il-kontrollur tal-bażi tad-data tal-UE, f’konformità mar-Regolament (UE) 2018/1725. Sabiex tiġi żgurata l-funzjonalità sħiħa tal-bażi tad-data tal-UE, meta tiġi implimentata, jenħtieġ li l-proċedura għall-istabbiliment tal-bażi tad-data tinkludi l-iżvilupp ta' speċifikazzjonijiet funzjonali mill-Kummissjoni u rapport tal-awditjar indipendenti. Jenħtieġ li l-Kummissjoni tqis ir-riskji taċ-ċibersigurtà meta twettaq il-kompiti tagħha bħala kontrollur tad-data fil-bażi tad-data tal-UE. Sabiex jiġu mmassimizzati d-disponibbiltà u l-użu tal-bażi tad-data tal-UE mill-pubbliku, il-bażi tad-data tal-UE, inkluż l-informazzjoni disponibbli permezz tagħha, jenħtieġ li tikkonforma mar-rekwiżiti skont id-Direttiva (UE) 2019/882.
(132)
Niektóre systemy AI przeznaczone do wchodzenia w interakcję z osobami fizycznymi lub generowania treści mogą stwarzać szczególne ryzyko podawania się za inną osobę lub wprowadzania w błąd, niezależnie od tego, czy kwalifikują się jako systemy wysokiego ryzyka, czy też nie. W pewnych okolicznościach wykorzystanie tych systemów powinno zatem podlegać szczególnym obowiązkom w zakresie przejrzystości bez uszczerbku dla wymogów i obowiązków określonych dla systemów AI wysokiego ryzyka, przy zastosowaniu ukierunkowanych wyjątków, aby uwzględnić szczególne potrzeby w zakresie ścigania przestępstw. W szczególności osoby fizyczne powinny być powiadamiane o tym, że wchodzą w interakcję z systemem AI, chyba że jest to oczywiste z punktu widzenia osoby fizycznej, która jest dostatecznie poinformowana, uważna i ostrożna, z uwzględnieniem okoliczności i kontekstu korzystania. Przy spełnianiu takiego obowiązku należy uwzględniać cechy osób fizycznych należących do grup szczególnie wrażliwych ze względu na wiek lub niepełnosprawność – w zakresie, w jakim system AI ma również wchodzić w interakcję z tymi grupami. Ponadto osoby fizyczne powinny być powiadamiane, jeżeli są poddawane działaniu systemów AI, które poprzez przetwarzanie ich danych biometrycznych mogą zidentyfikować lub wywnioskować emocje lub zamiary tych osób lub przypisać je do określonych kategorii. Te określone kategorie mogą dotyczyć takich aspektów jak płeć, wiek, kolor włosów, kolor oczu, tatuaże, cechy osobowości, pochodzenie etniczne, osobiste preferencje i zainteresowania. Tego rodzaju informacje i powiadomienia należy przekazywać w formatach dostępnych dla osób z niepełnosprawnościami.
(132)
Ċerti sistemi tal-IA maħsuba biex jinteraġixxu ma' persuni fiżiċi jew biex jiġġeneraw kontenut jistgħu joħolqu riskji speċifiċi ta' personifikazzjoni jew qerq irrispettivament minn jekk dawn jikkwalifikawx li għandhom riskju għoli jew le. Għalhekk, f'ċerti ċirkostanzi, jenħtieġ li l-użu ta' dawn is-sistemi jkun soġġett għal obbligi speċifiċi tat-trasparenza mingħajr preġudizzju għar-rekwiżiti u l-obbligi tas-sistemi tal-IA b'riskju għoli u soġġett għal eċċezzjonijiet immirati biex jittieħed kont tal-ħtieġa speċjali tal-infurzar tal-liġi. B'mod partikolari, jenħtieġ li l-persuni fiżiċi jiġu nnotifikati li qed jinteraġixxu ma' sistema tal-IA, sakemm dan ma jkunx ovvju mill-perspettiva ta' persuna fiżika li tkun raġonevolment infurmata tajjeb, osservanti u prudenti, filwaqt li jitqiesu ċ-ċirkostanzi u l-kuntest tal-użu. Meta jiġi implimentat dak l-obbligu, jenħtieġ li jitqiesu l-karatteristiċi tal-persuni fiżiċi li jagħmlu parti minn gruppi vulnerabbli minħabba l-età jew id-diżabbiltà tagħhom sal-punt li s-sistema tal-IA tkun maħsuba biex tinteraġixxi ma' dawk il-gruppi wkoll. Barra minn hekk, jenħtieġ li l-persuni fiżiċi jiġu nnotifikati meta jkunu esposti għal sistemi tal-IA li, bl-ipproċessar tad-data bijometrika tagħhom, jistgħu jidentifikaw jew jinferixxu l-emozzjonijiet jew l-intenzjonijiet ta' dawk il-persuni jew jassenjawhom għal kategoriji speċifiċi. Tali kategoriji speċifiċi jistgħu jkunu relatati ma' aspetti bħas-sess, l-età, il-kulur tax-xagħar, il-kulur tal-għajnejn, tatwaġġi, karatteristiċi personali, l-oriġini etnika, il-preferenzi u l-interessi personali. Jenħtieġ li din l-informazzjoni u n-notifiki jiġu pprovduti b'formati aċċessibbli għall-persuni b'diżabbiltà.
(133)
Różne systemy AI mogą generować duże ilości treści syntetycznych, które stają się coraz trudniejsze do odróżnienia od treści generowanych przez człowieka i treści autentycznych. Szeroka dostępność i coraz większe zdolności tych systemów mają znaczący wpływ na integralność ekosystemu informacyjnego i zaufanie do niego, stwarzając nowe rodzaje ryzyka polegające na podawaniu informacji wprowadzających w błąd i na manipulacji na dużą skalę, oszustwach, podszywaniu się pod inne osoby i wprowadzaniu w błąd konsumentów. W świetle tych skutków, a także szybkiego tempa technologicznego oraz zapotrzebowania na nowe metody i techniki śledzenia pochodzenia informacji należy zobowiązać dostawców tych systemów do wbudowania rozwiązań technicznych, które umożliwiają oznakowanie w formacie nadającym się do odczytu maszynowego i wykrywanie, że wyniki zostały wygenerowane lub zmanipulowane przez system AI, a nie przez człowieka. Takie techniki i metody powinny być wystarczająco niezawodne, interoperacyjne, skuteczne i solidne, o ile jest to technicznie wykonalne, z uwzględnieniem dostępnych technik lub kombinacji takich technik, takich jak znaki wodne, identyfikacja metadanych, metody kryptograficzne służące do potwierdzania pochodzenia i autentyczności treści, metody rejestracji zdarzeń, odciski palców lub inne techniki, stosownie do przypadku. Przy spełnianiu tego obowiązku dostawcy powinni uwzględniać specyfikę i ograniczenia różnych rodzajów treści oraz istotne postępy technologiczne i rynkowe w tym obszarze, które odzwierciedla powszechnie uznany stan wiedzy technicznej. Takie techniki i metody można wdrażać na poziomie danego systemu AI lub na poziomie modelu AI, w tym modeli AI ogólnego przeznaczenia generujących treści, a tym samym ułatwiać spełnianie tego obowiązku przez dostawcę niższego szczebla danego systemu AI. Aby zachować proporcjonalność, należy przewidzieć, że ten obowiązek oznakowania nie powinien obejmować systemów AI pełniących przede wszystkim funkcję wspomagającą w zakresie standardowej edycji lub systemów AI, które nie zmieniają w istotny sposób przekazywanych przez podmiot stosujący danych wejściowych ani ich semantyki.
(133)
Diversi sistemi tal-IA jistgħu jiġġeneraw kwantitajiet kbar ta' kontenut sintetiku li jsir dejjem aktar diffiċli għall-bnedmin biex jiddistingwu minn kontenut iġġenerat mill-bniedem u kontenut awtentiku. Id-disponibbiltà wiesgħa u l-kapaċitajiet dejjem akbar ta' dawk is-sistemi għandhom impatt sinifikanti fuq l-integrità u l-fiduċja fl-ekosistema tal-informazzjoni, filwaqt li jżidu riskji ġodda ta' miżinformazzjoni u manipulazzjoni fuq skala kbira, frodi, personifikazzjoni u qerq tal-konsumatur. Fid-dawl ta' dawk l-impatti, il-pass teknoloġiku mgħaġġel u l-ħtieġa ta' metodi u tekniki ġodda biex tiġi traċċata l-oriġini tal-informazzjoni, jixraq li l-fornituri ta' dawk is-sistemi jinkorporaw soluzzjonijiet tekniċi li jippermettu l-immarkar f'format li jinqara mill-magni u l-kxif li l-output ikun ġie ġġenerat jew immanipulat minn sistema tal-IA u mhux minn bniedem. Jenħtieġ li tali tekniki u metodi jkunu affidabbli, interoperabbli, effettivi u robusti biżżejjed sa fejn dan ikun teknikament fattibbli, filwaqt li jitqiesu t-tekniki disponibbli jew taħlita ta' tali tekniki, bħal marki tal-ilma, identifikazzjonijiet tal-metadata, metodi kriptografiċi biex jiġu ppruvati l-provenjenza u l-awtentiċità tal-kontenut, il-metodi ta' reġistrazzjoni, il-marki tas-swaba' jew tekniki oħra, skont kif ikun xieraq. Meta jimplimentaw dan l-obbligu, jenħtieġ li l-fornituri jqisu wkoll l-ispeċifiċitajiet u l-limitazzjonijiet tat-tipi differenti ta' kontenut u l-iżviluppi teknoloġiċi u tas-suq rilevanti f'dan il-qasam, kif rifless fl-ogħla livell ta' żvilupp tekniku rikonoxxut b'mod ġenerali. Tali tekniki u metodi jistgħu jiġu implimentati fil-livell tas-sistema tal-IA jew fil-livell tal-mudell tal-IA, inkluż mudelli tal-IA bi skop ġenerali li jiġġeneraw kontenut, u b'hekk jiġi ffaċilitat it-twettiq ta' dan l-obbligu mill-fornitur downstream tas-sistema tal-IA. Biex jibqa' proporzjonat, huwa xieraq li jiġi previst li dan l-obbligu tal-immarkar jenħtieġ li ma jkoprix sistemi tal-IA li primarjament iwettqu funzjoni ta' assistenza għall-editjar standard jew għas-sistemi tal-IA li ma jbiddlux b'mod sostanzjali d-data tal-input ipprovduta mill-implimentatur jew is-semantika tagħha.
(134)
Oprócz rozwiązań technicznych wykorzystywanych przez dostawców systemu AI, podmioty stosujące, które wykorzystują system AI do generowania obrazów, treści dźwiękowych lub wideo lub manipulowania nimi, tak by łudząco przypominały istniejące osoby, przedmioty. Miejsca, podmioty lub wydarzenia i które to treści mogą niesłusznie zostać uznane przez odbiorcę za autentyczne lub prawdziwe („deepfake”), powinny również jasno i wyraźnie ujawnić – poprzez odpowiednie oznakowanie wyniku AI i ujawnienie, że źródłem jest AI – że treści te zostały sztucznie wygenerowane lub zmanipulowane. Spełnienie obowiązku w zakresie przejrzystości nie powinno być interpretowane jako wskazujące na to, że wykorzystanie systemu AI lub jego wyników ogranicza prawo do wolności wypowiedzi i prawo do wolności sztuki i nauki zagwarantowane w Karcie, w szczególności w przypadku, gdy treści te stanowią część dzieła lub programu mającego wyraźnie charakter twórczy, satyryczny, artystyczny fikcyjny lub analogiczny, z zastrzeżeniem odpowiednich zabezpieczeń w zakresie praw i wolności osób trzecich. W takich przypadkach określony w niniejszym rozporządzeniu obowiązek w zakresie przejrzystości dotyczący treści typu deepfake ogranicza się do ujawniania informacji o istnieniu takich wygenerowanych lub zmanipulowanych treści w odpowiedni sposób, który nie utrudnia wyświetlania utworu lub korzystania z niego, w tym jego normalnego wykorzystania i użytkowania, przy jednoczesnym zachowaniu użyteczności i jakości utworu. Ponadto należy również przewidzieć podobny obowiązek ujawniania w odniesieniu do tekstu wygenerowanego przez AI lub zmanipulowanego przez AI w zakresie, w jakim jest on publikowany w celu informowania opinii publicznej o sprawach leżących w interesie publicznym, chyba że treści wygenerowane przez AI zostały poddane procesowi weryfikacji przez człowieka lub kontroli redakcyjnej, a osoba fizyczna lub prawna ponosi odpowiedzialność redakcyjną za publikację treści.
(134)
Minbarra s-soluzzjonijiet tekniċi użati mill-fornituri tas-sistema tal-IA, l-implimentaturi li jużaw sistema tal-IA biex jiġġeneraw jew jimmanipulaw kontenut ta' immaġni, awdjo jew vidjo li jixbah b'mod sinifikattiv lil persuni, oġġetti, postijiet, entitajiet jew avvenimenti eżistenti u li jidher b'mod falz li persuna tkun awtentika jew veritiera (deep fakes), jenħtieġ li jiddivulgaw ukoll b'mod ċar u distint li l-kontenut inħoloq jew ġie mmanipulat b'mod artifiċjali billi jittikkettaw l-output tal-intelliġenza artifiċjali kif xieraq u jiddivulgaw l-oriġini artifiċjali tiegħu. Jenħtieġ li l-konformità ma' dan l-obbligu ta' trasparenza ma tiġix interpretata bħala li tindika li l-użu tas-sistema tal-IA jew tal-output tagħha jimpedixxi d-dritt għal-libertà tal-espressjoni u d-dritt għal-libertà tal-arti u x-xjenzi ggarantiti fil-Karta, b'mod partikolari fejn il-kontenut ikun parti minn ħidma jew programm evidentement kreattiv, satiriku, artistiku, fittizju jew analoġu, soġġett għal salvagwardji xierqa għad-drittijiet u l-libertajiet ta' partijiet terzi. F'dawk il-każijiet, l-obbligu ta' trasparenza għal deep fakes stipulat f'dan ir-Regolament huwa limitat għad-divulgazzjoni tal-eżistenza ta' tali kontenut iġġenerat jew manipulat b'mod xieraq li ma jfixkilx il-wiri jew it-tgawdija tax-xogħol, inkluż l-isfruttament u l-użu normali tiegħu, filwaqt li jinżammu l-utilità u l-kwalità tax-xogħol. Barra minn hekk, huwa xieraq ukoll li jiġi previst obbligu ta' divulgazzjoni simili fir-rigward ta' test iġġenerat mill-IA jew manipulat sal-punt li jiġi ppubblikat bl-għan li l-pubbliku jiġi infurmat dwar kwistjonijiet ta' interess pubbliku sakemm il-kontenut iġġenerat mill-IA ma jkunx għadda minn proċess ta' rieżami mill-bniedem jew kontroll editorjali u persuna fiżika jew ġuridika jkollha r-responsabbiltà editorjali għall-pubblikazzjoni tal-kontenut.
(135)
Bez uszczerbku dla obowiązkowego charakteru i pełnego stosowania obowiązków w zakresie przejrzystości Komisja może również zachęcać do opracowywania kodeksów praktyk na poziomie Unii i ułatwiać ich opracowywanie, aby ułatwić skuteczne wykonywanie obowiązków dotyczących wykrywania i oznakowania treści, które zostały sztucznie wygenerowane lub zmanipulowane, w tym aby wspierać praktyczne rozwiązania dotyczące udostępniania, stosownie do przypadku, mechanizmów wykrywania i ułatwiania współpracy z innymi podmiotami w całym łańcuchu wartości, które rozpowszechniają treści lub sprawdzają ich autentyczność i pochodzenie, aby umożliwić ogółowi społeczeństwa skuteczne rozróżnianie treści wygenerowanych przez AI.
(135)
Mingħajr preġudizzju għan-natura obbligatorja u l-applikabbiltà sħiħa tal-obbligi ta' trasparenza, il-Kummissjoni tista' tħeġġeġ u tiffaċilita wkoll it-tfassil ta' kodiċijiet ta' prattika fil-livell tal-Unjoni biex tiffaċilita l-implimentazzjoni effettiva tal-obbligi rigward il-kxif u t-tikkettar ta' kontenut iġġenerat jew immanipulat b'mod artifiċjali, inkluż biex tappoġġa arranġamenti prattiċi biex, kif xieraq, il-mekkaniżmi ta' kxif isiru aċċessibbli u tiġi ffaċilitata l-kooperazzjoni ma' atturi oħra tul il-katina tal-valur, id-disseminazzjoni tal-kontenut jew il-verifika tal-awtentiċità u l-provenjenza tiegħu biex il-pubbliku jkun jista' jiddistingwi b'mod effettiv il-kontenut iġġenerat mill-IA.
(136)
Obowiązki nałożone w niniejszym rozporządzeniu na dostawców i podmioty stosujące niektóre systemy AI w celu umożliwienia wykrywania i ujawniania, że wyniki tych systemów są sztucznie wygenerowane lub zmanipulowane, są szczególnie istotne dla ułatwienia skutecznego wdrożenia rozporządzenia (UE) 2022/2065. Dotyczy to w szczególności obowiązków dostawców bardzo dużych platform internetowych lub bardzo dużych wyszukiwarek internetowych w zakresie identyfikowania i ograniczania ryzyka systemowego, które może wynikać z rozpowszechniania treści sztucznie wygenerowanych lub zmanipulowanych, w szczególności ryzyka faktycznych lub przewidywalnych negatywnych skutków dla procesów demokratycznych, dyskursu obywatelskiego i procesów wyborczych, w tym poprzez stosowanie dezinformacji. Wymóg oznakowania treści wygenerowanych przez systemy AI na podstawie niniejszego rozporządzenia pozostaje bez uszczerbku dla określonego w art. 16 ust. 6 rozporządzenia (UE) 2022/2065 obowiązku rozpatrywania przez dostawców usług hostingu zgłoszeń dotyczących nielegalnych treści otrzymanych na podstawie art. 16 ust. 1 tego rozporządzenia i nie powinien mieć wpływu na ocenę i decyzję w sprawie niezgodności z prawem konkretnych treści. Ocena ta powinna być dokonywana wyłącznie w odniesieniu do przepisów regulujących zgodność treści z prawem.
(136)
L-obbligi imposti fuq il-fornituri u l-implimentaturi ta' ċerti sistemi tal-IA f'dan ir-Regolament biex jippermettu l-kxif u d-divulgazzjoni li l-outputs ta' dawk is-sistemi jiġu ġġenerati jew immanipulati b'mod artifiċjali huma partikolarment rilevanti biex tiġi ffaċilitata l-implimentazzjoni effettiva tar-Regolament (UE) 2022/2065. Dan japplika b'mod partikolari fir-rigward tal-obbligi tal-fornituri ta' pjattaformi online kbar ħafna jew ta' magni tat-tiftix online kbar ħafna biex jidentifikaw u jimmitigaw ir-riskji sistemiċi li jistgħu jirriżultaw mid-disseminazzjoni ta' kontenut li jkun ġie ġġenerat jew immanipulat b'mod artifiċjali, b'mod partikolari r-riskju tal-effetti negattivi reali jew prevedibbli fuq il-proċessi demokratiċi, id-diskors ċiviku u l-proċessi elettorali, inkluż permezz tad-diżinformazzjoni. Ir-rekwiżit li jiġi ttikkettat il-kontenut iġġenerat mis-sistemi tal-IA skont dan ir-Regolament huwa mingħajr preġudizzju għall-obbligu fl-Artikolu 16(6) tar-Regolament (UE) 2022/2065 għall-fornituri ta' servizzi ta' hosting li joħorġu avviżi dwar kontenut illegali riċevut skont l-Artikolu 16(1) ta' dak ir-Regolament u jenħtieġ li ma jinfluwenzax il-valutazzjoni u d-deċiżjoni dwar l-illegalità tal-kontenut speċifiku. Jenħtieġ li din l-evalwazzjoni ssir biss b'riferiment għar-regoli li jirregolaw il-legalità tal-kontenut.
(137)
Spełnienie obowiązków w zakresie przejrzystości w odniesieniu do systemów AI objętych niniejszym rozporządzeniem nie powinno być interpretowane jako wskazanie, że wykorzystanie systemu AI lub jego wyników jest zgodne z prawem na podstawie niniejszego rozporządzenia lub innych przepisów prawa Unii i prawa państw członkowskich, i powinno pozostawać bez uszczerbku dla innych obowiązków w zakresie przejrzystości ustanowionych w prawie Unii lub prawie krajowym wobec podmiotów stosujących systemy AI.
(137)
Jenħtieġ li l-konformità mal-obbligi tat-trasparenza għas-sistemi tal-IA koperti minn dan ir-Regolament ma tiġix interpretata li tindika li l-użu tas-sistema tal-IA jew tal-output tagħha huwa legali skont dan ir-Regolament jew dritt ieħor tal-Unjoni u tal-Istati Membri u jenħtieġ li tkun mingħajr preġudizzju għal obbligi oħra ta' trasparenza għall-implimentaturi tas-sistemi tal-IA stabbiliti fil-liġi tal-Unjoni jew dik nazzjonali.
(138)
AI jest szybko rozwijającą się grupą technologii, wymagającą nadzoru regulacyjnego oraz bezpiecznej i kontrolowanej przestrzeni do przeprowadzania doświadczeń, przy jednoczesnym zapewnieniu odpowiedzialnej innowacji oraz uwzględnieniu odpowiednich zabezpieczeń i środków ograniczających ryzyko. Aby zapewnić ramy prawne wspierające innowacje, nieulegające dezaktualizacji i uwzględniające przełomowe technologie, państwa członkowskie powinny zapewnić, by ich właściwe organy krajowe ustanowiły co najmniej jedną piaskownicę regulacyjną w zakresie AI na poziomie krajowym, aby ułatwić rozwijanie i testowanie innowacyjnych systemów AI pod ścisłym nadzorem regulacyjnym przed ich wprowadzeniem do obrotu lub oddaniem do użytku w inny sposób. Państwa członkowskie mogłyby również spełnić ten obowiązek, uczestnicząc w już istniejących piaskownicach regulacyjnych lub ustanawiając piaskownicę wspólnie z co najmniej jednym właściwym organem innego państwa członkowskiego, o ile udział ten zapewnia uczestniczącym państwom członkowskim równoważny poziom zasięgu krajowego. Piaskownice regulacyjne w zakresie AI mogą być tworzone w formie fizycznej, cyfrowej lub hybrydowej i mogą obejmować zarówno produkty fizyczne, jak i cyfrowe. Organy ustanawiające piaskownice regulacyjne w zakresie AI powinny również zapewnić, aby dysponowały one odpowiednimi do ich funkcjonowania zasobami, w tym zasobami finansowymi i ludzkimi.
(138)
L-IA hija familja ta' teknoloġiji li qed tiżviluppa b'mod rapidu li tirrikjedi sorveljanza regolatorja u spazju sikur u kkontrollat għall-esperimentazzjoni, filwaqt li tiżgura innovazzjoni u integrazzjoni responsabbli ta' salvagwardji u miżuri ta' mitigazzjoni tar-riskju xierqa. Sabiex jiġi żgurat qafas legali li jippromwovi l-innovazzjoni, jibqa' validu fil-futur u jkun reżiljenti għat-tfixkil, jenħtieġ li l-Istati Membri jiżguraw li l-awtoritajiet kompetenti nazzjonali tagħhom jistabbilixxu mill-inqas ambjent wieħed ta' esperimentazzjoni regolatorja għall-IA fil-livell nazzjonali biex jiffaċilitaw l-iżvilupp u l-ittestjar ta' sistemi innovattivi tal-IA taħt sorveljanza regolatorja stretta qabel ma dawn is-sistemi jiġu introdotti fis-suq jew inkella jitqiegħdu fis-servizz. L-Istati Membri jistgħu jissodisfaw ukoll dan l-obbligu billi jipparteċipaw f'ambjenti ta' esperimentazzjoni regolatorji diġà eżistenti jew jistabbilixxu b'mod konġunt ambjent ta' esperimentazzjoni ma' awtorità kompetenti waħda jew aktar tal-Istati Membri, dment li din il-parteċipazzjoni tipprovdi livell ekwivalenti ta' kopertura nazzjonali għall-Istati Membri parteċipanti. Ambjenti ta' esperimentazzjoni regolatorja għall-IA jistgħu jiġu stabbiliti f'forma fiżika, diġitali jew ibrida u jistgħu jakkomodaw prodotti fiżiċi kif ukoll diġitali. Jenħtieġ li l-awtoritajiet kostitwenti jiżguraw ukoll li l-ambjenti ta' esperimentazzjoni regolatorja għall-IA jkollhom ir-riżorsi adegwati għall-funzjonament tagħhom, inkluż ir-riżorsi finanzjarji u umani.
(139)
Piaskownice regulacyjne w zakresie AI powinny mieć na celu: wspieranie innowacji w zakresie AI poprzez ustanowienie kontrolowanego środowiska doświadczalnego i testowego w fazie rozwojowej i przed wprowadzeniem do obrotu, z myślą o zapewnieniu zgodności innowacyjnych systemów AI z niniejszym rozporządzeniem oraz z innymi odpowiednimi przepisami prawa Unii i prawa krajowego. Ponadto piaskownice regulacyjne w zakresie AI powinny mieć na celu zwiększenie pewności prawa dla innowatorów, a także usprawnienie nadzoru ze strony właściwych organów oraz podnoszenie poziomu ich wiedzy na temat możliwości, pojawiających się rodzajów ryzyka oraz skutków związanych ze stosowaniem AI, ułatwienie organom i przedsiębiorstwom uczenia się działań regulacyjnych, w tym z myślą o przyszłym dostosowaniu ram prawnych, wspieranie współpracy i wymiany najlepszych praktyk z organami zaangażowanymi w piaskownicę regulacyjną w zakresie AI oraz przyspieszenie dostępu do rynków, w tym poprzez usuwanie barier dla MŚP, w tym przedsiębiorstw typu start-up. Piaskownice regulacyjne w zakresie AI powinny być powszechnie dostępne w całej Unii, a szczególną uwagę należy zwrócić na ich dostępność dla MŚP, w tym dla przedsiębiorstw typu start-up. Uczestnictwo w piaskownicy regulacyjnej w zakresie AI powinno koncentrować się na kwestiach, które powodują niepewność prawa dla dostawców i potencjalnych dostawców w zakresie innowacji i eksperymentowania z AI w Unii oraz powinno przyczyniać się do opartego na dowodach uczenia się działań regulacyjnych. Nadzór nad systemami AI w piaskownicy regulacyjnej w zakresie AI powinien zatem obejmować ich rozwój, trenowanie, testowanie i walidację przed wprowadzeniem tych systemów do obrotu lub oddaniem do użytku, a także pojęcie i występowanie istotnych zmian, które mogą wymagać nowej procedury oceny zgodności. Wykrycie jakiegokolwiek znaczącego ryzyka na etapie rozwoju i testowania takich systemów AI powinno powodować konieczność właściwego ograniczenia tego ryzyka, a w przypadku niepowodzenia w tym zakresie – skutkować zawieszeniem procesu rozwoju i testowania systemu. W stosownych przypadkach właściwe organy krajowe ustanawiające piaskownice regulacyjne w zakresie AI powinny współpracować z innymi odpowiednimi organami, w tym organami nadzorującymi ochronę praw podstawowych, i powinny umożliwiać zaangażowanie innych podmiotów funkcjonujących w ekosystemie AI, takich jak krajowe lub europejskie organizacje normalizacyjne, jednostki notyfikowane, ośrodki testowo-doświadczalne, laboratoria badawczo-doświadczalne, europejskie centra innowacji cyfrowych oraz organizacje zrzeszające odpowiednie zainteresowane strony i społeczeństwo obywatelskie. Aby zapewnić jednolite wdrożenie w całej Unii oraz osiągnąć korzyści skali, należy ustanowić wspólne przepisy regulujące uruchamianie piaskownic regulacyjnych w zakresie AI oraz ramy współpracy między odpowiednimi organami uczestniczącymi w nadzorze nad piaskownicami regulacyjnymi. Piaskownice regulacyjne w zakresie AI ustanowione na mocy niniejszego rozporządzenia powinny pozostawać bez uszczerbku dla innych przepisów, które umożliwiają ustanawianie innych piaskownic mających na celu zapewnienie zgodności z przepisami prawa innymi niż niniejsze rozporządzenie. W stosownych przypadkach odpowiednie właściwe organy odpowiedzialne za inne piaskownice regulacyjne powinny przeanalizować korzyści płynące ze stosowania tych piaskownic również do celów zapewnienia zgodności systemów AI z niniejszym rozporządzeniem. Po osiągnięciu porozumienia pomiędzy właściwymi organami krajowymi oraz uczestnikami piaskownicy regulacyjnej w zakresie AI w ramach takiej piaskownicy regulacyjnej można również prowadzić i nadzorować testy w warunkach rzeczywistych.
(139)
Jenħtieġ li l-objettivi tal-ambjenti ta' esperimentazzjoni regolatorja għall-IA jkunu li jrawmu l-innovazzjoni tal-IA billi jistabbilixxu ambjent ikkontrollat ta' esperimentazzjoni u ttestjar fil-fażi tal-iżvilupp u ta' qabel il-kummerċjalizzazzjoni biex jiżguraw il-konformità tas-sistemi innovattivi tal-IA ma' dan ir-Regolament u ma' liġijiet tal-Unjoni jew nazzjonali oħra rilevanti. Barra minn hekk, l-ambjenti ta' esperimentazzjoni regolatorja għall-IA jenħtieġ li jimmiraw li jsaħħu ċ-ċertezza legali għall-innovaturi u s-sorveljanza u l-fehim mill-awtoritajiet kompetenti tal-opportunitajiet, tar-riskji emerġenti u tal-impatti tal-użu tal-IA, biex jiġi ffaċilitat it-tagħlim regolatorju għall-awtoritajiet u għall-intrapriżi, inkluż bil-ħsieb ta' adattamenti futuri tal-qafas legali, biex jiġu appoġġati l-kooperazzjoni u l-kondiviżjoni tal-aħjar prattiki mal-awtoritajiet involuti fl-ambjent ta' esperimentazzjoni regolatorja għall-IA, u biex jitħaffef l-aċċess għas-swieq, inkluż billi jitneħħew l-ostakli għall-SMEs, inkluż in-negozji ġodda. Jenħtieġ li l-ambjenti ta' esperimentazzjoni regolatorja għall-IA jkunu disponibbli b'mod wiesa' madwar l-Unjoni, u jenħtieġ li tingħata attenzjoni partikolari lill-aċċessibbiltà tagħhom għall-SMEs, inkluż in-negozji ġodda. Jenħtieġ li l-parteċipazzjoni fl-ambjent ta' esperimentazzjoni regolatorja għall-IA tiffoka fuq kwistjonijiet li jqajmu inċertezza legali għall-fornituri u l-fornituri prospettivi biex jinnovaw, jesperimentaw bl-IA fl-Unjoni u jikkontribwixxu għal tagħlim regolatorju bbażat fuq l-evidenza. Għalhekk, jenħtieġ li s-superviżjoni tas-sistemi tal-IA fl-ambjent ta' esperimentazzjoni regolatorja għall-IA tkopri l-iżvilupp, it-taħriġ, l-ittestjar u l-validazzjoni tagħhom qabel ma s-sistemi jiġu introdotti fis-suq jew imqiegħda fis-servizz, kif ukoll il-kunċett u l-okkorrenza ta' modifika sostanzjali li tista' tirrikjedi proċedura ġdida ta' valutazzjoni tal-konformità. Kwalunkwe riskju sinifikanti identifikat matul l-iżvilupp u l-ittestjar ta' tali sistemi tal-IA jenħtieġ li jirriżulta f'mitigazzjoni adegwata u, fin-nuqqas ta' din, fis-sospensjoni tal-proċess tal-iżvilupp u tal-ittestjar. Fejn xieraq, jenħtieġ li l-awtoritajiet nazzjonali kompetenti li jkunu qed jistabbilixxu ambjenti ta' esperimentazzjoni regolatorja għall-IA jikkooperaw ma' awtoritajiet rilevanti oħra, inkluż dawk li jissorveljaw il-protezzjoni tad-drittijiet fundamentali, u jistgħu jagħtu lok għall-involviment ta' atturi oħra fl-ekosistema tal-IA bħal organizzazzjonijiet nazzjonali jew Ewropej tal-istandardizzazzjoni, korpi notifikati, faċilitajiet tal-ittestjar u tal-esperimentazzjoni, laboratorji tar-riċerka u tal-esperimentazzjoni, Ċentri Ewropej tal-Innovazzjoni Diġitali u organizzazzjonijiet rilevanti tal-partijiet ikkonċernati u tas-soċjetà ċivili. Biex ikunu żgurati implimentazzjoni uniformi madwar l-Unjoni u l-ekonomiji ta' skala, jixraq jiġu stabbiliti regoli komuni għall-implimentazzjoni tal-ambjenti ta' esperimentazzjoni regolatorja għall-IA u qafas għall-kooperazzjoni bejn l-awtoritajiet rilevanti involuti fis-superviżjoni tal-ambjenti ta' esperimentazzjoni. Jenħtieġ li l-ambjenti ta' esperimentazzjoni regolatorja għall-IA stabbiliti skont dan ir-Regolament ikunu mingħajr preġudizzju għal liġijiet oħra li jippermettu l-istabbiliment ta' ambjenti ta' esperimentazzjoni oħra bil-għan li jiżguraw il-konformità ma' liġijiet għajr dan ir-Regolament. Meta xieraq, jenħtieġ li l-awtoritajiet kompetenti rilevanti inkarigati minn dawk l-ambjenti ta' esperimentazzjoni regolatorja l-oħra jikkunsidraw il-benefiċċji tal-użu ta' dawk l-ambjenti ta' esperimentazzjoni anki għall-fini li jiżguraw il-konformità tas-sistemi tal-IA ma' dan ir-Regolament. Bi qbil bejn l-awtoritajiet nazzjonali kompetenti u l-parteċipanti fl-ambjent ta' esperimentazzjoni regolatorja għall-IA, l-ittestjar fil-kundizzjonijiet tad-dinja reali jista' jsir u jiġi ssorveljat ukoll fil-qafas tal-ambjent ta' esperimentazzjoni regolatorja għall-IA.
(140)
Niniejsze rozporządzenie powinno zapewniać dostawcom i potencjalnym dostawcom uczestniczącym w piaskownicy regulacyjnej w zakresie AI podstawę prawną do wykorzystywania danych osobowych zebranych w innych celach do rozwoju – w ramach piaskownicy regulacyjnej w zakresie AI – określonych systemów AI w interesie publicznym, tylko pod określonymi warunkami, zgodnie z art. 6 ust. 4 i art. 9 ust. 2 lit. g) rozporządzenia (UE) 2016/679 i art. 5, 6 i 10 rozporządzenia (UE) 2018/1725 i nie naruszając przepisów art. 4 ust. 2 i art. 10 dyrektywy (UE) 2016/680. Nadal mają zastosowanie wszystkie pozostałe obowiązki administratorów danych i prawa osób, których dane dotyczą, wynikające z rozporządzeń (UE) 2016/679 i (UE) 2018/1725 oraz dyrektywy (UE) 2016/680. W szczególności niniejsze rozporządzenie nie powinno stanowić podstawy prawnej w rozumieniu art. 22 ust. 2 lit. b) rozporządzenia (UE) 2016/679 i art. 24 ust. 2 lit. b) rozporządzenia (UE) 2018/1725. Dostawcy i potencjalni dostawcy w piaskownicy regulacyjnej w zakresie AI powinni zapewnić odpowiednie zabezpieczenia i współpracować z właściwymi organami, w tym przestrzegać wytycznych tych organów, a także podejmować w dobrej wierze bezzwłoczne działania w celu właściwego ograniczenia wszelkiego zidentyfikowanego znaczącego ryzyka dla bezpieczeństwa, zdrowia i praw podstawowych, jakie może powstać w trakcie rozwoju produktów oraz prowadzenia działań testowych i doświadczalnych w ramach takiej piaskownicy regulacyjnej.
(140)
Jenħtieġ li dan ir-Regolament jipprovdi l-bażi legali għall-fornituri u l-fornituri prospettivi fl-ambjent ta' esperimentazzjoni regolatorja għall-IA biex jużaw id-data personali miġbura għal finijiet oħra għall-iżvilupp ta' ċerti sistemi tal-IA fl-interess pubbliku fi ħdan l-ambjent ta' esperimentazzjoni regolatorja għall-IA, f'kundizzjonijiet speċifiċi biss, f'konformità mal-Artikolu 6(4) u l-Artikolu 9(2), il-punt (g) tar-Regolament (UE) 2016/679, u mal-Artikoli 5, 6 u 10 tar-Regolament (UE) 2018/1725, u mingħajr preġudizzju għall-Artikolu 4(2) u l-Artikolu 10 tad-Direttiva (UE) 2016/680. L-obbligi l-oħra kollha tal-kontrolluri tad-data u d-drittijiet tas-suġġetti tad-data skont ir-Regolamenti (UE) 2016/679 u (UE) 2018/1725 u d-Direttiva (UE) 2016/680 jibqgħu applikabbli. B'mod partikolari, jenħtieġ li dan ir-Regolament ma jipprovdix bażi legali skont it-tifsira tal-Artikolu 22(2), il-punt (b) tar-Regolament (UE) 2016/679 u l-Artikolu 24(2), il-punt (b) tar-Regolament (UE) 2018/1725. Jenħtieġ li l-fornituri u l-fornituri prospettivi fl-ambjent ta' esperimentazzjoni regolatorja tal-IA jiżguraw salvagwardji xierqa u jikkooperaw mal-awtoritajiet kompetenti, inkluż billi jimxu mal-gwida tagħhom u jaġixxu malajr u b'bona fide biex jimmitigaw b'mod adegwat kwalunkwe riskju identifikat għas-sikurezza, is-saħħa u għad-drittijiet fundamentali li jista' jinqala' waqt l-iżvilupp, l-ittestjar, u l-esperimentazzjoni f’dak l-ambjent ta' esperimentazzjoni.
(141)
Aby przyspieszyć proces rozwoju i wprowadzania do obrotu systemów AI wysokiego ryzyka wymienionych w załączniku do niniejszego rozporządzenia, ważne jest, aby dostawcy lub potencjalni dostawcy takich systemów mogli korzystać ze specjalnego mechanizmu testowania tych systemów w warunkach rzeczywistych, bez udziału w piaskownicy regulacyjnej w zakresie AI. Jednak w takich przypadkach oraz uwzględniając potencjalne konsekwencje takiego testowania dla osób fizycznych, należy zapewnić, by niniejsze rozporządzenie wprowadzało odpowiednie i wystarczające zabezpieczenia i warunki dotyczące dostawców lub potencjalnych dostawców. Takie zabezpieczenia powinny obejmować między innymi wymóg udzielenia świadomej zgody przez osoby fizyczne, które mają brać udział w testach w warunkach rzeczywistych, z wyjątkiem organów ścigania, gdy konieczność wystąpienia o świadomą zgodę uniemożliwiłaby testowanie systemu AI. Zgoda podmiotów testów na udział w takich testach na podstawie niniejszego rozporządzenia ma odrębny charakter i pozostaje bez uszczerbku dla zgody osób, których dane dotyczą, na przetwarzanie ich danych osobowych na podstawie odpowiedniego prawa o ochronie danych. Ważne jest również, aby zminimalizować ryzyko i umożliwić nadzór ze strony właściwych organów, a zatem zobowiązać potencjalnych dostawców do: przedstawienia właściwemu organowi nadzoru rynku planu testów w warunkach rzeczywistych, rejestrowania testów w specjalnych sekcjach bazy danych UE (z pewnymi ograniczonymi wyjątkami), ustalenia ograniczeń co do okresu, w jakim można przeprowadzać testy, oraz wymagania dodatkowych zabezpieczeń w odniesieniu do osób należących do grup szczególnie wrażliwych, a także pisemnej umowy określającej role i obowiązki potencjalnych dostawców i podmiotów stosujących oraz skutecznego nadzoru ze strony kompetentnego personelu zaangażowanego w testy w warunkach rzeczywistych. Ponadto należy przewidzieć dodatkowe zabezpieczenia w celu zapewnienia, aby predykcje, zalecenia lub decyzje systemu AI mogły zostać skutecznie odwrócone i nie były brane pod uwagę oraz aby dane osobowe były chronione i usuwane, gdy uczestnicy wycofają swoją zgodę na udział w testach, bez uszczerbku dla ich praw jako osób, których dane dotyczą, wynikających z prawa Unii o ochronie danych. W odniesieniu do przekazywania danych należy także przewidzieć, by dane zebrane i przetwarzane do celów testów w warunkach rzeczywistych przekazywano do państw trzecich wyłącznie pod warunkiem wdrożenia odpowiednich zabezpieczeń mających zastosowanie na podstawie prawa Unii, w szczególności zgodnie z podstawami przekazywania danych osobowych na mocy prawa Unii dotyczącego ochrony danych osobowych, a w odniesieniu do danych nieosobowych wprowadzono odpowiednie zabezpieczenia zgodnie z prawem Unii, takim jak rozporządzenia Parlamentu Europejskiego i Rady (UE) 2022/868 (42) i (UE) 2023/2854 (43).
(141)
Biex jitħaffef il-proċess tal-iżvilupp u l-introduzzjoni fis-suq tas-sistemi tal-IA b'riskju għoli elenkati f' anness ta' dan ir-Regolament, huwa importanti li l-fornituri jew il-fornituri prospettivi ta' dawn is-sistemi jkunu jistgħu jibbenefikaw ukoll minn reġim speċifiku għall-ittestjar ta' dawk is-sistemi f'kundizzjonijiet tad-dinja reali, mingħajr ma jieħdu sehem f'ambjent ta' esperimentazzjoni regolatorja għall-IA. Madankollu, f'każijiet bħal dawn, filwaqt li jitqiesu l-konsegwenzi possibbli ta' tali ttestjar fuq individwi, jenħtieġ li jiġi żgurat li dan ir-Regolament jintroduċi garanziji u kundizzjonijiet xierqa u suffiċjenti għall-fornituri jew il-fornituri prospettivi. Jenħtieġ li tali garanziji jinkludu, fost l-oħrajn, talba għal kunsens infurmat ta' persuni fiżiċi biex jieħdu sehem fl-ittestjar fil-kundizzjonijiet tad-dinja reali, bl-eċċezzjoni tal-infurzar tal-liġi fejn it-tiftix ta' kunsens infurmat jipprevjeni s-sistema tal-IA milli tiġi ttestjata. Il-kunsens tas-suġġetti biex jieħdu sehem f'tali ttestjar skont dan ir-Regolament huwa distint minn u mingħajr preġudizzju għall-kunsens tas-suġġetti tad-data għall-ipproċessar tad-data personali tagħhom skont il-liġi rilevanti dwar il-protezzjoni tad-data. Huwa importanti wkoll li jiġu minimizzati r-riskji u li tkun tista' ssir sorveljanza mill-awtoritajiet kompetenti u għalhekk ikun meħtieġ li l-fornituri prospettivi jkollhom pjan ta' ttestjar fid-dinja reali sottomess lill-awtorità kompetenti tas-sorveljanza tas-suq, jirreġistraw l-ittestjar f'taqsimiet iddedikati fil-bażi tad-data għall-UE soġġett għal xi eċċezzjonijiet limitati, jistabbilixxu limitazzjonijiet fuq il-perjodu li għalih jista' jsir l-ittestjar u jirrikjedu salvagwardji addizzjonali għal persuni vulnerabbli li jagħmlu parti minn ċerti gruppi vulnerabbli, kif ukoll ftehim bil-miktub li jiddefinixxi r-rwoli u r-responsabbiltajiet tal-fornituri u l-implimentaturi prospettivi u sorveljanza effettiva mill-persunal kompetenti involut fl-ittestjar fid-dinja reali. Barra minn hekk, huwa xieraq li jiġu previsti salvagwardji addizzjonali biex jiġi żgurat li t-tbassir, ir-rakkomandazzjonijiet jew id-deċiżjonijiet tas-sistema tal-IA jkunu jistgħu jitreġġgħu lura u jiġu injorati b'mod effettiv u li d-data personali tiġi protetta u titħassar meta s-suġġetti jkunu rtiraw il-kunsens tagħhom biex jipparteċipaw fl-ittestjar mingħajr preġudizzju għad-drittijiet tagħhom bħala suġġetti tad-data skont il-liġi tal-Unjoni dwar il-protezzjoni tad-data. Fir-rigward tat-trasferiment tad-data, huwa xieraq ukoll li jiġi previst li d-data miġbura u pproċessata għall-fini tal-ittestjar fil-kundizzjonijiet tad-dinja reali jenħtieġ li tiġi ttrasferita lil pajjiżi terzi biss fejn jiġu implimentati salvagwardji xierqa u applikabbli skont il-liġi tal-Unjoni, b'mod partikolari f'konformità mal-bażijiet għat-trasferiment ta' data personali skont il-liġi tal-Unjoni dwar il-protezzjoni tad-data, filwaqt li għad-data mhux personali jiġu stabbiliti salvagwardji xierqa f'konformità mal-liġi tal-Unjoni, bħar-Regolamenti (UE) 2022/868 (42) u (UE) 2023/2854 (43) tal-Parlament Ewropew u tal-Kunsill.
(142)
W celu zapewnienia, aby AI przynosiła korzyści dla społeczeństwa i środowiska, zachęca się państwa członkowskie do wspierania i promowania badań i rozwoju w dziedzinie rozwiązań w zakresie AI wspierających takie korzyści społeczne i środowiskowe, np. opartych na AI rozwiązań, które zwiększają dostępność dla osób z niepełnosprawnościami, przeciwdziałają nierównościom społeczno-gospodarczym lub służą osiągnięciu celów środowiskowych, przez przydzielanie wystarczających zasobów, w tym finansowania publicznego i unijnego, oraz, w stosownych przypadkach i pod warunkiem spełnienia kryteriów kwalifikowalności i wyboru, przez priorytetowe traktowanie projektów, które służą realizacji takich celów. Projekty takie powinny opierać się na zasadzie współpracy międzydyscyplinarnej między twórcami AI, ekspertami ds. nierówności i niedyskryminacji, dostępności, praw konsumentów, praw środowiskowych i cyfrowych oraz przedstawicielami środowiska akademickiego.
(142)
Biex jiġi żgurat li l-IA twassal għal eżiti ta' benefiċċju soċjali u ambjentali, l-Istati Membri huma mħeġġa jappoġġaw u jippromwovu r-riċerka u l-iżvilupp ta' soluzzjonijiet tal-IA li jappoġġaw eżiti ta' benefiċċju soċjali u ambjentali, bħal soluzzjonijiet ibbażati fuq l-IA biex tiżdied l-aċċessibbiltà għall-persuni b'diżabbiltà, jiġu indirizzati l-inugwaljanzi soċjoekonomiċi jew biex jintlaħqu miri ambjentali, billi jallokaw ir-riżorsi suffiċjenti, inkluż finanzjament pubbliku u tal-Unjoni, u, fejn xieraq u dment li l-kriterji tal-eliġibbiltà u tal-għażla jiġu ssodisfati, b'kunsiderazzjoni partikolari għal proġetti li għandhom tali objettivi. Jenħtieġ li proġetti bħal dawn ikunu bbażati fuq il-prinċipju ta' kooperazzjoni interdixxiplinari bejn l-iżviluppaturi tal-IA, l-esperti dwar l-inugwaljanza u n-nondiskriminazzjoni, l-aċċessibbiltà, il-konsumatur, id-drittijiet ambjentali u diġitali, kif ukoll l-akkademiċi.
(143)
W celu promowania i ochrony innowacji ważne jest szczególne uwzględnienie interesów MŚP, w tym przedsiębiorstw typu start-up, które są dostawcami systemów AI lub podmiotami stosującymi systemy AI. W tym celu państwa członkowskie powinny opracować inicjatywy skierowane do tych operatorów, w tym inicjatywy służące podnoszeniu świadomości i przekazywaniu informacji. Państwa członkowskie powinny zapewniać MŚP, w tym przedsiębiorstwom typu start-up, mającym siedzibę statutową lub oddział w Unii, priorytetowy dostęp do piaskownic regulacyjnych w zakresie AI, pod warunkiem że przedsiębiorstwa te spełniają warunki kwalifikowalności i kryteria wyboru – w sposób, który nie uniemożliwia innym dostawcom i potencjalnym dostawcom dostępu do piaskownic, pod warunkiem spełnienia przez nich tych samych warunków i kryteriów. Państwa członkowskie powinny korzystać z istniejących kanałów komunikacji, a w stosownych przypadkach utworzyć nowy specjalny kanał komunikacji z MŚP, w tym przedsiębiorstwami typu start-up, podmiotami stosującymi, innymi innowacyjnymi podmiotami, a w stosownych przypadkach, z lokalnymi organami publicznymi, aby wspierać MŚP w rozwoju poprzez udzielanie im wskazówek i odpowiadanie na ich pytania dotyczące wykonywania niniejszego rozporządzenia. W stosownych przypadkach kanały powinny ze sobą współpracować, by uzyskać synergię i zapewnić spójność wskazówek dla MŚP, w tym przedsiębiorstw typu start-up, i podmiotów stosujących. Dodatkowo państwa członkowskie powinny ułatwiać udział MŚP i innych odpowiednich zainteresowanych stron w procesie opracowywania norm. Ponadto przy ustalaniu przez jednostki notyfikowane wysokości opłat z tytułu oceny zgodności należy uwzględnić szczególne interesy i potrzeby dostawców, którzy są MŚP, w tym przedsiębiorstwami typu start-up. Komisja powinna regularnie oceniać koszty certyfikacji i zapewnienia zgodności ponoszone przez MŚP, w tym przedsiębiorstwa typu start-up, w drodze przejrzystych konsultacji oraz współpracować z państwami członkowskimi na rzecz obniżenia tych kosztów. Przykładowo koszty tłumaczeń związane z prowadzeniem obowiązkowej dokumentacji i komunikacji z organami mogą stanowić istotny koszt dla dostawców i innych operatorów, w szczególności tych działających na mniejszą skalę. Państwa członkowskie powinny w miarę możliwości zapewnić, aby jednym z języków wskazanych i akceptowanych przez nie do celów dokumentacji prowadzonej przez odpowiednich dostawców oraz komunikacji z operatorami był język powszechnie rozumiany przez możliwie największą liczbę podmiotów stosujących w wymiarze transgranicznym. Aby zaspokoić szczególne potrzeby MŚP, w tym przedsiębiorstw typu start-up, Komisja powinna na wniosek Rady ds. AI zapewnić ujednolicone wzory w obszarach objętych niniejszym rozporządzeniem. Ponadto Komisja powinna w uzupełnieniu wysiłków państw członkowskich dostarczyć jednolitą platformę informacyjną zawierającą łatwe w użyciu informacje dotyczące niniejszego rozporządzenia dla wszystkich dostawców i podmiotów stosujących, organizować odpowiednie kampanie informacyjne w celu podnoszenia świadomości na temat obowiązków wynikających z niniejszego rozporządzenia oraz oceniać i promować zbieżność najlepszych praktyk w procedurach udzielania zamówień publicznych w odniesieniu do systemów AI. Średnie przedsiębiorstwa, które do niedawna kwalifikowały się jako małe przedsiębiorstwa w rozumieniu załącznika do zalecenia Komisji 2003/361/WE (44), powinny mieć dostęp do tych środków wsparcia, ponieważ w niektórych przypadkach te nowe średnie przedsiębiorstwa mogą nie posiadać zasobów prawnych i szkoleniowych niezbędnych do zapewnienia właściwego zrozumienia i zapewnienia zgodności z niniejszym rozporządzeniem.
(143)
Sabiex tiġi promossa u protetta l-innovazzjoni, huwa importanti li jitqiesu b'mod partikolari l-interessi tal-SMEs, inkluż in-negozji ġodda, li huma fornituri jew implimentaturi ta' sistemi tal-IA. Għal dak il-għan, jenħtieġ li l-Istati Membri jiżviluppaw inizjattivi, immirati lejn dawk l-operaturi, inkluż għas-sensibilizzazzjoni u l-komunikazzjoni tal-informazzjoni. L-Istati Membri jenħtieġ li jipprovdu lill-SMEs, inkluż in-negozji ġodda, li jkollhom uffiċċju reġistrat jew fergħa fl-Unjoni, aċċess prijoritarju għal ambjenti ta' esperimentazzjoni regolatorja għall-IA dment li jissodisfaw il-kundizzjonijiet tal-eliġibbiltà u l-kriterji tal-għażla u mingħajr ma jipprekludu lil fornituri u fornituri prospettivi oħra milli jaċċessaw l-ambjenti regolatorji dment li l-istess kundizzjonijiet u kriterji jiġu ssodisfati. L-Istati Membri jenħtieġ li jużaw il-mezzi eżistenti u, meta xieraq, jistabbilixxu mezzi ddedikati ġodda għall-komunikazzjoni mal-SMEs, inkluż man-negozji ġodda, mal-implimentaturi, ma' innovaturi oħrajn, u kif xieraq, mal-awtoritajiet pubbliċi lokali, biex jappoġġaw lill-SMEs fil-perkors kollu tal-iżvilupp tagħhom billi jipprovdu gwida u jwieġbu domandi dwar l-implimentazzjoni ta' dan ir-Regolament. Meta xieraq, dawn il-mezzi jenħtieġ li jaħdmu flimkien biex joħolqu sinerġiji u jiżguraw l-omoġeneità fil-gwida tagħhom lill-SMEs, inkluż in-negozji ġodda, u l-implimentaturi. Jenħtieġ li l-Istati Membri jiffaċilitaw ukoll il-parteċipazzjoni tal-SMEs u ta' partijiet ikkonċernati rilevanti oħra fil-proċess tal-iżvilupp tal-istandardizzazzjoni. Barra minn hekk, meta l-korpi notifikati jistabbilixxu tariffi għall-valutazzjoni tal-konformità, jenħtieġ li jitqiesu l-interessi u l-ħtiġijiet speċifiċi tal-fornituri li huma SMEs, inkluż negozji ġodda. Jenħtieġ li l-Kummissjoni tevalwa b'mod regolari l-kostijiet ta' ċertifikazzjoni u konformità għall-SMEs inkluż għan-negozji ġodda, permezz ta' konsultazzjonijiet trasparenti u jenħtieġ li taħdem mal-Istati Membri biex tnaqqas dawn il-kostijiet. Pereżempju, il-kostijiet tat-traduzzjoni relatata mad-dokumentazzjoni obbligatorja u l-komunikazzjoni mal-awtoritajiet jistgħu jikkostitwixxu kost sinifikanti għall-fornituri u għal operaturi oħra, b'mod partikolari għal dawk fuq skala iżgħar. Jenħtieġ li l-Istati Membri possibbilment jiżguraw li waħda mil-lingwi determinati u aċċettati minnhom għad-dokumentazzjoni tal-fornituri rilevanti u għall-komunikazzjoni mal-operaturi tkun waħda li tinftiehem b'mod wiesa' mill-akbar għadd ta' implimentaturi transfruntieri possibbli. Sabiex jiġu indirizzati l-ħtiġijiet speċifiċi tal-SMEs inkluż tan-negozji ġodda, jenħtieġ li l-Kummissjoni tipprovdi mudelli standardizzati għall-oqsma koperti minn dan ir-Regolament fuq talba tal-Bord. Barra minn hekk, jenħtieġ li l-Kummissjoni tikkomplementa l-isforzi tal-Istati Membri billi tipprovdi pjattaforma ta' informazzjoni unika b'informazzjoni faċli biex tintuża fir-rigward ta' dan ir-Regolament għall-fornituri u l-implimentaturi kollha, billi torganizza kampanji ta' komunikazzjoni adatti biex tqajjem kuxjenza dwar l-obbligi li jirriżultaw minn dan ir-Regolament, u billi tevalwa u tippromwovi l-konverġenza tal-aħjar prattiki fil-proċeduri tal-akkwist pubbliku fir-rigward tas-sistemi tal-IA. Jenħtieġ li l-intrapriżi ta' daqs medju li sa reċentement kienu jikkwalifikaw bħala intrapriżi żgħar skont it-tifsira tal-Anness tar-Rakkomandazzjoni tal-Kummissjoni 2003/361/KE (44) jkollhom aċċess għal dawk il-miżuri ta' appoġġ peress li dawk l-intrapriżi ġodda ta' daqs medju ġodda xi drabi jistgħu ma jkollhomx ir-riżorsi legali u t-taħriġ meħtieġa biex jiżguraw fehim xieraq ta' dan ir-Regolament u konformità miegħu.
(144)
W celu promowania i ochrony innowacji do realizacji celów niniejszego rozporządzenia powinny przyczyniać się, w stosownych przypadkach, platforma „Sztuczna inteligencja na żądanie”, wszystkie odpowiednie finansowane przez Unię programy i projekty, takie jak program „Cyfrowa Europa”, „Horyzont Europa”, wdrażane przez Komisję i państwa członkowskie na poziomie Unii lub poziomie krajowym.
(144)
Sabiex tiġi promossa u protetta l-innovazzjoni, jenħtieġ li l-pjattaforma tal-IA fuq talba, il-programmi u l-proġetti ta' finanzjament rilevanti kollha tal-Unjoni, bħall-Programm Ewropa Diġitali, Orizzont Ewropa, implimentati mill-Kummissjoni u mill-Istati Membri fil-livell tal-Unjoni jew nazzjonali, jikkontribwixxu, kif xieraq, għall-kisba tal-objettivi ta' dan ir-Regolament.
(145)
Aby zminimalizować zagrożenia dla wdrożenia wynikające z braku wiedzy o rynku i jego znajomości, a także aby ułatwić dostawcom, w szczególności MŚP, w tym przedsiębiorstwom typu start-up, i jednostkom notyfikowanym spełnianie obowiązków ustanowionych w niniejszym rozporządzeniu, platforma „Sztuczna inteligencja na żądanie”, europejskie centra innowacji cyfrowych oraz ośrodki testowo-doświadczalne ustanowione przez Komisję i państwa członkowskie na poziomie Unii lub poziomie krajowym powinny przyczyniać się do wykonywania niniejszego rozporządzenia. W ramach swoich zadań i obszarów kompetencji platforma „Sztuczna inteligencja na żądanie”, europejskie centra innowacji cyfrowych oraz ośrodki testowo-doświadczalne są w stanie zapewnić w szczególności wsparcie techniczne i naukowe dostawcom i jednostkom notyfikowanym.
(145)
Sabiex jiġu minimizzati r-riskji għall-implimentazzjoni li jirriżultaw minn nuqqas ta' għarfien u kompetenza esperta fis-suq kif ukoll biex tiġi ffaċilitata l-konformità tal-fornituri, b'mod partikolari l-SMEs, inkluż in-negozji ġodda, u l-korpi notifikati mal-obbligi tagħhom skont dan ir-Regolament, jenħtieġ li l-pjattaforma tal-IA fuq talba, iċ-Ċentri Ewropej tal-Innovazzjoni Diġitali u l-Faċilitajiet tal-ittestjar u tal-esperimentazzjoni stabbiliti mill-Kummissjoni u mill-Istati Membri fil-livell tal-Unjoni jew nazzjonali jikkontribwixxu għall-implimentazzjoni ta' dan ir-Regolament. Fil-missjonijiet u l-oqsma ta' kompetenza rispettivi tagħhom, il-pjattaforma tal-IA fuq talba, iċ-Ċentri Ewropej tal-Innovazzjoni Diġitali u l-Faċilitajiet tal-ittestjar u tal-esperimentazzjoni jistgħu jipprovdu b'mod partikolari appoġġ tekniku u xjentifiku lill-fornituri u lill-korpi notifikati.
(146)
Ponadto, biorąc pod uwagę bardzo mały rozmiar niektórych operatorów i aby zapewnić proporcjonalność w odniesieniu do kosztów innowacji, należy zezwolić mikroprzedsiębiorstwom na spełnienie jednego z najbardziej kosztownych obowiązków, a mianowicie ustanowienia systemu zarządzania jakością, w sposób uproszczony, co zmniejszy obciążenie administracyjne i koszty ponoszone przez te przedsiębiorstwa bez wpływu na poziom ochrony oraz konieczność zapewnienia zgodności z wymogami dotyczącymi systemów AI wysokiego ryzyka. Komisja powinna opracować wytyczne w celu określenia, które z elementów systemu zarządzania jakością mają być realizowane w ten uproszczony sposób przez mikroprzedsiębiorstwa.
(146)
Barra minn hekk, fid-dawl tad-daqs żgħir ħafna ta' xi operaturi u sabiex tiġi żgurata l-proporzjonalità fir-rigward tal-kostijiet tal-innovazzjoni, jixraq li l-mikrointrapriżi jitħallew jissodisfaw wieħed mill-aktar obbligi għaljin, jiġifieri l-istabbiliment ta' sistema ta' ġestjoni tal-kwalità, b'mod simplifikat li tnaqqas il-piż amministrattiv u l-kostijiet għal dawk l-intrapriżi mingħajr ma jiġi affettwat il-livell ta' protezzjoni u l-ħtieġa ta' konformità mar-rekwiżiti għas-sistemi tal-IA b'riskju għoli. Jenħtieġ li l-Kummissjoni tiżviluppa linji gwida biex tispeċifika l-elementi tas-sistema ta' ġestjoni tal-kwalità li għandhom jiġu ssodisfati b'dan il-mod simplifikat mill-mikrointrapriżi.
(147)
Komisja powinna w miarę możliwości ułatwiać dostęp do ośrodków testowo-doświadczalnych podmiotom, grupom lub laboratoriom ustanowionym lub akredytowanym na podstawie odpowiedniego unijnego prawodawstwa harmonizacyjnego, wykonującym zadania w kontekście oceny zgodności produktów lub wyrobów objętych tym unijnym prawodawstwem harmonizacyjnym. Dotyczy to w szczególności paneli ekspertów, laboratoriów eksperckich oraz laboratoriów referencyjnych w dziedzinie wyrobów medycznych w rozumieniu rozporządzeń (UE) 2017/745 i (UE) 2017/746.
(147)
Jixraq li l-Kummissjoni tiffaċilita, sa fejn ikun possibbli, l-aċċess għall-faċilitajiet tal-ittestjar u tal-esperimentazzjoni għall-korpi, il-gruppi jew il-laboratorji stabbiliti jew akkreditati skont kwalunkwe leġiżlazzjoni rilevanti tal-Unjoni dwar l-armonizzazzjoni u li jissodisfaw kompiti fil-kuntest ta' valutazzjoni tal-konformità ta' prodotti jew ta' apparati koperti minn dik il-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni. Dan hu partikolarment il-każ fir-rigward tal-gruppi ta' esperti, il-laboratorji esperti u l-laboratorji ta' referenza fil-qasam tal-apparati mediċi skont ir-Regolamenti (UE) 2017/745 u (UE) 2017/746.
(148)
W niniejszym rozporządzeniu należy ustanowić ramy zarządzania, które umożliwiają koordynację i wspieranie stosowania niniejszego rozporządzenia na poziomie krajowym, a także budowanie zdolności na poziomie Unii i zaangażowanie zainteresowanych stron w dziedzinę AI. Skuteczne wdrożenie i egzekwowanie niniejszego rozporządzenia wymaga ram zarządzania, które umożliwią koordynację i gromadzenie centralnej wiedzy fachowej na poziomie Unii. Misją Urzędu ds. AI, który został ustanowiony decyzją Komisji (45), jest rozwijanie unijnej wiedzy fachowej i unijnych zdolności w dziedzinie AI oraz przyczynianie się do wdrażania prawa Unii dotyczącego AI. Państwa członkowskie powinny ułatwiać Urzędowi ds. AI wykonywanie zadań z myślą o wspieraniu rozwoju unijnej wiedzy fachowej i unijnych zdolności oraz wzmacnianiu funkcjonowania jednolitego rynku cyfrowego. Ponadto należy ustanowić Radę ds. AI składającą się z przedstawicieli państw członkowskich, panel naukowy w celu zaangażowania środowiska naukowego oraz forum doradcze w celu wnoszenia przez zainteresowane strony wkładu w wykonywanie niniejszego rozporządzenia na poziomie Unii i poziomie krajowym. Rozwój unijnej wiedzy fachowej i unijnych zdolności powinien również obejmować wykorzystanie istniejących zasobów i wiedzy fachowej, w szczególności poprzez synergię ze strukturami zbudowanymi w kontekście egzekwowania innych przepisów na poziomie Unii oraz synergię z powiązanymi inicjatywami na poziomie Unii, takimi jak Wspólne Przedsięwzięcie EuroHPC i ośrodki testowo-doświadczalne w dziedzinie AI w ramach programu „Cyfrowa Europa”.
(148)
Jenħtieġ li dan ir-Regolament jistabbilixxi qafas ta' governanza li jippermetti kemm il-koordinazzjoni u l-appoġġ tal-applikazzjoni ta' dan ir-Regolament fil-livell nazzjonali, kif ukoll it-tisħiħ tal-kapaċitajiet fil-livell tal-Unjoni u l-integrazzjoni tal-partijiet ikkonċernati fil-qasam tal-IA. L-implimentazzjoni u l-infurzar effettivi ta' dan ir-Regolament jirrikjedu qafas ta' governanza li jippermetti l-koordinazzjoni u l-bini ta' kompetenza esperta ċentrali fil-livell tal-Unjoni. L-Uffiċċju għall-IA ġie stabbilit b'Deċiżjoni tal-Kummissjoni (45) u għandu bħala l-missjoni tiegħu li jiżviluppa l-għarfien espert u l-kapaċitajiet tal-Unjoni fil-qasam tal-IA u li jikkontribwixxi għall-implimentazzjoni tal-liġi tal-Unjoni dwar l-IA. Jenħtieġ li l-Istati Membri jiffaċilitaw il-kompiti tal-Uffiċċju għall-IA bil-ħsieb li jiġi appoġġat l-iżvilupp tal-kompetenza esperta u l-kapaċitajiet tal-Unjoni fil-livell tal-Unjoni u li jissaħħaħ il-funzjonament tas-suq uniku diġitali. Barra minn hekk, jenħtieġ li jiġi stabbilit Bord magħmul minn rappreżentanti tal-Istati Membri, bord għall-integrazzjoni tal-komunità xjentifika u forum konsultattiv biex jikkontribwixxi l-kontribut tal-partijiet ikkonċernati għall-implimentazzjoni ta' dan ir-Regolament, fil-livell tal-Unjoni u dak nazzjonali. Jenħtieġ li l-iżvilupp tal-kompetenza esperta u tal-kapaċitajiet tal-Unjoni jinkludi wkoll l-użu tar-riżorsi u l-kompetenza esperta eżistenti, b'mod partikolari permezz ta' sinerġiji ma' strutturi mibnija fil-kuntest tal-infurzar fil-livell tal-Unjoni ta' liġijiet u sinerġiji oħra ma' inizjattivi relatati fil-livell tal-Unjoni, bħall-Impriża Konġunta EuroHPC u l-faċilitajiet tal-ittestjar u tal-esperimentazzjoni tal-IA taħt il-Programm Ewropa Diġitali.
(149)
Aby ułatwić sprawne, skuteczne i zharmonizowane wykonywanie niniejszego rozporządzenia, należy ustanowić Radę ds. AI. Rada ds. AI powinna odzwierciedlać różne interesy ekosystemu AI i składać się z przedstawicieli państw członkowskich. Rada ds. AI powinna odpowiadać za szereg zadań doradczych, w tym wydawanie opinii lub zaleceń oraz udzielanie porad lub udział w tworzeniu wskazówek w dziedzinach związanych z wykonywaniem niniejszego rozporządzenia, także w kwestiach egzekwowania, specyfikacji technicznych lub istniejących norm dotyczących wymogów ustanowionych w niniejszym rozporządzeniu, jak również za udzielanie porad Komisji oraz państwom członkowskim i ich właściwym organom krajowym w konkretnych kwestiach związanych z AI. Aby zapewnić państwom członkowskim pewną swobodę w zakresie wyznaczania przedstawicieli do Rady ds. AI, takimi przedstawicielami mogą być wszelkie osoby należące do podmiotów publicznych, które powinny mieć odpowiednie kompetencje i uprawnienia, aby ułatwiać koordynację na poziomie krajowym i przyczyniać się do realizacji zadań Rady ds. AI. Rada ds. AI powinna ustanowić dwie stałe podgrupy służące jako platforma współpracy i wymiany między organami nadzoru rynku i organami notyfikującymi w zakresie kwestii dotyczących odpowiednio nadzoru rynku i jednostek notyfikowanych. Stała podgrupa ds. nadzoru rynku powinna do celów niniejszego rozporządzenia pełnić rolę grupy ds. współpracy administracyjnej (ADCO) w rozumieniu art. 30 rozporządzenia (UE) 2019/1020. Zgodnie z art. 33 przywołanego rozporządzenia Komisja powinna wspierać działania stałej podgrupy ds. nadzoru rynku poprzez przeprowadzanie ocen lub badań rynku, w szczególności w celu zidentyfikowania aspektów niniejszego rozporządzenia wymagających szczególnej i pilnej koordynacji między organami nadzoru rynku. W stosownych przypadkach Rada ds. AI może również tworzyć inne stałe lub tymczasowe podgrupy na potrzeby zbadania konkretnych kwestii. Rada ds. AI powinna również w stosownych przypadkach współpracować z odpowiednimi unijnymi organami, grupami ekspertów i sieciami działającymi w kontekście odpowiedniego prawa Unii, w tym w szczególności z tymi, które działają na podstawie odpowiednich przepisów prawa Unii dotyczących danych oraz produktów i usług cyfrowych.
(149)
Sabiex tiġi ffaċilitata implimentazzjoni bla xkiel, effettiva u armonizzata ta' dan ir-Regolament, jenħtieġ jiġi stabbilit Bord. Jenħtieġ li l-Bord jirrifletti d-diversi interessi tal-ekosistema tal-IA u jkun magħmul minn rappreżentanti tal-Istati Membri. Jenħtieġ li l-Bord ikun responsabbli għal għadd ta' kompiti konsultattivi, inkluż l-għoti ta' opinjonijiet, rakkomandazzjonijiet, pariri jew kontribut għall-gwida dwar kwistjonijiet relatati mal-implimentazzjoni ta' dan ir-Regolament, inkluż dwar kwistjonijiet ta' infurzar, speċifikazzjonijiet tekniċi jew standards eżistenti rigward ir-rekwiżiti stipulati f'dan ir-Regolament u l-għoti ta' pariri lill-Kummissjoni u lill-Istati Membri u l-awtoritajiet nazzjonali kompetenti tagħhom dwar kwistjonijiet speċifiċi relatati mal-IA. Sabiex tingħata xi flessibbiltà lill-Istati Membri fid-deżinjazzjoni tar-rappreżentanti tagħhom fil-Bord, tali rappreżentanti jistgħu jkunu kwalunkwe persuna li tappartjeni għal entitajiet pubbliċi li jenħtieġ li jkollha l-kompetenzi u s-setgħat rilevanti biex tiffaċilita l-koordinazzjoni fil-livell nazzjonali u tikkontribwixxi għall-kisba tal-kompiti tal-Bord. Jenħtieġ li l-Bord jistabbilixxi żewġ sottogruppi permanenti biex tiġi pprovduta pjattaforma għall-kooperazzjoni u l-iskambju fost l-awtoritajiet tas-sorveljanza tas-suq u l-awtoritajiet tan-notifika dwar kwistjonijiet relatati rispettivament mas-sorveljanza tas-suq u l-korpi notifikati. Jenħtieġ li s-sottogrupp permanenti għas-sorveljanza tas-suq jaġixxi bħala l-grupp ta' kooperazzjoni amministrattiva (ADCO) għal dan ir-Regolament skont it-tifsira tal-Artikolu 30 tar-Regolament (UE) 2019/1020. F'konformità mal-Artikolu 33 ta' dak ir-Regolament, jenħtieġ li l-Kummissjoni tappoġġa l-attivitajiet tas-sottogrupp permanenti għas-sorveljanza tas-suq billi twettaq evalwazzjonijiet jew studji tas-suq, partikolarment bil-ħsieb li tidentifika aspetti ta' dan ir-Regolament li jirrikjedu koordinazzjoni speċifika u urġenti fost l-awtoritajiet tas-sorveljanza tas-suq. Il-Bord jista' jistabbilixxi sottogruppi permanenti jew temporanji oħra kif xieraq għall-fini tal-eżaminazzjoni ta' kwistjonijiet speċifiċi. Jenħtieġ li l-Bord jikkoopera wkoll, kif xieraq, mal-korpi, il-gruppi ta' esperti u n-networks rilevanti tal-Unjoni attivi fil-kuntest tal-liġijiet rilevanti tal-Unjoni, inkluż b'mod partikolari dawk attivi skont il-liġijiet rilevanti tal-Unjoni dwar id-data, il-prodotti u s-servizzi diġitali.
(150)
Aby zapewnić zaangażowanie zainteresowanych stron we wdrażanie i stosowanie niniejszego rozporządzenia, należy ustanowić forum doradcze, które ma doradzać Radzie ds. AI i Komisji oraz zapewniać im fachową wiedzę techniczną. Aby zapewnić zróżnicowaną i zrównoważoną reprezentację zainteresowanych stron z uwzględnieniem interesów handlowych i niehandlowych oraz – w ramach kategorii interesów handlowych – w odniesieniu do MŚP i innych przedsiębiorstw, forum doradcze powinno obejmować m.in. przemysł, przedsiębiorstwa typu start-up, MŚP, środowisko akademickie, społeczeństwo obywatelskie, w tym partnerów społecznych, a także Agencję Praw Podstawowych, ENISA, Europejski Komitet Normalizacyjny (CEN), Europejski Komitet Normalizacyjny Elektrotechniki (CENELEC) i Europejski Instytut Norm Telekomunikacyjnych (ETSI).
(150)
Bil-ħsieb li jiġi żgurat l-involviment tal-partijiet ikkonċernati fl-implimentazzjoni u l-applikazzjoni ta' dan ir-Regolament, jenħtieġ li jiġi stabbilit forum konsultattiv biex jagħti pariri u jipprovdi kompetenza esperta teknika lill-Bord u lill-Kummissjoni. Sabiex tiġi żgurata rappreżentanza varjata u bbilanċjata tal-partijiet ikkonċernati bejn l-interess kummerċjali u dak mhux kummerċjali u, fil-kategorija tal-interessi kummerċjali, fir-rigward tal-SMEs u impriżi oħra, jenħtieġ li l-forum konsultattiv jinkludi, fost l-oħrajn, l-industrija, in-negozji ġodda, l-SMEs, id-dinja akkademika, is-soċjetà ċivili, inkluż is-sħab soċjali, kif ukoll l-Aġenzija għad-Drittijiet Fundamentali, l-ENISA, il-Kumitat Ewropew għall-Istandardizzazzjoni (CEN), il-Kumitat Ewropew għall-Istandardizzazzjoni Elettroteknika (CENELEC) u l-Istitut Ewropew tal-Istandards tat-Telekomunikazzjoni (ETSI).
(151)
Aby wspierać wdrażanie i egzekwowanie niniejszego rozporządzenia, w szczególności działania monitorujące prowadzone przez Urząd ds. AI w odniesieniu do modeli AI ogólnego przeznaczenia, należy ustanowić panel naukowy złożony z niezależnych ekspertów. Niezależni eksperci tworzący panel naukowy powinni być wybierani na podstawie aktualnej wiedzy naukowej lub technicznej w dziedzinie AI i powinni wykonywać swoje zadania w sposób bezstronny i obiektywny oraz zapewniać poufność informacji i danych uzyskanych w trakcie wykonywania swoich zadań i działań. Aby umożliwić wzmocnienie krajowych zdolności niezbędnych do skutecznego egzekwowania niniejszego rozporządzenia, państwa członkowskie powinny mieć możliwość zwrócenia się o wsparcie do zespołu ekspertów wchodzących w skład panelu naukowego w odniesieniu do ich działań w zakresie egzekwowania przepisów.
(151)
Jenħtieġ li jiġi stabbilit bord ta' esperti indipendenti biex jiġu appoġġati l-implimentazzjoni u l-infurzar ta' dan ir-Regolament, b'mod partikolari l-attivitajiet ta' monitoraġġ tal-Uffiċċju għall-IA fir-rigward tal-mudelli tal-IA bi skop ġenerali. Jenħtieġ li l-esperti indipendenti li jikkostitwixxu l-bord jintgħażlu abbażi ta' kompetenza esperta xjentifika jew teknika aġġornata fil-qasam tal-IA u għandhom iwettqu l-kompiti tagħhom b'imparzjalità u oġġettività u jiżguraw il-kunfidenzjalità tal-informazzjoni u tad-data miksuba fit-twettiq tal-kompiti u l-attivitajiet tagħhom. Sabiex ikun possibli t-tisħiħ tal-kapaċitajiet nazzjonali meħtieġa għall-infurzar effettiv ta' dan ir-Regolament, jenħtieġ li l-Istati Membri jkunu jistgħu jitolbu appoġġ mill-grupp ta' esperti li jikkostitwixxu l-bord għall-attivitajiet ta' infurzar tagħhom.
(152)
Aby wspierać odpowiednie egzekwowanie w odniesieniu do systemów AI i wzmocnić zdolności państw członkowskich, należy ustanowić unijne struktury wsparcia testowania AI i udostępnić je państwom członkowskim.
(152)
Jenħtieġ li jiġu stabbiliti u mqiegħda għad-dispożizzjoni tal-Istati Membri, strutturi ta' appoġġ tal-Unjoni għall-ittestjar tal-IA sabiex jiġi appoġġat l-infurzar adegwat fir-rigward tas-sistemi tal-IA u jissaħħu l-kapaċitajiet tal-Istati Membri.
(153)
Państwa członkowskie odgrywają kluczową rolę w stosowaniu i egzekwowaniu niniejszego rozporządzenia. W tym zakresie każde państwo członkowskie powinno wyznaczyć co najmniej jedną jednostkę notyfikującą i co najmniej jeden organ nadzoru ryku jako właściwe organy krajowe do celów sprawowania nadzoru nad stosowaniem i wykonywaniem niniejszego rozporządzenia. Państwa członkowskie mogą podjąć decyzję o wyznaczeniu dowolnego rodzaju podmiotu publicznego do wykonywania zadań właściwych organów krajowych w rozumieniu niniejszego rozporządzenia, zgodnie z ich określonymi krajowymi cechami organizacyjnymi i potrzebami. Aby zwiększyć efektywność organizacyjną po stronie państw członkowskich oraz ustanowić pojedynczy punkt kontaktowy dla ogółu społeczeństwa oraz innych partnerów na poziomie państw członkowskich i na poziomie Unii, każde państwo członkowskie powinno wyznaczyć organ nadzoru rynku, który pełniłby funkcję pojedynczego punktu kontaktowego.
(153)
L-Istati Membri jaqdu rwol ewlieni fl-applikazzjoni u fl-infurzar ta' dan ir-Regolament. F'dak ir-rigward, jenħtieġ li kull Stat Membru jiddeżinja minn tal-inqas awtorità tan-notifika waħda u minn tal-inqas awtorità tas-sorveljanza tas-suq waħda bħala awtoritajiet kompetenti nazzjonali bil-għan li jiġu ssorveljati l-applikazzjoni u l-implimentazzjoni ta' dan ir-Regolament. L-Istati Membri jistgħu jiddeċiedu li jaħtru kwalunkwe tip ta' entità pubblika biex twettaq il-kompiti tal-awtoritajiet kompetenti nazzjonali skont it-tifsira ta' dan ir-Regolament, f'konformità mal-karatteristiċi u l-ħtiġijiet organizzattivi nazzjonali speċifiċi tagħhom. Sabiex tiżdied l-effiċjenza tal-organizzazzjoni fuq in-naħa tal-Istati Membri u biex jiġi stabbilit punt uniku ta' kuntatt għall-pubbliku u għal kontropartijiet oħra fil-livell tal-Istati Membri u f'dak tal-Unjoni, jenħtieġ li kull Stat Membru jiddeżinja awtorità tas-sorveljanza tas-suq biex taġixxi bħala punt uniku ta' kuntatt.
(154)
Właściwe organy krajowe powinny wykonywać swoje uprawnienia w sposób niezależny, bezstronny i wolny od uprzedzeń, aby zagwarantować przestrzeganie zasady obiektywności swoich działań i zadań oraz zapewnić stosowanie i wykonywanie niniejszego rozporządzenia. Członkowie tych organów powinni powstrzymać się od wszelkich działań niezgodnych z ich obowiązkami i powinni podlegać zasadom poufności na mocy niniejszego rozporządzenia.
(154)
Jenħtieġ li l-awtoritajiet kompetenti nazzjonali jeżerċitaw is-setgħat tagħhom b'mod indipendenti, imparzjali u mingħajr preġudizzju sabiex jissalvagwardaw il-prinċipji tal-oġġettività tal-attivitajiet u l-kompiti tagħhom u biex jiżguraw l-applikazzjoni u l-implimentazzjoni ta' dan ir-Regolament. Jenħtieġ li l-membri ta' dawn l-awtoritajiet joqogħdu lura minn kwalunkwe azzjoni inkompatibbli mad-dmirijiet tagħhom u jenħtieġ li jkunu soġġetti għal regoli ta' kunfidenzjalità skont dan ir-Regolament.
(155)
W celu zapewnienia, aby dostawcy systemów AI wysokiego ryzyka mogli wykorzystywać doświadczenia związane ze stosowaniem systemów AI wysokiego ryzyka do ulepszenia swoich systemów oraz procesu projektowania i rozwoju lub byli w stanie odpowiednio szybko podejmować wszelkie możliwe działania naprawcze, każdy dostawca powinien wdrożyć system monitorowania po wprowadzeniu do obrotu. W stosownych przypadkach monitorowanie po wprowadzeniu do obrotu powinno obejmować analizę interakcji z innymi systemami AI, w tym z innymi urządzeniami i oprogramowaniem. Monitorowanie po wprowadzeniu do obrotu nie obejmuje wrażliwych danych operacyjnych podmiotów stosujących, które są organami ścigania. System ten ma również zasadnicze znaczenie dla zapewnienia skuteczniejszego i terminowego przeciwdziałania możliwym pojawiającym się ryzykom związanym z systemami AI, które nadal „uczą się” po wprowadzeniu do obrotu lub oddaniu do użytku. W tym kontekście dostawcy powinni być również zobowiązani do wdrożenia systemu zgłaszania odpowiednim organom wszelkich poważnych incydentów zaistniałych w związku z wykorzystaniem ich systemów AI, tj. incydentu lub nieprawidłowego działania prowadzącego do śmierci lub poważnej szkody dla zdrowia, poważnych i nieodwracalnych zakłóceń w zarządzaniu infrastrukturą krytyczną i jej działaniu, naruszeń obowiązków ustanowionych w prawie Unii, których celem jest ochrona praw podstawowych, lub poważnych szkód majątkowych lub środowiskowych.
(155)
Sabiex ikun żgurat li l-fornituri tas-sistemi tal-IA b'riskju għoli jkunu jistgħu jqisu l-esperjenza bl-użu tas-sistemi tal-IA b'riskju għoli għat-titjib tas-sistemi tagħhom u tal-proċess tad-disinn u l-iżvilupp, jew ikunu jistgħu jieħdu xi azzjoni korrettiva possibbli fil-ħin, jenħtieġ li l-fornituri kollha jkollhom fis-seħħ sistema ta' sorveljanza ta' wara t-tqegħid fis-suq. Meta jkun rilevanti, jenħtieġ li s-sorveljanza ta' wara t-tqegħid fis-suq tinkludi analiżi tal-interazzjoni ma' sistemi oħra tal-IA inkluż apparati u software ieħor. Jenħtieġ li s-sorveljanza ta' wara t-tqegħid fis-suq ma tkoprix data operazzjonali sensittiva ta' implimentaturi li huma awtoritajiet tal-infurzar tal-liġi. Din is-sistema hi kruċjali wkoll biex ikun żgurat li r-riskji possibbli li jirriżultaw mis-sistemi tal-IA li jkomplu “jitgħallmu” wara li jiġu introdotti fis-suq jew jitqiegħdu fis-servizz ikunu jistgħu jiġu indirizzati b'mod aktar effiċjenti u fil-ħin. F'dan il-kuntest, jenħtieġ li l-fornituri jkunu wkoll meħtieġa jkollhom fis-seħħ sistema biex jirrapportaw lura lill-awtoritajiet rilevanti kwalunkwe inċident serju li jirriżulta mill-użu tas-sistemi tal-IA tagħhom, jiġifieri inċident jew funzjonament ħażin li jwassal għal mewt jew ħsara serja għas-saħħa, tfixkil serju u irriversibbli tal-ġestjoni u tal-operat ta' infrastruttura kritika, ksur tal-obbligi skont liġijiet tal-Unjoni maħsuba biex jipproteġu d-drittijiet fundamentali jew dannu serju lill-proprjetà jew lill-ambjent.
(156)
Aby zapewnić odpowiednie i skuteczne egzekwowanie wymogów i obowiązków ustanowionych w niniejszym rozporządzeniu, które należy do unijnego prawodawstwa harmonizacyjnego, pełne zastosowanie powinien mieć system nadzoru rynku i zgodności produktów ustanowiony rozporządzeniem (UE) 2019/1020. Organy nadzoru rynku wyznaczone zgodnie z niniejszym rozporządzeniem powinny mieć wszystkie uprawnienia w zakresie egzekwowania wymogów i obowiązków ustanowione w niniejszym rozporządzeniu oraz z rozporządzenia (UE) 2019/1020 i powinny wykonywać swoje uprawnienia i obowiązki w sposób niezależny, bezstronny i wolny od uprzedzeń. Chociaż większość systemów AI nie podlega szczególnym wymogom i obowiązkom na podstawie niniejszego rozporządzenia, organy nadzoru rynku mogą podejmować środki w odniesieniu do wszystkich systemów AI, jeżeli zgodnie z niniejszym rozporządzeniem stwarzają one ryzyko. Z uwagi na szczególny charakter instytucji, organów i jednostek organizacyjnych Unii objętych zakresem stosowania niniejszego rozporządzenia, należy wyznaczyć Europejskiego Inspektora Ochrony Danych jako właściwy dla nich organ nadzoru rynku. Powinno to pozostawać bez uszczerbku dla wyznaczenia właściwych organów krajowych przez państwa członkowskie. Działania w zakresie nadzoru rynku nie powinny wpływać na zdolność nadzorowanych podmiotów do niezależnego wypełniania ich zadań, w przypadku gdy taka niezależność jest wymagana prawem Unii.
(156)
Sabiex ikun żgurat infurzar xieraq u effettiv tar-rekwiżiti u l-obbligi stipulati b'dan ir-Regolament, li huwa leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni, jenħtieġ li s-sistema tas-sorveljanza tas-suq u tal-konformità tal-prodotti stabbilita bir-Regolament (UE) 2019/1020 tapplika fl-intier tagħha. Jenħtieġ li l-awtoritajiet tas-sorveljanza tas-suq deżinjati skont dan ir-Regolament ikollhom is-setgħat kollha ta' infurzar stabbiliti f'dan ir-Regolament u fir-Regolament (UE) 2019/1020 u jenħtieġ li jeżerċitaw is-setgħat tagħhom u jwettqu dmirijiethom b'mod indipendenti, imparzjali u mingħajr preġudizzju. Minkejja li l-maġġoranza tas-sistemi tal-IA mhumiex soġġetti għal rekwiżiti u obbligi speċifiċi skont dan ir-Regolament, l-awtoritajiet tas-sorveljanza tas-suq jistgħu jieħdu miżuri fir-rigward tas-sistemi kollha tal-IA meta jippreżentaw riskju f'konformità ma' dan ir-Regolament. Minħabba n-natura speċifika tal-istituzzjonijiet, l-aġenziji u l-korpi tal-Unjoni li jaqgħu fil-kamp ta' applikazzjoni ta' dan ir-Regolament, huwa xieraq li l-Kontrollur Ewropew għall-Protezzjoni tad-Data jiġi deżinjat bħala awtorità kompetenti tas-sorveljanza tas-suq għalihom. Jenħtieġ li dan ikun mingħajr preġudizzju għad-deżinjazzjoni tal-awtoritajiet nazzjonali kompetenti mill-Istati Membri. Jenħtieġ li l-attivitajiet ta' sorveljanza tas-suq ma jaffettwawx il-kapaċità tal-entitajiet taħt superviżjoni li jwettqu l-kompiti tagħhom b'mod indipendenti, meta tali indipendenza tkun meħtieġa mil-liġi tal-Unjoni.
(157)
Niniejsze rozporządzenie pozostaje bez uszczerbku dla kompetencji, zadań, uprawnień i niezależności odpowiednich krajowych organów lub podmiotów publicznych, które nadzorują stosowanie prawa Unii w zakresie ochrony praw podstawowych, w tym organów ds. równości i organów ochrony danych. W przypadku gdy jest to niezbędne do wykonywania ich mandatu, te krajowe organy lub podmioty publiczne powinny również mieć dostęp do wszelkiej dokumentacji sporządzonej na podstawie niniejszego rozporządzenia. Należy ustanowić szczególną procedurę ochronną, aby zapewnić odpowiednie i terminowe egzekwowanie przepisów niniejszego rozporządzenia w odniesieniu do systemów AI stwarzających ryzyko dla zdrowia, bezpieczeństwa i praw podstawowych. Procedurę dotyczącą takich systemów AI stwarzających ryzyko należy stosować w odniesieniu do systemów AI wysokiego ryzyka stwarzających ryzyko, zakazanych systemów, które zostały wprowadzone do obrotu, oddane do użytku lub są wykorzystywane z naruszeniem zasad dotyczących zakazanych praktyk ustanowionych w niniejszym rozporządzeniu, oraz systemów AI, które zostały udostępnione z naruszeniem ustanowionych w niniejszym rozporządzeniu wymogów przejrzystości i które stwarzają ryzyko.
(157)
Dan ir-Regolament huwa mingħajr preġudizzju għall-kompetenzi, il-kompiti, is-setgħat u l-indipendenza tal-awtoritajiet jew il-korpi pubbliċi nazzjonali rilevanti li jissorveljaw l-applikazzjoni tal-liġi tal-Unjoni li tipproteġi d-drittijiet fundamentali, inkluż il-korpi tal-ugwaljanza u l-awtoritajiet tal-protezzjoni tad-data. Fejn meħtieġ għall-mandat tagħhom, jenħtieġ li dawk l-awtoritajiet jew il-korpi pubbliċi jkollhom aċċess ukoll għal kwalunkwe dokumentazzjoni maħluqa skont dan ir-Regolament. Jenħtieġ li tiġi stabbilita proċedura ta' salvagwardja speċifika biex jiġi żgurat infurzar adegwat u f'waqtu kontra s-sistemi tal-IA li jippreżentaw riskju għas-saħħa, is-sikurezza u d-drittijiet fundamentali. Jenħtieġ li l-proċedura għal tali sistemi tal-IA li jippreżentaw riskju tiġi applikata għas-sistemi tal-IA b'riskju għoli li jippreżentaw riskju, għas-sistemi pprojbiti li ġew introdotti fis-suq, tqiegħdu fis-servizz jew ntużaw bi ksur tal-prattiki pprojbiti stabbiliti f'dan ir-Regolament u għas-sistemi tal-IA li saru disponibbli bi ksur tar-rekwiżiti ta' trasparenza stabbiliti f'dan ir-Regolament u li jippreżentaw riskju.
(158)
Przepisy prawa Unii dotyczące usług finansowych obejmują zasady i wymogi dotyczące zarządzania wewnętrznego i zarządzania ryzykiem, które mają zastosowanie do regulowanych instytucji finansowych podczas świadczenia tych usług, w tym wówczas, gdy korzystają one z systemów AI. Aby zapewnić spójne stosowanie i egzekwowanie obowiązków ustanowionych w niniejszym rozporządzeniu oraz odpowiednich zasad i wymogów ustanowionych w unijnych aktach prawnych dotyczących usług finansowych, właściwe organy do celów nadzoru nad tymi aktami prawnymi i ich egzekwowania, w szczególności właściwe organy zdefiniowane w rozporządzeniu Parlamentu Europejskiego i Rady (UE) nr 575/2013 (46) oraz dyrektywach Parlamentu Europejskiego i Rady 2008/48/WE (47), 2009/138/WE (48), 2013/36/UE (49), 2014/17/UE (50) i (UE) 2016/97 (51), należy wyznaczyć w ramach ich odpowiednich kompetencji jako właściwe organy do celów nadzoru nad wykonywaniem niniejszego rozporządzenia, w tym do celów działań w zakresie nadzoru rynku, w odniesieniu do systemów AI dostarczanych lub wykorzystywanych przez objęte regulacją i nadzorem instytucje finansowe, chyba że państwa członkowskie zdecydują się wyznaczyć inny organ do wypełniania tych zadań związanych z nadzorem rynku. Te właściwe organy powinny mieć wszystkie uprawnienia wynikające z niniejszego rozporządzenia i rozporządzenia (UE) 2019/1020 w celu egzekwowania wymogów i obowiązków ustanowionych w niniejszym rozporządzeniu, w tym uprawnienia do prowadzenia działań ex post w zakresie nadzoru rynku, które można w stosownych przypadkach włączyć do ich istniejących mechanizmów i procedur nadzorczych na podstawie odpowiednich przepisów prawa Unii dotyczących usług finansowych. Należy przewidzieć, że – działając w charakterze organów nadzoru rynku na podstawie niniejszego rozporządzenia –krajowe organy odpowiedzialne za nadzór nad instytucjami kredytowymi uregulowanymi w dyrektywie 2013/36/UE, które uczestniczą w jednolitym mechanizmie nadzorczym ustanowionym rozporządzeniem Rady (UE) nr 1024/2013 (52), powinny niezwłocznie przekazywać Europejskiemu Bankowi Centralnemu wszelkie informacje zidentyfikowane w trakcie prowadzonych przez siebie działań w zakresie nadzoru rynku, które potencjalnie mogą mieć znaczenie dla Europejskiego Banku Centralnego z punktu widzenia określonych w tym rozporządzeniu zadań EBC dotyczących nadzoru ostrożnościowego. Aby dodatkowo zwiększyć spójność między niniejszym rozporządzeniem a przepisami mającymi zastosowanie do instytucji kredytowych uregulowanych w dyrektywie 2013/36/UE, niektóre obowiązki proceduralne dostawców związane z zarządzaniem ryzykiem, monitorowaniem po wprowadzeniu do obrotu oraz prowadzeniem dokumentacji należy również włączyć do istniejących obowiązków i procedur przewidzianych w dyrektywie 2013/36/UE. Aby uniknąć nakładania się przepisów, należy również przewidzieć ograniczone odstępstwa dotyczące systemu zarządzania jakością prowadzonego przez dostawców oraz obowiązku monitorowania nałożonego na podmioty stosujące systemy AI wysokiego ryzyka w zakresie, w jakim mają one zastosowanie do instytucji kredytowych uregulowanych w dyrektywie 2013/36/UE. Ten sam system powinien mieć zastosowanie do zakładów ubezpieczeń i zakładów reasekuracji oraz ubezpieczeniowych spółek holdingowych na podstawie dyrektywy 2009/138/WE oraz pośredników ubezpieczeniowych na mocy dyrektywy (UE) 2016/97, a także do innych rodzajów instytucji finansowych objętych wymogami dotyczącymi systemu zarządzania wewnętrznego, uzgodnień lub procedur ustanowionych zgodnie z odpowiednimi przepisami prawa Unii dotyczącymi usług finansowych, w celu zapewnienia spójności i równego traktowania w sektorze finansowym.
(158)
Il-liġi tal-Unjoni dwar is-servizzi finanzjarji tinkludi regoli u rekwiżiti interni dwar il-governanza u l-ġestjoni tar-riskju li huma applikabbli għall-istituzzjonijiet finanzjarji regolati waqt il-forniment ta' dawk is-servizzi, inkluż meta jużaw is-sistemi tal-IA. Sabiex ikunu żgurati applikazzjoni u infurzar koerenti tal-obbligi skont dan ir-Regolament u tar-regoli u r-rekwiżiti rilevanti tal-atti legali tal-Unjoni dwar is-servizzi finanzjarji, jenħtieġ li l-awtoritajiet kompetenti għas-superviżjoni u l-infurzar ta' dawk l-atti legali, b'mod partikolari l-awtoritajiet kompetenti kif definiti fir-Regolament (UE) Nru 575/2013 tal-Parlament Ewropew u tal-Kunsill (46) u d-Direttivi 2008/48/KE (47), 2009/138/KE (48), 2013/36/UE (49), 2014/17/UE (50) u (UE) 2016/97 (51) tal-Parlament Ewropew u tal-Kunsill, jiġu ddeżinjati, fil-kompetenzi rispettivi tagħhom, bħala awtoritajiet kompetenti għall-fini tas-superviżjoni tal-implimentazzjoni ta' dan ir-Regolament, inkluż għal attivitajiet ta' sorveljanza tas-suq, fir-rigward tas-sistemi tal-IA pprovduti jew użati minn istituzzjonijiet finanzjarji regolati u sorveljati sakemm l-Istati Membri ma jiddeċidux li jiddeżinjaw awtorità oħra biex twettaq dawn il-kompiti ta' sorveljanza tas-suq. Jenħtieġ li dawk l-awtoritajiet kompetenti jkollhom is-setgħat kollha skont dan ir-Regolament u r-Regolament (UE) 2019/1020 biex jinfurzaw ir-rekwiżiti u l-obbligi ta' dan ir-Regolament, inkluż is-setgħat li jwettqu l-attivitajiet ta' sorveljanza tas-suq ex post li jistgħu jiġu integrati, kif xieraq, fil-mekkaniżmi u l-proċeduri superviżorji eżistenti tagħhom skont il-liġi rilevanti tal-Unjoni dwar is-servizzi finanzjarji. Huwa xieraq li jiġi previst li jenħtieġ li, meta jaġixxu bħala awtoritajiet tas-sorveljanza tas-suq skont dan ir-Regolament, l-awtoritajiet nazzjonali responsabbli għas-superviżjoni tal-istituzzjonijiet ta' kreditu regolati skont id-Direttiva 2013/36/UE, li jkunu qed jipparteċipaw fil-Mekkaniżmu Superviżorju Uniku stabbilit bir-Regolament tal-Kunsill (UE) Nru 1024/2013 (52), jirrappurtaw, mingħajr dewmien, lill-Bank Ċentrali Ewropew kwalunkwe informazzjoni identifikata matul l-attivitajiet tagħhom ta' sorveljanza tas-suq li tista' tkun ta' interess potenzjali għall-kompiti superviżorji prudenzjali tal-Bank Ċentrali Ewropew kif speċifikat f'dak ir-Regolament. Biex tkompli tissaħħaħ il-konsistenza bejn dan ir-Regolament u r-regoli applikabbli għall-istituzzjonijiet ta' kreditu rregolati skont id-Direttiva 2013/36/UE, jixraq ukoll li xi wħud mill-obbligi proċedurali tal-fornituri fir-rigward tal-ġestjoni tar-riskju, il-monitoraġġ ta' wara t-tqegħid fis-suq u tad-dokumentazzjoni jiġu integrati fl-obbligi u l-proċeduri eżistenti skont id-Direttiva 2013/36/UE. Sabiex ikun evitat it-trikkib, jenħtieġ li jiġu previsti wkoll derogi limitati fir-rigward tas-sistema ta' ġestjoni tal-kwalità tal-fornituri u l-obbligu ta' monitoraġġ impost fuq l-implimentaturi ta' sistemi tal-IA b'riskju għoli sa fejn dawn ikunu japplikaw għall-istituzzjonijiet ta' kreditu regolati bid-Direttiva 2013/36/UE. Jenħtieġ li l-istess reġim japplika għall-impriżi tal-assigurazzjoni u tar-riassigurazzjoni u l-kumpaniji azzjonarji tal-assigurazzjoni skont id-Direttiva 2009/138/KE u l-intermedjarji tal-assigurazzjoni skont id-Direttiva (UE) 2016/97 u tipi oħra ta' istituzzjonijiet finanzjarji soġġetti għal rekwiżiti rigward il-governanza interna, l-arranġamenti jew il-proċessi stabbiliti skont il-liġi rilevanti tal-Unjoni dwar is-servizzi finanzjarji biex jiġu żgurati l-konsistenza u t-trattament ugwali fis-settur finanzjarju.
(159)
Każdy organ nadzoru rynku ds. systemów AI wysokiego ryzyka w obszarze danych biometrycznych, wymienionych w załączniku do niniejszego rozporządzenia, o ile systemy te są wykorzystywane do celów ścigania przestępstw, zarządzania migracją, azylem i kontrolą graniczną lub do celów sprawowania wymiaru sprawiedliwości i procesów demokratycznych, powinien dysponować skutecznymi uprawnieniami do prowadzenia postępowań i uprawnieniami naprawczymi, w tym co najmniej uprawnieniami do uzyskania dostępu do wszystkich przetwarzanych danych osobowych oraz do wszelkich informacji niezbędnych do wykonywania jego zadań. Organy nadzoru rynku powinny mieć możliwość wykonywania swoich uprawnień, działając w sposób całkowicie niezależny. Wszelkie ograniczenia dostępu tych organów do wrażliwych danych operacyjnych na mocy niniejszego rozporządzenia powinny pozostawać bez uszczerbku dla uprawnień przyznanych im na mocy dyrektywy (UE) 2016/680. Żadne wyłączenie dotyczące ujawniania danych krajowym organom ochrony danych na mocy niniejszego rozporządzenia nie powinno mieć wpływu na obecne lub przyszłe uprawnienia tych organów wykraczające poza zakres niniejszego rozporządzenia.
(159)
Jenħtieġ li kull awtorità tas-sorveljanza tas-suq għal sistemi tal-IA b'riskju għoli fil-qasam tal-bijometrika, kif elenkati f'anness ta' dan ir-Regolament sakemm dawk is-sistemi jintużaw għall-finijiet tal-infurzar tal-liġi, il-migrazzjoni, l-ażil u l-ġestjoni tal-kontroll fil-fruntieri, jew tal-amministrazzjoni tal-ġustizzja u tal-proċessi demokratiċi, ikollha setgħat investigattivi u korrettivi effettivi, inkluż mill-inqas is-setgħa li tikseb aċċess għad-data personali kollha li tkun qed tiġi pproċessata u għall-informazzjoni kollha meħtieġa għat-twettiq tal-kompiti tagħha. Jenħtieġ li l-awtoritajiet tas-sorveljanza tas-suq ikunu jistgħu jeżerċitaw is-setgħat tagħhom billi jaġixxu b'indipendenza sħiħa. Jenħtieġ li kwalunkwe limitazzjoni tal-aċċess tagħhom għal data operazzjonali sensittiva skont dan ir-Regolament tkun mingħajr preġudizzju għas-setgħat mogħtija lilhom mid-Direttiva (UE) 2016/680. Jenħtieġ li l-ebda esklużjoni fuq id-divulgazzjoni tad-data lill-awtoritajiet tal-protezzjoni tad-data nazzjonali skont dan ir-Regolament ma taffettwa s-setgħat attwali jew futuri ta' dawk l-awtoritajiet lil hinn mill-kamp ta' applikazzjoni ta' dan ir-Regolament.
(160)
Organy nadzoru rynku i Komisja powinny mieć możliwość proponowania wspólnych działań, w tym wspólnych postępowań, które mają być prowadzone przez organy nadzoru rynku lub organy nadzoru rynku wspólnie z Komisją, których celem jest promowanie zgodności, wykrywanie niezgodności, podnoszenie świadomości i zapewnianie wytycznych dotyczących niniejszego rozporządzenia w odniesieniu do konkretnych kategorii systemów AI wysokiego ryzyka, w przypadku których stwierdzono, że stwarzają poważne ryzyko w co najmniej dwóch państwach członkowskich. Wspólne działania na rzecz promowania zgodności należy prowadzić zgodnie z art. 9 rozporządzenia (UE) 2019/1020. Urząd ds. AI powinien zapewniać wsparcie w zakresie koordynacji wspólnych postępowań.
(160)
Jenħtieġ li l-awtoritajiet tas-sorveljanza tas-suq u l-Kummissjoni jkunu jistgħu jipproponu attivitajiet konġunti, inkluż investigazzjonijiet konġunti, li għandhom jitwettqu mill-awtoritajiet tas-sorveljanza tas-suq jew mill-awtoritajiet tas-sorveljanza tas-suq b'mod konġunt mal-Kummissjoni, li jkollhom l-għan li jippromwovu l-konformità, jidentifikaw in-nonkonformità, iqajmu kuxjenza u jipprovdu gwida fir-rigward ta' dan ir-Regolament b'rabta ma' kategoriji speċifiċi ta' sistemi tal-IA b'riskju għoli li jinstabu li jippreżentaw riskju serju f'żewġ Stati Membri jew aktar. Jenħtieġ li l-attivitajiet konġunti għall-promozzjoni tal-konformità jitwettqu f'konformità mal-Artikolu 9 tar-Regolament (UE)2019/1020. Jenħtieġ li l-Uffiċċju għall-IA jipprovdi appoġġ ta' koordinazzjoni għall-investigazzjonijiet konġunti.
(161)
Konieczne jest wyjaśnienie odpowiedzialności i kompetencji na poziomie Unii i poziomie krajowym w odniesieniu do systemów AI, które opierają się na modelach AI ogólnego przeznaczenia. Aby uniknąć nakładania się kompetencji, w przypadku gdy system AI opiera się na modelu AI ogólnego przeznaczenia, a model i system są dostarczone przez tego samego dostawcę, nadzór powinien odbywać się na poziomie Unii za pośrednictwem Urzędu ds. AI, który w tym celu powinien posiadać uprawnienia organu nadzoru rynku w rozumieniu rozporządzenia (UE) 2019/1020. We wszystkich innych przypadkach krajowe organy nadzoru rynku pozostają odpowiedzialne za nadzór nad systemami AI. Natomiast w przypadku systemów AI ogólnego przeznaczenia, które mogą być wykorzystywane bezpośrednio przez podmioty stosujące do co najmniej jednego celu zaklasyfikowanego jako cel wysokiego ryzyka, organy nadzoru rynku powinny współpracować z Urzędem ds. AI przy prowadzeniu ocen zgodności i by odpowiednio informować Radę ds. AI i inne organy nadzoru rynku. Ponadto organy nadzoru rynku powinny mieć możliwość zwrócenia się o pomoc do Urzędu ds. AI, jeżeli organ nadzoru rynku nie jest w stanie zakończyć postępowania w sprawie systemu AI wysokiego ryzyka ze względu na niemożność dostępu do niektórych informacji związanych z modelem AI ogólnego przeznaczenia, na którym opiera się ten system AI wysokiego ryzyka. W takich przypadkach powinna mieć zastosowanie odpowiednio procedura dotycząca wzajemnej pomocy transgranicznej określona w rozdziale VI rozporządzenia (UE) 2019/1020.
(161)
Jenħtieġ li jiġu ċċarati r-responsabbiltajiet u l-kompetenzi fil-livell tal-Unjoni u dak nazzjonali fir-rigward tas-sistemi tal-IA li huma mibnija fuq mudelli tal-IA bi skop ġenerali. Biex jiġu evitati kompetenzi duplikati, meta sistema tal-IA tkun ibbażata fuq mudell tal-IA bi skop ġenerali u l-mudell u s-sistema jiġu pprovduti mill-istess fornitur, jenħtieġ li s-superviżjoni ssir fil-livell tal-Unjoni permezz tal-Uffiċċju għall-IA, li għandu jkollu s-setgħat ta' awtorità tas-sorveljanza tas-suq skont it-tifsira tar-Regolament (UE) 2019/1020 għal dan il-għan. Fil-każijiet l-oħra kollha, l-awtoritajiet tas-sorveljanza tas-suq nazzjonali jibqgħu responsabbli għas-superviżjoni tas-sistemi tal-IA. Madankollu, għal sistemi tal-IA bi skop ġenerali li jistgħu jintużaw direttament mill-implimentaturi għal mill-inqas skop wieħed li huwa kklassifikat bħala b'riskju għoli, jenħtieġ li l-awtoritajiet tas-sorveljanza tas-suq jikkooperaw mal-Uffiċċju għall-IA biex iwettqu evalwazzjonijiet tal-konformità u jinfurmaw lill-Bord u lill-awtoritajiet tas-sorveljanza tas-suq l-oħra skont il-każ. Barra minn hekk, meta l-awtorità tas-sorveljanza tas-suq ma tkunx tista' tikkonkludi investigazzjoni dwar sistema tal-IA b'riskju għoli minħabba li ma jkollhiex aċċess għal ċerta informazzjoni relatata mal-mudell tal-IA bi skop ġenerali li fuqu tkun mibnija s-sistema tal-IA b'riskju għoli, jenħtieġ li l-awtoritajiet tas-sorveljanza tas-suq ikunu jistgħu jitolbu għajnuna mill-Uffiċċju għall-IA. F'każijiet bħal dawn, jenħtieġ li tapplika mutatis mutandis il-proċedura rigward l-assistenza reċiproka f'każijiet transfruntieri fil-Kapitolu VI tar-Regolament (UE) 2019/1020.
(162)
Aby jak najlepiej wykorzystać scentralizowaną unijną wiedzę fachową i synergie na poziomie Unii, uprawnienia w zakresie nadzoru i egzekwowania obowiązków spoczywających na dostawcach modeli AI ogólnego przeznaczenia powinny należeć do kompetencji Komisji. Urząd ds. AI powinien mieć możliwość prowadzenia wszelkich niezbędnych działań w celu monitorowania skutecznego wykonywania niniejszego rozporządzenia w odniesieniu do modeli AI ogólnego przeznaczenia. Powinien mieć możliwość prowadzenia postępowań w sprawie ewentualnych naruszeń przepisów dotyczących dostawców modeli AI ogólnego przeznaczenia zarówno z własnej inicjatywy, na podstawie wyników swoich działań monitorujących, jak i na wniosek organów nadzoru rynku zgodnie z warunkami określonymi w niniejszym rozporządzeniu. W celu wsparcia skutecznego monitorowania Urząd ds. AI powinien ustanowić możliwość składania przez dostawców niższego szczebla skarg na dostawców modeli i systemów AI ogólnego przeznaczenia dotyczących ewentualnych naruszeń przepisów.
(162)
Biex isir l-aħjar użu mill-kompetenza esperta u s-sinerġiji ċentralizzati tal-Unjoni fil-livell tal-Unjoni, jenħtieġ li s-setgħat ta' superviżjoni u infurzar tal-obbligi fuq il-fornituri ta' mudelli tal-IA bi skop ġenerali jkunu kompetenza tal-Kummissjoni. Jenħtieġ li l-Uffiċċju għall-IA jkun jista' jwettaq l-azzjonijiet kollha meħtieġa biex jissorvelja l-implimentazzjoni effettiva ta' dan ir-Regolament fir-rigward tal-mudelli tal-IA bi skop ġenerali. Jenħtieġ li jkun jista' jinvestiga ksur possibbli tar-regoli dwar il-fornituri ta' mudelli tal-IA bi skop ġenerali kemm fuq inizjattiva tiegħu stess, b'segwitu għar-riżultati tal-attivitajiet ta' monitoraġġ tiegħu, kif ukoll fuq talba mill-awtoritajiet tas-sorveljanza tas-suq f'konformità mal-kundizzjonijiet stipulati f'dan ir-Regolament. Jenħtieġ li, biex tappoġġa l-monitoraġġ effettiv tal-Uffiċċju għall-IA, tipprevedi l-possibbiltà li l-fornituri downstream iressqu lmenti dwar ksur possibbli tar-regoli dwar il-fornituri ta' sistemi tal-IA u ta’ mudelli tal-IA bi skop ġenerali.
(163)
W celu uzupełnienia systemów zarządzania modelami AI ogólnego przeznaczenia panel naukowy powinien wspierać działania monitorujące Urzędu ds. AI i może, w niektórych przypadkach, przekazywać Urzędowi ds. AI ostrzeżenia kwalifikowane, które uruchamiają działania następcze, takie jak postępowania. Powinno to mieć miejsce w przypadku, gdy panel naukowy ma powody, by podejrzewać, że model AI ogólnego przeznaczenia stwarza konkretne i możliwe do zidentyfikowania ryzyko na poziomie Unii. Ponadto powinno to mieć miejsce w przypadku, gdy panel naukowy ma powody, by podejrzewać, że model AI ogólnego przeznaczenia spełnia kryteria, które prowadziłyby do zaklasyfikowania go jako modelu AI ogólnego przeznaczenia z ryzykiem systemowym. Aby panel naukowy mógł dysponować informacjami niezbędnymi do wykonywania tych zadań, powinien istnieć mechanizm, w ramach którego panel naukowy może zwrócić się do Komisji, aby wystąpiła do dostawcy z wnioskiem o przedstawienie dokumentacji lub informacji.
(163)
Bil-ħsieb li jikkomplementa s-sistemi ta' governanza għall-mudelli tal-IA bi skop ġenerali, jenħtieġ li l-bord jappoġġa l-attivitajiet ta' monitoraġġ tal-Uffiċċju għall-IA u jista', f'ċerti każijiet, jipprovdi allerti kwalifikati lill-Uffiċċju għall-IA li jiskattaw segwitu bħal investigazzjonijiet. Dan jenħtieġ li jkun il-każ meta l-bord ikollu raġuni biex jissuspetta li mudell tal-IA bi skop ġenerali joħloq riskju konkret u identifikabbli fil-livell tal-Unjoni. Barra minn hekk, dan jenħtieġ li jkun il-każ meta l-bord ikollu raġuni biex jissuspetta li mudell tal-IA bi skop ġenerali jissodisfa l-kriterji li jwasslu għal klassifikazzjoni bħala mudell tal-IA bi skop ġenerali b'riskju sistemiku. Sabiex il-bord ikollu l-informazzjoni meħtieġa għat-twettiq ta' dawk il-kompiti, jenħtieġ li jkun hemm mekkaniżmu li permezz tiegħu l-bord ikun jista' jitlob lill-Kummissjoni titlob dokumentazzjoni jew informazzjoni mingħand fornitur.
(164)
Urząd ds. AI powinien mieć możliwość podejmowania niezbędnych działań w celu monitorowania skutecznego wdrażania i spełniania obowiązków przez dostawców modeli AI ogólnego przeznaczenia określonych w niniejszym rozporządzeniu. Urząd ds. AI powinien mieć możliwość prowadzenia postępowań w sprawie ewentualnych naruszeń zgodnie z uprawnieniami przewidzianymi w niniejszym rozporządzeniu, w tym poprzez zwracanie się o dokumentację i informacje, przeprowadzanie ocen, a także zwracanie się do dostawców modeli AI ogólnego przeznaczenia o zastosowanie określonych środków. Aby wykorzystać niezależną wiedzę fachową w ramach prowadzenia ocen, Urząd ds. AI powinien mieć możliwość angażowania niezależnych ekspertów do przeprowadzania ocen w jego imieniu. Spełnienie obowiązków powinno być możliwe do wyegzekwowania m.in. poprzez wezwanie do podjęcia odpowiednich środków, w tym środków ograniczających ryzyko w przypadku zidentyfikowanego ryzyka systemowego, a także poprzez ograniczenie udostępniania modelu na rynku, wycofanie modelu z rynku lub z użytku. Jako zabezpieczenie, jeśli zaistnieją potrzeby wykraczające poza prawa proceduralne przewidziane w niniejszym rozporządzeniu, dostawcy modeli AI ogólnego przeznaczenia powinni dysponować prawami proceduralnymi przewidzianymi w art. 18 rozporządzenia (UE) 2019/1020, które powinny mieć zastosowanie odpowiednio, bez uszczerbku dla bardziej szczególnych praw proceduralnych przewidzianych w niniejszym rozporządzeniu.
(164)
Jenħtieġ li l-Uffiċċju għall-IA jkun jista' jieħu l-azzjonijiet meħtieġa biex jimmonitorja l-implimentazzjoni effettiva u l-konformità mal-obbligi għall-fornituri ta' mudelli tal-IA bi skop ġenerali stabbiliti f'dan ir-Regolament. Jenħtieġ li l-Uffiċċju għall-IA jkun jista' jinvestiga ksur possibbli f'konformità mas-setgħat previsti f'dan ir-Regolament, inkluż billi jitlob dokumentazzjoni u informazzjoni, billi jwettaq evalwazzjonijiet, kif ukoll billi jitlob miżuri mill-fornituri ta' mudelli tal-IA bi skop ġenerali. Meta jwettaq l-evalwazzjonijiet, sabiex isir użu minn kompetenza esperta indipendenti, jenħtieġ li l-Uffiċċju għall-IA jkun jista' jinvolvi esperti indipendenti biex iwettqu l-evalwazzjonijiet f'ismu. Jenħtieġ li l-konformità mal-obbligi tkun infurzabbli, fost l-oħrajn, permezz ta' talbiet biex jittieħdu miżuri xierqa, inkluż miżuri ta' mitigazzjoni tar-riskju fil-każ ta' riskji sistemiċi identifikati kif ukoll ir-restrizzjoni tad-disponibbiltà fis-suq, l-irtirar jew is-sejħa lura tal-mudell. Bħala salvagwardja, fejn meħtieġ lil hinn mid-drittijiet proċedurali previsti f'dan ir-Regolament, jenħtieġ li l-fornituri ta' mudelli tal-IA bi skop ġenerali jkollhom id-drittijiet proċedurali previsti fl-Artikolu 18 tar-Regolament (UE) 2019/1020, li għandhom japplikaw mutatis mutandis, mingħajr preġudizzju għal drittijiet proċedurali aktar speċifiċi previsti minn dan ir-Regolament.
(165)
Rozwój systemów AI innych niż systemy AI wysokiego ryzyka zgodnie z wymogami niniejszego rozporządzenia może doprowadzić do szerszego upowszechnienia etycznej i godnej zaufania AI w Unii. Dostawców systemów AI niebędących systemami wysokiego ryzyka należy zachęcać do opracowywania kodeksów postępowania, w tym powiązanych mechanizmów zarządzania, wspierających dobrowolne stosowanie niektórych lub wszystkich obowiązkowych wymogów mających zastosowanie do systemów AI wysokiego ryzyka, dostosowanych do przeznaczenia tych systemów i związanego z nimi niższego ryzyka oraz z uwzględnieniem dostępnych rozwiązań technicznych i najlepszych praktyk branżowych, takich jak karty modeli i karty charakterystyki. Dostawców wszystkich systemów AI, zarówno wysokiego ryzyka, jak i nie stanowiących wysokiego ryzyka, oraz modeli AI, a w stosownych przypadkach, podmioty stosujące te systemy i modele należy również zachęcać do dobrowolnego stosowania dodatkowych wymogów dotyczących na przykład elementów unijnych Wytycznych w zakresie etyki dotyczących godnej zaufania sztucznej inteligencji, zrównoważenia środowiskowego, środków wspierających kompetencje w zakresie AI, projektowania i rozwoju systemów AI z uwzględnieniem różnorodności i inkluzywności, w tym szczególnej uwagi poświęconej osobom szczególnie wrażliwym i dostępności dla osób z niepełnosprawnościami, udziału zainteresowanych stron w tym, w stosownych przypadkach, organizacji przedsiębiorców i społeczeństwa obywatelskiego, środowisk akademickich, organizacji badawczych, związków zawodowych i organizacji ochrony konsumentów w projektowaniu i rozwoju systemów AI oraz dotyczących różnorodności zespołów programistycznych, w tym pod względem równowagi płci. W celu zapewnienia skuteczności dobrowolnych kodeksów postępowania, powinny się one opierać się na jasnych celach i kluczowych wskaźnikach skuteczności działania służących do pomiaru stopnia osiągnięcia tych celów. Należy je również rozwijać w sposób inkluzywny, w stosownych przypadkach, z udziałem odpowiednich zainteresowanych stron, takich jak organizacje przedsiębiorców i społeczeństwa obywatelskiego, środowiska akademickie, organizacje badawcze, związki zawodowe i organizacje ochrony konsumentów. Komisja może opracowywać inicjatywy, również o charakterze sektorowym, aby ułatwiać zmniejszanie barier technicznych utrudniających transgraniczną wymianę danych na potrzeby rozwoju AI, w tym w zakresie infrastruktury dostępu do danych oraz interoperacyjności semantycznej i technicznej różnych rodzajów danych.
(165)
L-iżvilupp ta' sistemi tal-IA minbarra sistemi tal-IA b'riskju għoli f'konformità mar-rekwiżiti ta' dan ir-Regolament, jista' jwassal għal użu akbar ta' IA etika u affidabbli fl-Unjoni. Jenħtieġ li l-fornituri ta' sistemi tal-IA li mhumiex b'riskju għoli jiġu mħeġġa joħolqu kodiċijiet tal-kondotta, inkluż mekkaniżmi ta' governanza relatati, maħsuba biex irawmu l-applikazzjoni volontarja ta' xi wħud mir-rekwiżiti obbligatorji jew tar-rekwiżiti kollha applikabbli għas-sistemi tal-IA b'riskju għoli, adattati fid-dawl tal-għan maħsub tas-sistemi u r-riskju aktar baxx involut u filwaqt li jitqiesu s-soluzzjonijiet tekniċi disponibbli u l-aħjar prattiki tal-industrija bħal kards mudell u kards tad-data. Jenħtieġ li l-fornituri u, kif xieraq, l-implimentaturi tas-sistemi kollha tal-IA, b'riskju għoli jew le, u l-mudelli tal-IA jiġu wkoll mħeġġa japplikaw fuq bażi volontarja rekwiżiti addizzjonali relatati, pereżempju, mal-elementi tal-Linji Gwida tal-Unjoni dwar l-Etika għal IA Affidabbli, sostenibbiltà ambjentali, miżuri ta' litteriżmu fl-IA, disinn u żvilupp inklużivi u diversi tas-sistemi tal-IA, inkluż l-attenzjoni għall-persuni vulnerabbli u l-aċċessibbiltà għall-persuni b'diżabbiltà, il-parteċipazzjoni tal-partijiet ikkonċernati bl-involviment kif xieraq, tal-partijiet ikkonċernati rilevanti bħall-organizzazzjonijiet tan-negozju u tas-soċjetà ċivili, id-dinja akkademika, l-organizzazzjonijiet tar-riċerka, it-trade unions u l-organizzazzjonijiet tal-protezzjoni tal-konsumatur fid-disinn u l-iżvilupp tas-sistemi tal-IA, u d-diversità tat-timijiet tal-iżvilupp, inkluż il-bilanċ bejn il-ġeneri. Sabiex jiġi żgurat li l-kodiċijiet ta' kondotta volontarji jkunu effettivi, jenħtieġ li jkunu bbażati fuq objettivi ċari u indikaturi ewlenin tal-prestazzjoni biex titkejjel il-kisba ta' dawk l-objettivi. Jenħtieġ li dawn jiġu żviluppati wkoll b'mod inklużiv, kif xieraq, bl-involviment tal-partijiet ikkonċernati rilevanti bħall-organizzazzjonijiet tan-negozju u tas-soċjetà ċivili, id-dinja akkademika, l-organizzazzjonijiet tar-riċerka, it-trade unions u l-organizzazzjonijiet tal-protezzjoni tal-konsumatur. Il-Kummissjoni tista' tiżviluppa inizjattivi, inkluż ta' natura settorjali, biex tiffaċilita t-tnaqqis tax-xkiel tekniku li jfixkel l-iskambju transfruntier tad-data għall-iżvilupp tal-IA, inkluż dwar l-infrastruttura tal-aċċess għad-data, u l-interoperabbiltà semantika u teknika ta' tipi differenti ta' data.
(166)
Istotne jest, aby systemy AI powiązane z produktami, które nie są systemami wysokiego ryzyka w rozumieniu niniejszego rozporządzenia, a zatem nie muszą być zgodne z wymogami ustanowionymi w przypadku systemów AI wysokiego ryzyka, były mimo to bezpieczne w chwili wprowadzenia ich do obrotu lub oddawania ich do użytku. Aby przyczynić się do osiągnięcia tego celu, rozporządzenie Parlamentu Europejskiego i Rady (UE) 2023/988 (53) miałoby zastosowanie jako rozwiązanie zapasowe.
(166)
Hu importanti li s-sistemi tal-IA relatati ma' prodotti li mhumiex b'riskju għoli f'konformità ma' dan ir-Regolament, u għalhekk ma għandhomx għalfejn jikkonformaw mar-rekwiżiti stipulati għal sistemi tal-IA b'riskju għoli, xorta waħda jkunu sikuri meta jiġu introdotti fis-suq jew meta jitqiegħdu fis-servizz. B'kontribut għal dan l-objettiv, ir-Regolament (UE) 2023/988 tal-Parlament Ewropew u tal-Kunsill (53) japplika bħala xibka ta' sikurezza.
(167)
W celu zapewnienia opartej na zaufaniu i konstruktywnej współpracy właściwych organów na poziomie Unii i poziomie krajowym wszystkie strony uczestniczące w stosowaniu niniejszego rozporządzenia powinny przestrzegać zasady poufności informacji i danych uzyskanych podczas wykonywania swoich zadań, zgodnie z prawem Unii lub prawem krajowym. Powinny one wykonywać swoje zadania i prowadzić działania w taki sposób, aby chronić w szczególności prawa własności intelektualnej, poufne informacje handlowe i tajemnice przedsiębiorstwa, skuteczne wykonywanie niniejszego rozporządzenia, interesy bezpieczeństwa publicznego i narodowego, integralność postępowań karnych i administracyjnych oraz integralność informacji niejawnych.
(167)
Sabiex tkun żgurata kooperazzjoni fiduċjuża u kostruttiva tal-awtoritajiet kompetenti fil-livell tal-Unjoni u dak nazzjonali, jenħtieġ li l-partijiet kollha involuti fl-applikazzjoni ta' dan ir-Regolament jirrispettaw il-kunfidenzjalità tal-informazzjoni u tad-data miksuba fit-twettiq tal-kompiti tagħhom, f'konformità mal-liġi tal-Unjoni jew il-liġi nazzjonali. Jenħtieġ li jwettqu l-kompiti u l-attivitajiet tagħhom b'tali mod li jipproteġu, b'mod partikolari, id-drittijiet tal-proprjetà intellettwali, l-informazzjoni kummerċjali kunfidenzjali u s-sigrieti kummerċjali, l-implimentazzjoni effettiva ta' dan ir-Regolament, l-interessi tas-sigurtà pubblika u nazzjonali, l-integrità tal-proċedimenti kriminali u amministrattivi, u l-integrità tal-informazzjoni klassifikata.
(168)
Zgodność z niniejszym rozporządzeniem powinna być możliwa do wyegzekwowania poprzez nakładanie kar i innych środków egzekwowania prawa. Państwa członkowskie powinny podjąć wszelkie niezbędne środki, aby zapewnić wdrożenie przepisów niniejszego rozporządzenia, w tym poprzez ustanowienie skutecznych, proporcjonalnych i odstraszających kar za ich naruszenie, oraz poszanowanie zasady ne bis in idem. Aby wzmocnić i zharmonizować kary administracyjne za naruszenie niniejszego rozporządzenia należy ustanowić górne limity dla ustalania administracyjnych kar pieniężnych za niektóre konkretne naruszenia. Przy ocenie wysokości kar pieniężnych, państwa członkowskie powinny w każdym indywidualnym przypadku brać pod uwagę wszystkie istotne okoliczności danej sytuacji, z należytym uwzględnieniem w szczególności charakteru, wagi i czasu trwania naruszenia oraz jego skutków, a także wielkości dostawcy, w szczególności faktu, czy dostawca jest MŚP, w tym przedsiębiorstwem typu start-up. Europejski Inspektor Ochrony Danych powinien mieć uprawnienia do nakładania kar pieniężnych na instytucje, organy i jednostki organizacyjne Unii objęte zakresem stosowania niniejszego rozporządzenia.
(168)
Għalhekk jenħtieġ li l-konformità ma' dan ir-Regolament tkun infurzabbli permezz tal-impożizzjoni ta' penali u miżuri ta' infurzar oħra. Jenħtieġ li l-Istati Membri jieħdu l-miżuri meħtieġa kollha biex jiżguraw li d-dispożizzjonijiet ta' dan ir-Regolament jiġu implimentati, inkluż billi jistabbilixxu penali effettivi, proporzjonati u dissważivi għall-ksur tagħhom, u biex jiġi rrispettat il-prinċipju ta' ne bis in idem. Sabiex jissaħħu u jiġu armonizzati l-penali amministrattivi għall-ksur ta' dan ir-Regolament, jenħtieġ li jiġu stabbiliti l-limiti massimi għall-istabbiliment tal-multi amministrattivi għal ċertu ksur speċifiku. Meta jivvalutaw l-ammont tal-multi, jenħtieġ li l-Istati Membri, f'kull każ individwali, iqisu ċ-ċirkostanzi rilevanti kollha tas-sitwazzjoni speċifika, b'kunsiderazzjoni xierqa b'mod partikolari għan-natura, il-gravità u d-durata tal-ksur u tal-konsegwenzi tiegħu u għad-daqs tal-fornitur, b'mod partikolari jekk il-fornitur ikun SME jew negozju ġdid. Jenħtieġ li l-Kontrollur Ewropew għall-Protezzjoni tad-Data jkollu s-setgħa jimponi multi fuq l-istituzzjonijiet, l-aġenziji u l-korpi tal-Unjoni li jaqgħu fil-kamp ta' applikazzjoni ta' dan ir-Regolament.
(169)
Spełnienie obowiązków spoczywających na dostawcach modeli AI ogólnego przeznaczenia nałożonych na mocy niniejszego rozporządzenia powinna być możliwa do wyegzekwowania między innymi za pomocą kar pieniężnych. W tym celu należy również ustanowić odpowiednią wysokość kar pieniężnych za naruszenie tych obowiązków, w tym za niezastosowanie środków wymaganych przez Komisję zgodnie z niniejszym rozporządzeniem, z zastrzeżeniem odpowiednich terminów przedawnienia zgodnie z zasadą proporcjonalności. Wszystkie decyzje przyjmowane przez Komisję na podstawie niniejszego rozporządzenia podlegają kontroli Trybunału Sprawiedliwości Unii Europejskiej zgodnie z TFUE, w tym nieograniczonemu prawu orzekania zgodnie z art. 261 TFUE.
(169)
Jenħtieġ li l-konformità mal-obbligi fuq il-fornituri ta' mudelli tal-IA bi skop ġenerali imposti skont dan ir-Regolament tkun infurzabbli, fost l-oħrajn, permezz ta' multi. Għal dak l-għan, jenħtieġ li jiġu stabbiliti wkoll livelli xierqa ta' multi għall-ksur ta' dawk l-obbligi, inkluż in-nuqqas ta' konformità mal-miżuri mitluba mill-Kummissjoni f'konformità ma' dan ir-Regolament, soġġett għal perjodi ta' limitazzjoni xierqa f'konformità mal-prinċipju tal-proporzjonalità. Id-deċiżjonijiet kollha meħuda mill-Kummissjoni skont dan ir-Regolament huma soġġetti għal rieżami mill-Qorti tal-Ġustizzja tal-Unjoni Ewropea f'konformità mat-TFUE, inkluża l-ġuriżdizzjoni illimitata tal-Qorti tal-Ġustizzja fir-rigward tal-penali skontl-Artikolu 261 TFUE.
(170)
W przepisach prawa Unii i prawa krajowego przewidziano już skuteczne środki odwoławcze dla osób fizycznych i prawnych, na których prawa i wolności negatywnie wpływa wykorzystanie systemów AI. Bez uszczerbku dla tych środków odwoławczych każda osoba fizyczna lub prawna, która ma podstawy, by uważać, że doszło do naruszenia niniejszego rozporządzenia, powinna być uprawniona do wniesienia skargi do odpowiedniego organu nadzoru rynku.
(170)
Il-liġi tal-Unjoni u l-liġi nazzjonali diġà jipprovdu rimedji effettivi għall-persuni fiżiċi u ġuridiċi li d-drittijiet u l-libertajiet tagħhom jiġu affettwati b'mod negattiv mill-użu tas-sistemi tal-IA. Mingħajr preġudizzju għal dawk ir-rimedji, jenħtieġ li kwalunkwe persuna fiżika jew ġuridika li jkollha raġunijiet biex tqis li kien hemm ksur ta' dan ir-Regolament tkun intitolata tressaq ilment lill-awtorità tas-sorveljanza tas-suq rilevanti.
(171)
Osoby, na które AI ma wpływ, powinny mieć prawo do uzyskania wyjaśnienia, jeżeli decyzja podmiotu stosującego opiera się głównie na wynikach określonych systemów AI wysokiego ryzyka objętych zakresem stosowania niniejszego rozporządzenia i jeżeli decyzja ta wywołuje skutki prawne lub podobnie znacząco oddziałuje na te osoby w sposób, który ich zdaniem ma niepożądany wpływ na ich zdrowie, bezpieczeństwo lub prawa podstawowe. Wyjaśnienie to powinno być jasne i merytoryczne oraz powinno dawać osobom, na które AI ma wpływ, podstawę do korzystania z ich praw. Prawo do uzyskania wyjaśnienia nie powinno mieć zastosowania do wykorzystania systemów AI, co do których na mocy przepisów praw Unii lub prawa krajowego obowiązują wyjątki lub ograniczenia, i powinno mieć zastosowanie wyłącznie w zakresie, w jakim prawo to nie jest jeszcze przewidziane w przepisach prawa Unii.
(171)
Jenħtieġ li l-persuni affettwati jkollhom id-dritt li jiksbu spjegazzjoni meta deċiżjoni tal-implimentatur tkun ibbażata prinċipalment fuq l-output minn ċerti sistemi tal-IA b'riskju għoli li jaqgħu fil-kamp ta' applikazzjoni ta' dan ir-Regolament u meta dik id-deċiżjoni tipproduċi effetti legali jew taffettwa b'mod sinifikanti b'mod simili lil dawk il-persuni b'mod li jqisu li għandu impatt negattiv fuq is-saħħa, is-sikurezza jew id-drittijiet fundamentali tagħhom. Jenħtieġ li dik l-ispjegazzjoni tkun ċara u sinifikanti u jenħtieġ li tipprovdi bażi li fuqha l-persuni affettwati jkunu jistgħu jeżerċitaw id-drittijiet tagħhom. Jenħtieġ li d-dritt li tinkiseb spjegazzjoni ma japplikax għall-użu ta' sistemi tal-IA li fir-rigward tagħhom joħorġu eċċezzjonijiet jew restrizzjonijiet mil-liġi tal-Unjoni jew dik nazzjonali u jenħtieġ li japplika biss sa fejn dan id-dritt ma jkunx diġà previst fil-liġi tal-Unjoni.
(172)
Osoby działające w charakterze sygnalistów w związku z naruszeniami niniejszego rozporządzenia powinny być chronione na mocy prawa Unii. Do zgłaszania naruszeń przepisów niniejszego rozporządzenia oraz ochrony osób zgłaszających przypadki takich naruszeń powinno zatem stosować się dyrektywę Parlamentu Europejskiego i Rady (UE) 2019/1937 (54).
(172)
Jenħtieġ li l-persuni li jaġixxu bħala informaturi dwar il-ksur ta' dan ir-Regolament jiġu protetti skont il-liġi tal-Unjoni. Għalhekk, jenħtieġ li d-Direttiva (UE) 2019/1937 tal-Parlament Ewropew u tal-Kunsill (54) tapplika għar-rappurtar ta' ksur ta' dan ir-Regolament u għall-protezzjoni tal-persuni li jirrappurtaw tali ksur.
(173)
Aby zapewnić możliwość dostosowania w razie potrzeby ram regulacyjnych, należy przekazać Komisji uprawnienia do przyjmowania aktów zgodnie z art. 290 TFUE w celu zmiany warunków, na podstawie których systemu AI nie uznaje się za system AI wysokiego ryzyka, zmiany wykazu systemów AI wysokiego ryzyka, przepisów dotyczących dokumentacji technicznej, treści deklaracji zgodności UE, przepisów dotyczących procedur oceny zgodności, przepisów określających systemy AI wysokiego ryzyka, do których powinna mieć zastosowanie procedura oceny zgodności oparta na ocenie systemu zarządzania jakością oraz ocenie dokumentacji technicznej, progu, poziomów odniesienia i wskaźników, które zostały określone w przepisach dotyczących klasyfikacji modeli AI ogólnego przeznaczenia z ryzykiem systemowym, w tym poprzez uzupełnienie tych poziomów odniesienia i wskaźników, kryteriów uznawania modeli za modele AI ogólnego przeznaczenia z ryzykiem systemowym, dokumentacji technicznej dostawców modeli AI ogólnego przeznaczenia oraz informacji dotyczących przejrzystości od dostawców modeli AI ogólnego przeznaczenia. Szczególnie ważne jest, aby w czasie prac przygotowawczych Komisja prowadziła stosowne konsultacje, w tym na poziomie ekspertów, oraz aby konsultacje te prowadzone były zgodnie z zasadami określonymi w Porozumieniu międzyinstytucjonalnym z dnia 13 kwietnia 2016 r. w sprawie lepszego stanowienia prawa (55). W szczególności, aby zapewnić Parlamentowi Europejskiemu i Radzie udział na równych zasadach w przygotowaniu aktów delegowanych, instytucje te otrzymują wszelkie dokumenty w tym samym czasie co eksperci państw członkowskich, a eksperci tych instytucji mogą systematycznie brać udział w posiedzeniach grup eksperckich Komisji zajmujących się przygotowaniem aktów delegowanych.
(173)
Sabiex ikun żgurat li l-qafas regolatorju jista' jiġi adattat fejn meħtieġ, jenħtieġ li s-setgħa li jiġu adottati atti f'konformità mal-Artikolu 290 TFUE tiġi ddelegata lill-Kummissjoni biex temenda l-kundizzjonijiet li taħthom sistema tal-IA ma titqiesx li tkun ta' riskju għoli, il-lista tas-sistemi tal-IA b'riskju għoli, id-dispożizzjonijiet dwar id-dokumentazzjoni teknika, il-kontenut tad-dikjarazzjoni ta' konformità tal-UE, id-dispożizzjonijiet dwar il-proċeduri ta' valutazzjoni tal-konformità, id-dispożizzjonijiet li jistabbilixxu s-sistemi tal-IA b'riskju għoli li għalihom jenħtieġ tapplika l-proċedura ta' valutazzjoni tal-konformità bbażata fuq il-valutazzjoni tas-sistema ta' ġestjoni tal-kwalità u fuq il-valutazzjoni tad-dokumentazzjoni teknika, il-limitu massimu, il-paramentri referenzjarji u l-indikaturi, inkluż billi jiġu ssupplimentati dawk il-paramentri referenzjarji u l-indikaturi fir-regoli għall-klassifikazzjoni ta' mudelli tal-IA bi skop ġenerali b'riskju sistemiku, il-kriterji għad-deżinjazzjoni ta' mudelli tal-IA bi skop ġenerali b'riskju sistemiku, id-dokumentazzjoni teknika għall-fornituri ta' mudelli tal-IA bi skop ġenerali u t-trasparenza tal-informazzjoni għall-fornituri ta' mudelli tal-IA bi skop ġenerali. Hu partikolarment importanti li tul il-ħidma preparatorja tagħha, il-Kummissjoni twettaq konsultazzjonijiet xierqa, inkluż fil-livell ta' esperti, u li dawk il-konsultazzjonijiet isiru f'konformità mal-prinċipji stabbiliti fil-Ftehim Interistituzzjonali tat-13 ta' April 2016 dwar it-Tfassil Aħjar tal-Liġijiet (55). B'mod partikolari, biex tiġi żgurata parteċipazzjoni ugwali fit-tħejjija tal-atti delegati, il-Parlament Ewropew u l-Kunsill jirċievu d-dokumenti kollha fl-istess ħin li jirċevuhom l-esperti tal-Istati Membri, u l-esperti tagħhom sistematikament ikollhom aċċess għal-laqgħat tal-gruppi ta' esperti tal-Kummissjoni li jittrattaw it-tħejjija ta' atti delegati.
(174)
Z uwagi na szybki rozwój technologiczny i wiedzę techniczną wymaganą do skutecznego stosowania niniejszego rozporządzenia, Komisja powinna dokonać oceny i przeglądu niniejszego rozporządzenia do dnia 2 sierpnia 2029 r., a następnie co cztery lata oraz składać sprawozdania Parlamentowi Europejskiemu i Radzie. Ponadto ze względu na skutki dla zakresu stosowania niniejszego rozporządzenia Komisja powinna raz w roku ocenić, czy konieczne jest wprowadzenie zmian w wykazie systemów AI wysokiego ryzyka i w wykazie zakazanych praktyk. Dodatkowo do dnia 2 sierpnia 2028 r., a następnie co cztery lata, Komisja powinna ocenić, czy należy wprowadzić zmiany w wykazie nagłówków dotyczących obszarów wysokiego ryzyka zawartym w załączniku do niniejszego rozporządzenia, zmiany w zakresie systemów AI objętych obowiązkami w zakresie przejrzystości, zmiany służące skuteczności systemu nadzoru i zarządzania oraz ocenić postępy w opracowywaniu dokumentów normalizacyjnych dotyczących efektywnego energetycznie rozwoju modeli AI ogólnego przeznaczenia, w tym potrzebę wprowadzenia dalszych środków lub działań, a następnie przekazać sprawozdania z tych ocen Parlamentowi Europejskiemu i Radzie. Ponadto do dnia 2 sierpnia 2028 r., a następnie co trzy lata, Komisja powinna oceniać wpływ i skuteczność dobrowolnych kodeksów postępowania pod względem wspierania stosowania wymogów przewidzianych w przypadku systemów AI wysokiego ryzyka do systemów AI innych niż systemy AI wysokiego ryzyka oraz ewentualnie innych dodatkowych wymogów dotyczących takich systemów AI.
(174)
Minħabba l-iżviluppi teknoloġiċi rapidi u l-kompetenza esperta teknika meħtieġa biex dan ir-Regolament jiġi implimentat b’mod effettiv, jenħtieġ li l-Kummissjoni tevalwa u tirrieżamina dan ir-Regolament sat-2 ta’ Awwissu 2029 u kull erba' snin minn hemm 'il quddiem u tirrapporta lura lill-Parlament Ewropew u lill-Kunsill. Barra minn hekk, filwaqt li tqis l-implikazzjonijiet għall-kamp ta' applikazzjoni ta' dan ir-Regolament, jenħtieġ li l-Kummissjoni twettaq valutazzjoni tal-ħtieġa li darba fis-sena jiġu emendati l-lista tas-sistemi tal-IA b'riskju għoli u l-lista ta' prattiki pprojbiti. Barra minn hekk, sat-2 ta’ Awwissu 2028 u kull erba' snin wara dan, jenħtieġ li l-Kummissjoni tevalwa u tirrapporta lura lill-Parlament Ewropew u lill-Kunsill dwar il-ħtieġa li jiġu emendati l-lista tal-intestaturi ta’ oqsma b'riskju għoli fl-anness ta' dan ir-Regolament, is-sistemi tal-IA fil-kamp ta' applikazzjoni tal-obbligi tat-trasparenza, l-effettività tas-sistema tas-superviżjoni u tal-governanza u l-progress fl-iżvilupp ta' strumenti ta' standardizzazzjoni dwar l-iżvilupp effiċjenti fl-użu tal-enerġija ta' mudelli tal-IA bi skop ġenerali, inkluż il-ħtieġa għal aktar miżuri jew azzjonijiet. Fl-aħħar nett, sat-2 ta’ Awwissu 2028 u kull tliet snin minn hemm 'il quddiem, jenħtieġ li l-Kummissjoni tevalwa l-impatt u l-effettività tal-kodiċijiet tal-kondotta volontarji biex trawwem l-applikazzjoni tar-rekwiżiti previsti għas-sistemi tal-IA b'riskju għoli fil-każ ta' sistemi tal-IA għajr sistemi tal-IA b'riskju għoli u possibbilment rekwiżiti addizzjonali oħra għal tali sistemi tal-IA.
(175)
W celu zapewnienia jednolitych warunków wykonywania niniejszego rozporządzenia należy powierzyć Komisji uprawnienia wykonawcze. Uprawnienia te powinny być wykonywane zgodnie z rozporządzeniem Parlamentu Europejskiego i Rady (UE) nr 182/2011 (56).
(175)
Sabiex ikunu żgurati kundizzjonijiet uniformi għall-implimentazzjoni ta' dan ir-Regolament, jenħtieġ li l-Kummissjoni tingħata setgħat ta' implimentazzjoni. Jenħtieġ li dawk is-setgħat ikunu eżerċitati f'konformità mar-Regolament (UE) Nru 182/2011 tal-Parlament Ewropew u tal-Kunsill (56).
(176)
Ponieważ cel niniejszego rozporządzenia, a mianowicie poprawa funkcjonowania rynku wewnętrznego i promowanie upowszechniania zorientowanej na człowieka i godnej zaufania AI, przy jednoczesnym zapewnieniu wysokiego poziomu ochrony zdrowia, bezpieczeństwa i praw podstawowych zapisanych w Karcie, w tym demokracji, praworządności i ochrony środowiska przed szkodliwymi skutkami systemów AI w Unii, oraz wspieranie innowacji, nie może zostać osiągnięty w sposób wystarczający przez państwa członkowskie, natomiast ze względu na rozmiary lub skutki działania możliwe jest jego lepsze osiągnięcie na poziomie Unii, może ona podjąć działania zgodnie z zasadą pomocniczości określoną w art. 5 TUE. Zgodnie z zasadą proporcjonalności określoną w tym artykule niniejsze rozporządzenie nie wykracza poza to, co jest konieczne do osiągnięcia tego celu.
(176)
Minħabba li l-objettiv ta' dan ir-Regolament, jiġifieri li jtejjeb il-funzjonament tas-suq intern u jippromwovi l-adozzjoni ta' IA ċċentrata fuq il-bniedem u affidabbli, filwaqt li jiżgura livell għoli ta' protezzjoni tas-saħħa, tas-sikurezza u tad-drittijiet fundamentali minquxa fil-Karta, inkluż id-demokrazija, l-istat tad-dritt u l-protezzjoni ambjentali kontra l-effetti ta' ħsara tas-sistemi tal-IA fl-Unjoni u jappoġġa l-innovazzjoni, ma jistax jinkiseb b'mod suffiċjenti mill-Istati Membri u jista' pjuttost, minħabba l-iskala jew l-effetti tal-azzjoni, jinkiseb aħjar fil-livell tal-Unjoni, l-Unjoni tista' tadotta miżuri f'konformità mal-prinċipju ta’ sussidjarjetà kif stabbilit fl-Artikolu 5 TUE. F'konformità mal-prinċipju ta’ proporzjonalità, kif stabbilit f'dak l-Artikolu, dan ir-Regolament ma jmurx lil hinn minn dak meħtieġ sabiex jinkiseb dak l-objettiv.
(177)
Aby zapewnić pewność prawa, zapewnić operatorom odpowiedni okres na dostosowanie się i uniknąć zakłóceń na rynku, w tym dzięki zapewnieniu ciągłości korzystania z systemów AI, niniejsze rozporządzenie należy stosować do systemów AI wysokiego ryzyka, które zostały wprowadzone do obrotu lub oddane do użytku przed ogólną datą rozpoczęcia jego stosowania, tylko wtedy, gdy po tej dacie w systemach tych wprowadzane będą istotne zmiany dotyczące ich projektu lub przeznaczeniu. Należy wyjaśnić, że w tym względzie pojęcie istotnej zmiany należy rozumieć jako równoważne znaczeniowo z pojęciem istotnej zmiany, które stosuje się wyłącznie w odniesieniu do systemów AI wysokiego ryzyka zgodnie z niniejszym rozporządzeniem. W drodze wyjątku i z uwagi na odpowiedzialność publiczną, operatorzy systemów AI, które są elementami wielkoskalowych systemów informatycznych ustanowionych na mocy aktów prawnych wymienionych w załączniku do niniejszego rozporządzenia, oraz operatorzy systemów AI wysokiego ryzyka, które mają być wykorzystywane przez organy publiczne, powinni odpowiednio podjąć niezbędne kroki w celu spełnienia wymogów niniejszego rozporządzenia do końca 2030 r. i do dnia 2 sierpnia 2030 r.
(177)
sabiex tiġi żgurata ċ-ċertezza legali, jiġi żgurat perjodu ta' adattament xieraq għall-operaturi u jiġi evitat tfixkil fis-suq, inkluż billi tiġi żgurata l-kontinwità tal-użu tas-sistemi tal-IA, jixraq li dan ir-Regolament japplika għas-sistemi tal-IA b'riskju għoli li jkunu ġew introdotti fis-suq jew tqiegħdu fis-servizz qabel id-data ġenerali tal-applikazzjoni tagħhom, biss jekk, minn dik id-data, dawk is-sistemi jkunu soġġetti għal bidliet sinifikanti fid-disinn jew fl-għan maħsub tagħhom. Jixraq li jiġi ċċarat li, f'dan ir-rigward, il-kunċett ta' bidla sinifikanti jenħtieġ li jinftiehem bħala ekwivalenti fis-sustanza għall-kunċett ta' modifika sostanzjali, li jintuża biss fir-rigward tas-sistemi tal-IA b'riskju għoli skont dan ir-Regolament. Fuq bażi eċċezzjonali u fid-dawl tal-obbligu ta' responsabbiltà pubblika, jenħtieġ li l-operaturi ta' sistemi tal-IA li huma komponenti tas-sistemi tal-IT fuq skala kbira stabbiliti bl-atti legali elenkati f'anness ta' dan ir-Regolament u l-operaturi tas-sistemi tal-IA b'riskju għoli li huma maħsuba biex jintużaw mill-awtoritajiet pubbliċi jieħdu l-passi meħtieġa, rispettivament, biex jikkonformaw mar-rekwiżiti ta' dan ir-Regolament sa tmiem l-2030 u sat-2 ta’ Awwissu 2030.
(178)
Dostawców systemów AI wysokiego ryzyka zachęca się, by już w okresie przejściowym przystąpili do dobrowolnego spełniania odpowiednich obowiązków ustanowionych w niniejszym rozporządzeniu.
(178)
Il-fornituri ta' sistemi tal-IA b'riskju għoli huma mħeġġa biex matul il-perjodu tranżitorju jibdew diġà jikkonformaw, fuq bażi volontarja, mal-obbligi rilevanti ta' dan ir-Regolament.
(179)
Niniejsze rozporządzenie należy stosować od dnia 2 sierpnia 2026 r. Biorąc jednak pod uwagę niedopuszczalne ryzyko związane z niektórymi sposobami wykorzystania AI, zakazy oraz przepisy ogólne niniejszego rozporządzenia należy stosować już od dnia 2 lutego 2025 r. Chociaż pełne skutki tych zakazów zrealizowane zostaną w momencie ustanowienia zarządzania i egzekwowania niniejszego rozporządzenia, wcześniejsze ich stosowanie jest ważne, by uwzględnić niedopuszczalne ryzyko i wywrzeć wpływ na inne procedury, np. w prawie cywilnym. Ponadto infrastruktura związana z zarządzaniem i systemem oceny zgodności powinna być gotowa przed dniem 2 sierpnia 2026 r., w związku z czym przepisy dotyczące jednostek notyfikowanych oraz struktury zarządzania należy stosować od dnia 2 sierpnia 2025 r. Biorąc pod uwagę szybkie tempo postępu technologicznego i przyjęcie modeli AI ogólnego przeznaczenia, obowiązki dostawców modeli AI ogólnego przeznaczenia należy stosować od dnia 2 sierpnia 2025 r. Kodeksy praktyk powinny być gotowe do dnia 2 maja 2025 r., tak aby umożliwić dostawcom terminowe wykazanie zgodności. Urząd ds. AI powinien zapewniać aktualność zasad i procedur klasyfikacji w świetle rozwoju technologicznego. Ponadto państwa członkowskie powinny ustanowić przepisy dotyczące kar, w tym administracyjnych kar pieniężnych i powiadomić o nich Komisję oraz zapewnić ich właściwe i skuteczne wdrożenie przed dniem rozpoczęcia stosowania niniejszego rozporządzenia. Przepisy dotyczące kar należy zatem stosować od dnia 2 sierpnia 2025 r.
(179)
Jenħtieġ li dan ir-Regolament japplika mit-2 ta’ Awwissu 2026. Madankollu, b'kunsiderazzjoni għar-riskju inaċċettabbli assoċjat mal-użu tal-IA b'ċerti modi, jenħtieġ li l-projbizzjonijiet kif ukoll id-dispożizzjonijiet ġenerali ta’ dan ir-Regolament japplikaw diġà mit-2 ta’ Frar 2025. Filwaqt li l-effett sħiħ ta' dawk il-projbizzjonijiet isegwi bl-istabbiliment tal-governanza u l-infurzar ta' dan ir-Regolament, l-antiċipazzjoni tal-applikazzjoni tal-projbizzjonijiet hija importanti biex jitqiesu r-riskji inaċċettabbli u biex ikollha effett fuq proċeduri oħra, bħal fid-dritt ċivili. Barra minn hekk, jenħtieġ li l-infrastruttura relatata mal-governanza u mas-sistema tal-valutazzjoni tal-konformità tkun operattiva qabel it-2 ta’ Awwissu 2026, u għalhekk jenħtieġ li d-dispożizzjonijiet dwar il-korpi notifikati u l-istruttura ta' governanza japplikaw mit-2 ta’ Awwissu 2025. Minħabba l-pass mgħaġġel tal-avvanzi teknoloġiċi u l-adozzjoni ta' mudelli tal-IA bi skop ġenerali, jenħtieġ li l-obbligi għall-fornituri ta' mudelli tal-IA bi skop ġenerali japplikaw mit-2 ta’ Awwissu 2025. Jenħtieġ li l-kodiċijiet ta' prattika jkunu lesti sat-2 ta’ Mejju 2025 bil-ħsieb li l-fornituri jkunu jistgħu juru l-konformità fil-ħin. Jenħtieġ li l-Uffiċċju għall-IA jiżgura li r-regoli u l-proċeduri ta' klassifikazzjoni jkunu aġġornati fid-dawl tal-iżviluppi teknoloġiċi. Barra minn hekk, jenħtieġ li l-Istati Membri jistabbilixxu u jinnotifikaw lill-Kummissjoni r-regoli dwar il-penali, inkluż il-multi amministrattivi, u jiżguraw li dawn jiġu implimentati sew u b'mod effettiv sad-data tal-applikazzjoni ta' dan ir-Regolament. Għalhekk jenħtieġ li d-dispożizzjonijiet dwar il-penali japplikaw mit-2 ta’ Awwissu 2025.
(180)
Zgodnie z art. 42 ust. 1 i 2 rozporządzenia (UE) 2018/1725 skonsultowano się z Europejskim Inspektorem Ochrony Danych i Europejską Radą Ochrony Danych, którzy wydali wspólną opinię dnia 18 czerwca 2021 r.,
(180)
Il-Kontrollur Ewropew għall-Protezzjoni tad-Data u l-Bord Ewropew għall-Protezzjoni tad-Data ġew ikkonsultati f'konformità mal-Artikolu 42(1) u (2) tar-Regolament (UE) 2018/1725 u taw l-opinjoni konġunta tagħhom fit-18 ta' Ġunju 2021,
PRZYJMUJĄ NINIEJSZE ROZPORZĄDZENIE:
ADOTTAW DAN IR-REGOLAMENT:
1. Niniejsze rozporządzenie stosuje się do:
1. Dan ir-Regolament japplika għal:
a)
dostawców wprowadzających do obrotu lub oddających do użytku systemy AI lub wprowadzających do obrotu modele AI ogólnego przeznaczenia w Unii, niezależnie od tego, czy dostawcy ci mają siedzibę lub znajdują się w Unii czy w państwie trzecim;
(a)
il-fornituri li jintroduċu fis-suq jew li jqiegħdu fis-servizz sistemi tal-IA jew li jintroduċu fis-suq mudelli tal-IA bi skop ġenerali fl-Unjoni, irrispettivament minn jekk dawk il-fornituri jkunux stabbiliti jew ikunux jinsabu fl-Unjoni jew f'pajjiż terz;
b)
podmiotów stosujących systemy AI, które to podmioty mają siedzibę lub znajdują się w Unii;
(b)
l-implimentaturi ta' sistemi tal-IA li għandhom il-post ta' stabbiliment tagħhom fl-Unjoni jew li jinsabu fiha;
c)
dostawców systemów AI i podmiotów stosujących systemy AI, którzy mają siedzibę lub znajdują się w państwie trzecim, w przypadku gdy wyniki wytworzone przez system AI są wykorzystywane w Unii;
(c)
il-fornituri u l-implimentaturi ta' sistemi tal-IA li għandhom il-post ta' stabbiliment f'pajjiż terz jew li jinsabu f'pajjiż terz, meta l-output prodott mis-sistema tal-IA jintuża fl-Unjoni;
d)
importerów i dystrybutorów systemów AI;
(d)
l-importaturi u d-distributuri ta' sistemi tal-IA;
e)
producentów produktu, którzy pod własną nazwą lub znakiem towarowym oraz wraz ze swoim produktem wprowadzają do obrotu lub oddają do użytku system AI;
(e)
il-manifatturi tal-prodotti li jintroduċu fis-suq jew li jqiegħdu fis-servizz sistema tal-IA flimkien mal-prodott tagħhom u taħt isimhom jew bit-trademark tagħhom stess;
f)
upoważnionych przedstawicieli dostawców niemających siedziby w Unii;
(f)
ir-rappreżentanti awtorizzati tal-fornituri, li mhumiex stabbiliti fl-Unjoni;
g)
osób, na które AI ma wpływ i które znajdują się w Unii.
(g)
il-persuni affettwati li jinsabu fl-Unjoni.
2. W przypadku systemów AI zaklasyfikowanych jako systemy AI wysokiego ryzyka zgodnie z art. 6 ust. 1 związanych z produktami, które są objęte unijnym prawodawstwem harmonizacyjnym wymienionym w załączniku I sekcja B, stosuje się wyłącznie art. 6 ust. 1, art. 102–109 i art. 112. Art. 57 stosuje się wyłącznie w zakresie, w jakim wymogi dotyczące systemów AI wysokiego ryzyka ustanowione w niniejszym rozporządzeniu zostały włączone do tego unijnego prawodawstwa harmonizacyjnego.
2. Għas-sistemi tal-IA klassifikati bħala sistemi tal-IA b'riskju għoli f'konformità mal-Artikolu 6(1) relatati ma' prodotti koperti bil-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni elenkata fit-Taqsima B tal-Anness I, japplikaw biss l-Artikolu 6(1), l-Artikoli 102 sa 109 u l- Artikolu 112. L-Artikolu 57 japplika biss sa fejn ir-rekwiżiti għas-sistemi tal-IA b'riskju għoli skont dan ir-Regolament ikunu ġew integrati f'dik il-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni.
3. Niniejszego rozporządzenia nie stosuje się do obszarów wykraczających poza zakres stosowania prawa Unii i w żadnym wypadku nie wpływa ono na kompetencje państw członkowskich w zakresie bezpieczeństwa narodowego, niezależnie od rodzaju podmiotu, któremu państwa członkowskie powierzyły wykonywanie zadań związanych z tymi kompetencjami.
3. Dan ir-Regolament ma japplikax għal oqsma barra mill-kamp ta' applikazzjoni tad-dritt tal-Unjoni, u ma għandux, fi kwalunkwe każ, jaffettwa l-kompetenzi tal-Istati Membri fir-rigward tas-sigurtà nazzjonali, irrispettivament mit-tip ta' entità fdata mill-Istati Membri biex twettaq il-kompiti fir-rigward ta' dawk il-kompetenzi.
Niniejszego rozporządzenia nie stosuje się do systemów AI, jeżeli – i w zakresie, w jakim – wprowadzono je do obrotu, oddano do użytku lub są one wykorzystywane, ze zmianami lub bez zmian, wyłącznie do celów wojskowych, obronnych lub do celów bezpieczeństwa narodowego, niezależnie od rodzaju podmiotu prowadzącego te działania.
Dan ir-Regolament ma japplikax għal sistemi tal-IA fejn u sakemm jiġu introdotti fis-suq, jitqiegħdu fis-servizz jew jintużaw b'modifika jew mingħajr modifika esklużivament għal fini militari, ta' difiża jew ta' sigurtà nazzjonali, irrispettivament mit-tip tal-entità li twettaq dawk l-attivitajiet.
Niniejszego rozporządzenia nie stosuje się do systemów AI, które nie zostały wprowadzone do obrotu ani oddane do użytku w Unii, a których wyniki są wykorzystywane w Unii wyłącznie do celów wojskowych, obronnych lub de celów bezpieczeństwa narodowego, niezależnie od rodzaju podmiotu prowadzącego te działania.
Dan ir-Regolament ma japplikax għal sistemi tal-IA li ma jiġux introdotti fis-suq jew imqiegħda fis-servizz fl-Unjoni, meta l-output jintuża fl-Unjoni esklużivament għal fini militari, ta' difiża jew ta' sigurtà nazzjonali, irrispettivament mit-tip tal-entità li twettaq dawk l-attivitajiet.
4. Niniejszego rozporządzenia nie stosuje się do organów publicznych w państwie trzecim ani do organizacji międzynarodowych objętych zakresem stosowania niniejszego rozporządzenia na podstawie ust. 1, jeżeli te organy lub organizacje wykorzystują systemy AI w ramach współpracy międzynarodowej lub umów międzynarodowych w sprawie ścigania przestępstw i współpracy sądowej zawartych z Unią lub z jednym państwem członkowskim bądź ich większą liczbą, pod warunkiem zapewnienia przez to państwo trzecie lub organizację międzynarodową odpowiednich zabezpieczeń w odniesieniu do ochrony podstawowych praw i wolności osób fizycznych.
4. Dan ir-Regolament la japplika għal awtoritajiet pubbliċi f'pajjiż terz u lanqas għal organizzazzjonijiet internazzjonali li jaqgħu fil-kamp ta' applikazzjoni ta' dan ir-Regolament skont il-paragrafu 1, meta dawk l-awtoritajiet jew l-organizzazzjonijiet jużaw sistemi tal-IA fil-qafas ta' kooperazzjoni jew ftehimiet internazzjonali għall-infurzar tal-liġi u l-kooperazzjoni ġudizzjarja mal-Unjoni jew ma' Stat Membru wieħed jew aktar, dment li tali pajjiż terz jew organizzazzjoni internazzjonali tipprovdi salvagwardji adegwati fir-rigward tal-protezzjoni tad-drittijiet fundamentali u l-libertajiet tal-individwi.
5. Niniejsze rozporządzenie nie ma wpływu na stosowanie przepisów dotyczących odpowiedzialności dostawców usług pośrednich określonych w rozdziale II rozporządzenia (UE) 2022/2065.
5. Dan ir-Regolament ma għandux jaffettwa l-applikazzjoni tad-dispożizzjonijiet dwar ir-responsabbiltà tal-fornituri tas-servizzi intermedjarji kif stipulat fil-Kapitolu II tar-Regolament (UE) 2022/2065.
6. Niniejszego rozporządzenia nie stosuje się do systemów AI lub modeli AI, w tym ich wyników, rozwiniętych i oddanych do użytku wyłącznie do celów badań naukowych i rozwojowych.
6. Dan ir-Regolament ma japplikax għal sistemi jew mudelli tal-IA, inkluż l-output tagħhom, speċifikament żviluppati u mqiegħda fis-servizz għall-iskop uniku tar-riċerka u l-iżvilupp xjentifiċi.
7. Prawo Unii w zakresie ochrony danych osobowych, prywatności i poufności komunikacji stosuje się do danych osobowych przetwarzanych w związku z prawami i obowiązkami ustanowionymi w niniejszym rozporządzeniu. Niniejsze rozporządzenie nie ma wpływu na rozporządzenia (UE) 2016/679 lub (UE) 2018/1725, ani na dyrektywy 2002/58/WE lub (UE) 2016/680, bez uszczerbku dla art. 10 ust. 5 i art. 59 niniejszego rozporządzenia.
7. Il-liġi tal-Unjoni dwar il-protezzjoni ta' data personali, il-privatezza u l-kunfidenzjalità tal-komunikazzjoni tapplika għal data personali pproċessata b'rabta mad-drittijiet u l-obbligi stabbiliti f'dan ir-Regolament. Dan ir-Regolament ma għandux jaffettwa r-Regolament (UE) 2016/679 jew (UE) 2018/1725 jew id-Direttiva 2002/58/KE jew (UE) 2016/680, mingħajr preġudizzju għall-Artikolu 10(5) u l-Artikolu 59 ta' dan ir-Regolament.
8. Niniejszego rozporządzenia nie stosuje się do żadnej działalności badawczej, testowej ani rozwojowej dotyczącej systemów AI lub modeli AI przed wprowadzeniem ich do obrotu lub oddaniem ich do użytku. Działalność tego rodzaju prowadzona jest zgodnie z mającym zastosowanie prawem Unii. Niniejsze wyłączenie nie obejmuje testów w warunkach rzeczywistych.
8. Dan ir-Regolament ma japplika għall-ebda attività ta' riċerka, ittestjar jew żvilupp fir-rigward ta' sistemi tal-IA jew mudelli tal-IA qabel ma jiġu introdotti fis-suq jew jitqiegħdu fis-servizz. Tali attivitajiet għandhom jitwettqu f'konformità mal-liġi tal-Unjoni applikabbli. L-ittestjar fil-kundizzjonijiet tad-dinja reali ma għandux ikun kopert minn dik l-esklużjoni.
9. Niniejsze rozporządzenie nie narusza przepisów ustanowionych w innych aktach prawnych Unii dotyczących ochrony konsumentów i bezpieczeństwa produktów.
9. Dan ir-Regolament huwa mingħajr preġudizzju għar-regoli stabbiliti minn atti legali oħra tal-Unjoni relatati mal-protezzjoni tal-konsumatur u s-sikurezza tal-prodotti.
10. Niniejsze rozporządzenie nie stosuje się do obowiązków podmiotów stosujących będących osobami fizycznymi, które korzystają z systemów AI w ramach czysto osobistej działalności pozazawodowej.
10. Dan ir-Regolament ma japplikax għall-obbligi ta' implimentaturi li huma persuni fiżiċi li jużaw sistemi tal-IA waqt attività purament personali mhux professjonali.
11. Niniejsze rozporządzenie nie uniemożliwia Unii ani państwom członkowskim utrzymywania lub wprowadzania przepisów ustawowych, wykonawczych lub administracyjnych, które są korzystniejsze dla pracowników pod względem ochrony ich praw w odniesieniu do korzystania z systemów AI przez pracodawców, ani zachęcania do stosowania korzystniejszych dla pracowników układów zbiorowych lub zezwalania na ich stosowanie.
11. Dan ir-Regolament ma jipprekludix lill-Unjoni jew lill-Istati Membri milli jżommu jew jintroduċu liġijiet, regolamenti jew dispożizzjonijiet amministrattivi li huma aktar favorevoli għall-ħaddiema f'termini ta' protezzjoni tad-drittijiet tagħhom fir-rigward tal-użu tas-sistemi tal-IA mill-impjegaturi, jew milli jħeġġu jew jippermettu l-applikazzjoni ta' ftehimiet kollettivi li huma aktar favorevoli għall-ħaddiema.
12. Niniejszego rozporządzenia nie stosuje się do systemów AI udostępnianych na podstawie bezpłatnych licencji otwartego oprogramowania, chyba że systemy te są wprowadzane do obrotu lub oddawane do użytku jako systemy AI wysokiego ryzyka lub jako system AI objęty art. 5 lub 50.
12. Dan ir-Regolament ma japplikax għas-sistemi tal-IA rilaxxati b'liċenzji liberi u b'sors miftuħ sakemm ma jiġux introdotti fis-suq jew mqiegħda fis-servizz bħala sistemi tal-IA b'riskju għoli jew bħala sistema tal-IA li taqa' taħt l-Artikolu 5 jew 50.
Zakazane praktyki w zakresie AI
Prattiki tal-IA pprojbiti
1. Zakazuje się następujących praktyk w zakresie AI:
1. Il-prattiki tal-IA li ġejjin għandhom ikunu pprojbiti:
a)
wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemu AI, który stosuje techniki podprogowe będące poza świadomością danej osoby lub celowe techniki manipulacyjne lub wprowadzające w błąd, czego celem lub skutkiem jest dokonanie znaczącej zmiany zachowania danej osoby lub grupy osób poprzez znaczące ograniczenie ich zdolności do podejmowania świadomych decyzji, powodując tym samym podjęcie przez nie decyzji, której inaczej by nie podjęły, w sposób, który wyrządza lub może wyrządzić u niej, u innej osoby lub u grupy osób poważną szkodę;
(a)
l-introduzzjoni fis-suq, it-tqegħid fis-servizz jew l-użu ta' sistema tal-IA li tuża tekniki subliminali li persuna ma tkunx konxja tagħhom jew tekniki intenzjonalment manipulattivi jew qarrieqa, bil-għan jew bir-riżultat li materjalment ifixklu l-imġiba ta' persuna jew ta' grupp ta' persuni billi jdgħajfu b'mod sinifikanti l-abbiltà tagħha li tieħu deċiżjoni infurmata, u minħabba f'hekk huma jieħdudeċiżjoni li kieku ma kinux jieħdu b'mod li jikkawża jew li aktarx raġonevolament jikkawża ħsara sinifikanti lil dik il-persuna, lil persuna oħra jew lil grupp ta' persuni;
b)
wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemu AI, który wykorzystuje słabości osoby fizycznej lub określonej grupy osób ze względu na ich wiek, niepełnosprawność lub szczególną sytuację społeczną lub ekonomiczną, którego celem lub skutkiem jest dokonanie znaczącej zmiany zachowania danej osoby lub osoby należącej do tej grupy w sposób, który wyrządza lub może z uzasadnionym prawdopodobieństwem wyrządzić u tej osoby lub u innej osoby poważną szkodę;
(b)
l-introduzzjoni fis-suq, it-tqegħid fis-servizz jew l-użu ta' sistema tal-IA li tisfrutta kwalunkwe waħda mill-vulnerabbiltajiet ta' persuna fiżika jew ta' grupp speċifiku ta' persuni minħabba l-età, diżabbiltà jew sitwazzjoni soċjali jew ekonomika speċifika, bl-għan jew bir-riżultat li tfixkel materjalment l-imġiba ta' dik il-persuna jew ta' persuna li tappartjeni għal dak il-grupp b'mod li jikkawża jew li raġonevolment aktarx jikkawża ħsara sinifikanti lil dik il-persuna jew lil persuna oħra;
c)
wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemów AI na potrzeby oceny lub klasyfikacji osób fizycznych lub grup osób prowadzonej przez określony czas na podstawie ich zachowania społecznego lub znanych, wywnioskowanych lub przewidywanych cech osobistych lub cech osobowości, kiedy to scoring społeczny prowadzi do jednego lub obu z następujących skutków:
(c)
l-introduzzjoni fis-suq, it-tqegħid fis-servizz jew l-użu ta' sistemi tal-IA għall-evalwazzjoni jew il-klassifikazzjoni ta' persuni fiżiċi jew gruppi ta' persuni tul ċertu perjodu ta' żmien abbażi tal-imġiba soċjali tagħhom jew ta' karatteristiċi personali jew tal-personalità magħrufa, inferiti jew previsti, fejn il-punteġġ għaċ-ċittadini jwassal għal wieħed minn dawn li ġejjin jew għat-tnejn li huma:
(i)
krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub grup osób w kontekstach społecznych, które nie są związane z kontekstami, w których pierwotnie wygenerowano lub zebrano dane;
(i)
trattament detrimentali jew mhux favorevoli ta' ċerti persuni fiżiċi jew ta' gruppi ta' persuni f'kuntesti soċjali li mhumiex relatati mal-kuntesti li fihom id-data kienet oriġinarjament iġġenerata jew miġbura;
(ii)
krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub grup osób, które jest nieuzasadnione lub nieproporcjonalne do ich zachowania społecznego lub jego wagi;
(ii)
trattament detrimentali jew mhux favorevoli ta' ċerti persuni fiżiċi jew ta' gruppi ta' persuni li ma jkunx ġustifikat jew li jkun sproporzjonat għall-imġiba soċjali tagħhom jew għall-gravità tagħha;
d)
wprowadzania do obrotu, oddawania do użytku w tym konkretnym celu lub wykorzystywania systemu AI do przeprowadzania ocen ryzyka w odniesieniu do osób fizycznych, by ocenić lub przewidzieć ryzyko popełnienia przestępstwa przez osobę fizyczną, wyłącznie na podstawie profilowania osoby fizycznej lub oceny jej cech osobowości i cech charakterystycznych; zakaz ten nie ma zastosowania do systemów AI wykorzystywanych do wspierania dokonywanej przez człowieka oceny udziału danej osoby w działalności przestępczej, która to ocena opiera się już na obiektywnych i weryfikowalnych faktach bezpośrednio związanych z działalnością przestępczą;
(d)
l-introduzzjoni fis-suq, it-tqegħid fis-servizz għal dan l-għan speċifiku, jew l-użu ta' sistema tal-IA biex isiru valutazzjonijiet tar-riskju ta' persuni fiżiċi sabiex jiġi vvalutat jew imbassar ir-riskju li persuna fiżika twettaq reat kriminali, abbażi biss tat-tfassil ta' profil ta' persuna fiżika jew fuq il-valutazzjoni tal-karatteristiċi tal-personalità tagħha; din il-projbizzjoni ma għandhiex tapplika għas-sistemi tal-IA użati biex jappoġġaw il-valutazzjoni mill-bniedem tal-involviment ta' persuna f'attività kriminali, li diġà hija bbażata fuq fatti oġġettivi u verifikabbli marbuta direttament ma' attività kriminali;
e)
wprowadzania do obrotu, oddawania do użytku w tym konkretnym celu lub wykorzystywania systemów AI, które tworzą lub rozbudowują bazy danych służące rozpoznawaniu twarzy poprzez nieukierunkowane pozyskiwanie (ang. untargeted scraping) wizerunków twarzy z internetu lub nagrań z telewizji przemysłowej;
(e)
l-introduzzjoni fis-suq, it-tqegħid fis-servizz għal dan l-għan speċifiku, jew l-użu ta' sistemi tal-IA li joħolqu jew jespandu l-bażijiet tad-data tar-rikonoxximent tal-wiċċ permezz ta' scraping mhux immirat tal-immaġnijiet tal-wiċċ mill-internet jew minn filmati tas-CCTV;
f)
wprowadzania do obrotu, oddawania do użytku w tym konkretnym celu lub wykorzystywania systemów AI do wyciągania wniosków na temat emocji osoby fizycznej w miejscu pracy lub instytucjach edukacyjnych, z wyjątkiem przypadków, w których system AI ma zostać wdrożony lub wprowadzony do obrotu ze względów medycznych lub bezpieczeństwa;
(f)
l-introduzzjoni fis-suq, it-tqegħid fis-servizz għal dan l-għan speċifiku, jew l-użu ta' sistemi tal-IA biex jiġu inferiti l-emozzjonijiet ta' persuna fiżika fl-oqsma tal-post tax-xogħol u tal-istituzzjonijiet edukattivi ħlief fejn l-użu tas-sistema tal-IA jkun maħsub biex tiġi introdotta fis-suq jew mqiegħda fis-servizz għal raġunijiet mediċi jew ta' sikurezza;
g)
wprowadzania do obrotu, oddawania do użytku w tym konkretnym celu lub wykorzystywania systemów kategoryzacji biometrycznej, które indywidualnie kategoryzują osoby fizyczne w oparciu o ich dane biometryczne, by wydedukować lub wywnioskować informacje na temat ich rasy, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych lub światopoglądowych, seksualności lub orientacji seksualnej; zakaz ten nie obejmuje przypadków etykietowania ani filtrowania pozyskanych zgodnie z prawem zbiorów danych biometrycznych, takich jak obrazy, w oparciu o dane biometryczne, ani kategoryzacji danych biometrycznych w obszarze ścigania przestępstw;
(g)
l-introduzzjoni fis-suq jew it-tqegħid fis-servizz għal dan l-iskop speċifiku, jew l-użu ta' sistemi ta' kategorizzazzjoni bijometrika li jikkategorizzaw individwalment lill-persuni fiżiċi abbażi tad-data bijometrika tagħhom biex jiddeduċu jew jinferixxu r-razza, l-opinjonijiet politiċi, is-sħubija fi trade union, it-twemmin reliġjuż jew filosofiku, il-ħajja sesswali jew l-orjentazzjoni sesswali tagħhom; din il-projbizzjoni ma tkopri l-ebda tikkettar jew iffiltrar ta' settijiet tad-data bijometrika miksuba legalment, bħal immaġnijiet, ibbażati fuq data bijometrika jew kategorizzazzjoni ta' data bijometrika fil-qasam tal-infurzar tal-liġi;
h)
wykorzystywania systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw, chyba że – i w zakresie, w jakim – takie wykorzystanie jest bezwzględnie konieczne do jednego z następujących celów:
(h)
l-użu ta' sistemi ta’ identifikazzjoni bijometrika remota “fil-ħin reali” f'żoni aċċessibbli għall-pubbliku għall-finijiet tal-infurzar tal-liġi, dment li u sakemm dan l-użu jkun strettament meħtieġ għal wieħed mill-objettivi li ġejjin:
(i)
ukierunkowanego poszukiwania konkretnych ofiar uprowadzeń, handlu ludźmi lub wykorzystywania seksualnego ludzi, a także poszukiwania osób zaginionych;
(i)
it-tfittxija mmirata għal vittmi speċifiċi ta' ħtif, traffikar ta' bnedmin jew sfruttament sesswali ta' bnedmin kif ukoll it-tfittxija għal persuni neqsin;
(ii)
zapobiegnięcia konkretnemu, istotnemu i bezpośredniemu zagrożeniu życia lub bezpieczeństwa fizycznego osób fizycznych lub rzeczywistemu i aktualnemu lub rzeczywistemu i dającemu się przewidzieć zagrożeniu atakiem terrorystycznym;
(ii)
il-prevenzjoni ta' theddida speċifika, sostanzjali u imminenti għall-ħajja jew għas-sikurezza fiżika ta' persuni fiżiċi jew theddida ġenwina u preżenti jew ġenwina u prevedibbli ta' attakk terroristiku;
(iii)
lokalizowania lub identyfikowania osoby podejrzanej o popełnienie przestępstwa w celu prowadzenia postępowania przygotowawczego lub ścigania lub wykonania kar w odniesieniu do przestępstw, o których mowa w załączniku II, podlegających w danym państwie członkowskim karze pozbawienia wolności lub środkowi polegającemu na pozbawieniu wolności przez okres, którego górna granica wynosi co najmniej cztery lata.
(iii)
il-lokalizzazzjoni jew l-identifikazzjoni ta' persuna suspettata li wettqet reat kriminali, għall-fini tat-twettiq ta' investigazzjoni kriminali jew il-prosekuzzjoni jew l-eżekuzzjoni ta' piena kriminali għal reati, imsemmija fl-Anness II u punibbli fl-Istat Membru kkonċernat b'sentenza ta' kustodja jew ordni ta' detenzjoni għal perjodu massimu ta' mill-inqas erba' snin.
Akapit pierwszy lit. h) pozostaje bez uszczerbku dla art. 9 rozporządzenia (UE) 2016/679 w odniesieniu do przetwarzania danych biometrycznych do celów innych niż ściganie przestępstw.
Il-punt (h) tal-ewwel subparagrafu huwa mingħajr preġudizzju għall-Artikolu 9 tar-Regolament (UE) 2016/679 għall-ipproċessar ta' data bijometrika għal finijiet oħra għajr l-infurzar tal-liġi.
2. Systemy zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw w odniesieniu do któregokolwiek z celów, o których mowa w ust. 1 akapit pierwszy lit. h), mogą być wykorzystywane do celów określonych w tej literze, jedynie w celu potwierdzenia tożsamości konkretnej poszukiwanej osoby, z uwzględnieniem przy tym następujących elementów:
2. L-użu ta' sistemi ta’ identifikazzjoni bijometrika remota “fil-ħin reali” fi spazji aċċessibbli għall-pubbliku għall-finijiet tal-infurzar tal-liġi għal kwalunkwe wieħed mill-objettivi msemmija fil-paragrafu 1, l-ewwel subparagrafu, il-punt (h) għandu jiġi implimentat għall-finijiet stipulati f’ dak biss biex tiġi kkonfermata l-identità tal-individwu speċifikament taħt mira u għandu jqis l-elementi li ġejjin:
a)
charakter sytuacji powodującej konieczność ewentualnego wykorzystania takiego systemu, w szczególności powagę, prawdopodobieństwo i skalę szkody, która zostałaby wyrządzona w przypadku niewykorzystania tego systemu;
(a)
in-natura tas-sitwazzjoni li twassal għall-użu possibbli, b'mod partikolari s-serjetà, il-probabbiltà u l-iskala tal-ħsara li kienet tiġi kkawżata kieku s-sistema ma ntużatx;
b)
konsekwencje wykorzystania takiego systemu dla praw i wolności wszystkich zainteresowanych osób, w szczególności powagę, prawdopodobieństwo i skalę tych konsekwencji.
(b)
il-konsegwenzi tal-użu tas-sistema għad-drittijiet u l-libertajiet tal-persuni kollha kkonċernati, b'mod partikolari s-serjetà, il-probabbiltà u l-iskala ta' dawk il-konsegwenzi.
Ponadto wykorzystywanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw w odniesieniu do któregokolwiek z celów, o których mowa w ust. 1 akapit pierwszy lit. h) niniejszego artykułu, musi przebiegać z zachowaniem niezbędnych i proporcjonalnych zabezpieczeń i warunków w odniesieniu do takiego wykorzystywania zgodnie z zezwalającym na takie wykorzystanie prawem krajowym, w szczególności w odniesieniu do ograniczeń czasowych, geograficznych i osobowych. Wykorzystanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej jest dozwolone tylko wtedy, gdy organ ścigania przeprowadził ocenę skutków dla praw podstawowych zgodnie z art. 27 oraz zarejestrował system w bazie danych UE zgodnie z przepisami art. 49. W należycie uzasadnionych nadzwyczajnych przypadkach można jednak rozpocząć korzystanie z takich systemów bez rejestracji w bazie danych UE, pod warunkiem że taka rejestracja zostanie dokonana bez zbędnej zwłoki.
Barra minn hekk, l-użu ta' sistemi ta’ identifikazzjoni bijometrika remota “fil-ħin reali” fi spazji aċċessibbli għall-pubbliku għall-finijiet tal-infurzar tal-liġi għal kwalunkwe wieħed mill-objettivi msemmija fil-paragrafu 1, l-ewwel subparagrafu, il-punt (h) ta' dan l-Artikolu għandu jikkonforma mas-salvagwardji u l-kundizzjonijiet meħtieġa u proporzjonati fir-rigward tal-użu f'konformità mal-liġi nazzjonali li tawtorizza l-użu tagħhom, b'mod partikolari fir-rigward tal-limitazzjonijiet temporali, ġeografiċi u personali. L-użu tas-sistema ta’ identifikazzjoni bijometrika remota “fil-ħin reali” fi spazji aċċessibbli għall-pubbliku għandu jiġi awtorizzat biss jekk l-awtorità tal-infurzar tal-liġi tkun lestiet valutazzjoni tal-impatt fuq id-drittijiet fundamentali kif previst fl-Artikolu 27 u tkun irreġistrat is-sistema fil-bażi tad-data tal-UE skont l-Artikolu 49. Madankollu, f'każijiet ta' urġenza debitament ġustifikati, l-użu ta' tali sistemi jista' jinbeda mingħajr ir-reġistrazzjoni fil-bażi tad-data tal-UE, dment li tali reġistrazzjoni titlesta mingħajr dewmien żejjed.
3. Na potrzeby ust. 1 akapit pierwszy lit. h) i ust. 2, każde wykorzystanie systemu zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw wymaga uzyskania uprzedniego zezwolenia udzielonego przez organ wymiaru sprawiedliwości lub wydający wiążące decyzje niezależny organ administracyjny państwa członkowskiego, w którym ma nastąpić wykorzystanie; zezwolenie to wydawane jest na uzasadniony wniosek i zgodnie ze szczegółowymi przepisami prawa krajowego, o których mowa w ust. 5. W należycie uzasadnionych pilnych przypadkach korzystanie z takiego systemu można jednak rozpocząć bez zezwolenia, pod warunkiem że wniosek o takie zezwolenie zostanie złożony bez zbędnej zwłoki, najpóźniej w ciągu 24 godzin. W przypadku odmowy udzielenia takiego zezwolenia wykorzystywanie systemu wstrzymuje się ze skutkiem natychmiastowym, a wszystkie dane, a także rezultaty i wyniki uzyskane podczas tego wykorzystania musza zostać natychmiast odrzucone i usunięte.
3. Għall-finijiet tal-paragrafu 1, l-ewwel subparagrafu, il-punt (h) u l-paragrafu 2, kull użu għall-finijiet tal-infurzar tal-liġi ta' sistema ta’ identifikazzjoni bijometrika remota “fil-ħin reali” fi spazji aċċessibbli għall-pubbliku għandu jkun soġġett għal awtorizzazzjoni minn qabel mogħtija minn awtorità ġudizzjarja jew awtorità amministrattiva indipendenti li d-deċiżjoni tagħha hija vinkolanti tal-Istat Membru li fih ser isir l-użu, maħruġa wara talba motivata u f'konformità mar-regoli dettaljati tal-liġi nazzjonali msemmija fil-paragrafu 5. Madankollu, f'sitwazzjoni ta' urġenza debitament ġustifikata, l-użu ta' tali sistema jista' jinbeda mingħajr awtorizzazzjoni dment li dik l-awtorizzazzjoni tintalab mingħajr dewmien żejjed, sa mhux aktar tard minn 24 siegħa wara. Jekk tali awtorizzazzjoni tiġi rrifjutata, l-użu għandu jitwaqqaf b'effett immedjat u d-data kollha, kif ukoll ir-riżultati u l-outputs ta' dak l-użu għandhom jiġu skartati u mħassra minnufih.
Właściwy organ wymiaru sprawiedliwości lub wydający wiążące decyzje niezależny organ administracyjny udziela zezwolenia tylko wtedy, gdy jest przekonany, na podstawie obiektywnych dowodów lub jasnych przesłanek, które mu przedstawiono, że wykorzystanie danego systemu zdalnej identyfikacji biometrycznej w czasie rzeczywistym jest konieczne i proporcjonalne do osiągnięcia jednego z celów określonych w ust. 1 akapit pierwszy lit. h), wskazanego we wniosku, a w szczególności ogranicza się do tego, co jest bezwzględnie konieczne w odniesieniu do przedziału czasowego, a także zakresu geograficznego i podmiotowego. Podejmując decyzję w sprawie wniosku organ ten bierze pod uwagę elementy, o których mowa w ust. 2. Nie można wydać decyzji wywołującej niepożądane skutki prawne dla danej osoby wyłącznie na podstawie wyników uzyskanych z systemu zdalnej identyfikacji biometrycznej w czasie rzeczywistym.
L-awtorità ġudizzjarja kompetenti jew awtorità amministrattiva indipendenti li d-deċiżjoni tagħha tkun vinkolanti għandha tagħti l-awtorizzazzjoni biss meta tkun sodisfatta, abbażi ta' evidenza oġġettiva jew indikazzjonijiet ċari ppreżentati lilha, li l-użu tas-sistema ta’ identifikazzjoni bijometrika remota “fil-ħin reali” ikkonċernata hu meħtieġ u proporzjonat biex jintlaħaq wieħed mill-objettivi speċifikati fil-paragrafu 1, l-ewwel subparagrafu, il-punt (h), kif identifikat fit-talba u, b'mod partikolari, jibqa' limitat għal dak li huwa strettament meħtieġ fir-rigward tat-tul ta' żmien u l-firxa ġeografika u personali. Meta tiddeċiedi dwar it-talba, dik l-awtorità għandha tqis l-elementi msemmijin fil-paragrafu 2. L-ebda deċiżjoni li tipproduċi effett legali negattiv fuq persuna ma tista' tittieħed abbażi biss tal-output tas-sistema ta’ identifikazzjoni bijometrika remota “fil-ħin reali”.
4. Bez uszczerbku dla ust. 3, o każdym wykorzystaniu systemu zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw powiadamia się właściwy organ nadzoru rynku i krajowy organ ochrony danych zgodnie z przepisami prawa krajowego, o których mowa w ust. 5. Powiadomienie zawiera co najmniej informacje określone w ust. 6 i nie może zawierać wrażliwych danych operacyjnych.
4. Mingħajr preġudizzju għall-paragrafu 3, kull użu ta' sistema ta' identifikazzjoni bijometrika remota “fil-ħin reali” fi spazji aċċessibbli għall-pubbliku għal finijiet tal-infurzar tal-liġi għandu jiġi notifikat lill-awtorità tas-sorveljanza tas-suq rilevanti u lill-awtorità nazzjonali għall-protezzjoni tad-data f'konformità mar-regoli nazzjonali msemmija fil-paragrafu 5. Bħala minimu, in-notifika għandha tinkludi l-informazzjoni speċifikata fil-paragrafu 6 u ma għandhiex tinkludi data operazzjonali sensittiva.
5. Państwo członkowskie może podjąć decyzję o wprowadzeniu możliwości pełnego lub częściowego zezwolenia na wykorzystywanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw w granicach i na warunkach wymienionych w ust. 1 akapit pierwszy lit. h) i w ust. 2 i 3. Zainteresowane państwa członkowskie ustanawiają w swoim prawie krajowym niezbędne szczegółowe przepisy dotyczące wniosku o udzielenie zezwoleń, o których mowa w ust. 3, wydawanie i wykonywanie tych zezwoleń oraz ich nadzorowanie składanie sprawozdań w ich sprawie. W przepisach tych określa się również, w odniesieniu do których celów wymienionych w ust. 1 akapit pierwszy lit. h) – w tym w odniesieniu do których przestępstw wymienionych w ust. 1 akapit pierwszy lit. h) ppkt (iii) – właściwe organy mogą uzyskać zezwolenie na wykorzystanie tych systemów do celów celu ścigania przestępstw. Państwa członkowskie powiadamiają Komisję o tych przepisach najpóźniej 30 dni po ich przyjęciu. Państwa członkowskie mogą wprowadzić, zgodnie z prawem Unii, bardziej restrykcyjne przepisy dotyczące wykorzystania systemów zdalnej identyfikacji biometrycznej.
5. Stat Membru jista' jiddeċiedi li jipprevedi l-possibbiltà li jawtorizza għalkollox jew parzjalment l-użu ta' sistemi ta’ identifikazzjoni bijometrika remota “fil-ħin reali” fi spazji aċċessibbli għall-pubbliku għall-finijiet tal-infurzar tal-liġi skont il-limiti u l-kundizzjonijiet elenkati fil-paragrafu 1, l-ewwel subparagrafu, il-punt (h), u l-paragrafi 2 u 3. L-Istati Membri kkonċernati għandhom jistabbilixxu fil-liġi nazzjonali tagħhom ir-regoli dettaljati meħtieġa għat-talba, il-ħruġ u l-eżerċitar tal-awtorizzazzjonijiet imsemmija fil-paragrafu 3, kif ukoll għas-superviżjoni u r-rappurtar relatati magħhom. Dawk ir-regoli għandhom jispeċifikaw ukoll fir-rigward ta' liema objettivi elenkati fil-paragrafu 1, l-ewwel subparagrafu, il-punt (h), inkluż liema reati kriminali msemmija fil-punt (h)(iii) tiegħu, l-awtoritajiet kompetenti jistgħu jkunu awtorizzati jużaw dawk is-sistemi għall-finijiet tal-infurzar tal-liġi. L-Istati Membri għandhom jinnotifikaw dawk ir-regoli lill-Kummissjoni sa mhux aktar tard minn 30 jum wara l-adozzjoni tagħhom. L-Istati Membri jistgħu jintroduċu, f'konformità mal-liġi tal-Unjoni, liġijiet aktar restrittivi dwar l-użu ta' sistemi ta’ identifikazzjoni bijometrika remota.
6. Krajowe organy nadzoru rynku i krajowe organy ochrony danych państw członkowskich, które zostały powiadomione o wykorzystaniu systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw zgodnie z ust. 4, przedkładają Komisji roczne sprawozdania z takiego wykorzystania. W tym celu Komisja przekazuje państwom członkowskim i krajowym organom nadzoru rynku i organom ochrony danych wzór formularza zawierającego informacje na temat liczby decyzji podjętych przez właściwe organy wymiaru sprawiedliwości lub wydający wiążące decyzje niezależny organ administracyjny w odniesieniu do wniosków o udzielenie zezwolenia zgodnie z ust. 3 oraz wyników ich rozpatrzenia.
6. L-awtoritajiet nazzjonali tas-sorveljanza tas-suq u l-awtoritajiet nazzjonali tal-protezzjoni tad-data tal-Istati Membri li ġew notifikati dwar l-użu ta' sistemi ta’ identifikazzjoni bijometrika remota “fil-ħin reali” fi spazji aċċessibbli għall-pubbliku għal finijiet tal-infurzar tal-liġi skont il-paragrafu 4 għandhom jippreżentaw lill-Kummissjoni rapporti annwali dwar it-tali użu. Għal dak il-għan, il-Kummissjoni għandha tipprovdi lill-Istati Membri u lill-awtoritajiet nazzjonali tas-sorveljanza tas-suq u tal-protezzjoni tad-data, mudell, fejn jinkludi informazzjoni dwar l-għadd tad-deċiżjonijiet meħuda mill-awtoritajiet ġudizzjarji kompetenti jew awtorità amministrattiva indipendenti li d-deċiżjoni tagħha hija vinkolanti fuq talbiet għal awtorizzazzjonijiet f'konformità mal-paragrafu 3 u r-riżultat tagħhom.
7. Komisja publikuje roczne sprawozdania na temat wykorzystania systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw, oparte na zagregowanych danych w państwach członkowskich przekazanych w sprawozdaniach rocznych, o których mowa w ust. 6. Te sprawozdania roczne nie mogą zawierać wrażliwych danych operacyjnych dotyczących powiązanych działań w zakresie ścigania przestępstw.
7. Il-Kummissjoni għandha tippubblika rapporti annwali dwar l-użu ta' sistemi ta’ identifikazzjoni bijometrika remota “fil-ħin reali” fi spazji aċċessibbli għall-pubbliku għal finijiet tal-infurzar tal-liġi abbażi tad-data aggregata fl-Istati Membri bbażati fuq ir-rapporti annwali msemmija fil-paragrafu 6. Dawk ir-rapporti annwali ma għandhomx jinkludu data operazzjonali sensittiva tal-attivitajiet relatati tal-infurzar tal-liġi.
8. Niniejszy artykuł nie ma wpływu na zakazy mające zastosowanie w przypadku, gdy praktyka w zakresie AI narusza inne przepisy prawa Unii.
8. Dan l-Artikolu ma għandux jaffettwa l-projbizzjonijiet li japplikaw meta prattika tal-IA tikser liġi oħra tal-Unjoni.
Zasady klasyfikacji systemów AI wysokiego ryzyka
Regoli ta' klassifikazzjoni għas-sistemi tal-IA b'riskju għoli
1. Bez względu na to, czy system AI wprowadza się do obrotu lub oddaje do użytku niezależnie od produktów, o których mowa w lit. a) i b), taki system AI uznaje się za system wysokiego ryzyka, jeżeli spełnione są oba poniższe warunki:
1. Irrispettivament minn jekk sistema tal-IA tiġix introdotta fis-suq jew imqiegħda fis-servizz b'mod indipendenti mill-prodotti msemmija fil-punti (a) u (b), dik is-sistema tal-IA għandha titqies bħala riskju għoli jekk tkun tissodisfa ż-żewġ kundizzjonijiet li ġejjin:
a)
system AI jest przeznaczony do wykorzystania jako związany z bezpieczeństwem element produktu objętego unijnym prawodawstwem harmonizacyjnym wymienionym w załączniku I lub sam system AI jest takim produktem;
(a)
is-sistema tal-IA hija maħsuba biex tintuża bħala komponent tas-sikurezza ta' prodott, jew is-sistema tal-IA tkun hi stess prodott, kopert bil-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni elenkata fl-Anness I;
b)
produkt, którego związanym z bezpieczeństwem elementem jest zgodnie z lit. a) system AI, lub sam system AI jako produkt podlegają – na podstawie unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I – ocenie zgodności przez stronę trzecią w związku z wprowadzeniem tego produktu do obrotu lub oddaniem go do użytku.
(b)
il-prodott li l-komponent tas-sikurezza tiegħu skont il-punt (a) huwa s-sistema tal-IA, jew is-sistema tal-IA hi stess bħala prodott, jeħtieġ issirlu valutazzjoni tal-konformità minn parti terza, bil-ħsieb li dak il-prodott jiġi introdott fis-suq jew imqiegħed fis-servizz skont il-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni elenkata fl-Anness I.
2. Oprócz systemów AI wysokiego ryzyka, o których mowa w ust. 1, za systemy wysokiego ryzyka uznaje się systemy AI, o których mowa w załączniku III.
2. Minbarra s-sistemi tal-IA b'riskju għoli msemmija fil-paragrafu 1, is-sistemi tal-IA msemmija fl-Anness III għandhom ukoll jitqiesu bħala b'riskju għoli.
3. Na zasadzie odstępstwa od ust. 2 systemu AI, o którym mowa w załączniku III, nie uznaje się za system wysokiego ryzyka, w przypadku gdy nie stwarza on znaczącego ryzyka szkody dla zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych, w tym poprzez brak znaczącego wpływu na wynik procesu decyzyjnego.
3. B'deroga mill-paragrafu 2, sistema tal-IA msemmija fl-Anness III ma għandhiex titqies bħala b'riskju għoli fejn ma toħloqx riskju sinifikanti ta' ħsara, għas-saħħa, għas-sikurezza jew għad-drittijiet fundamentali tal-persuni fiżiċi, inkluż billi ma tinfluwenzax materjalment l-eżitu tat-teħid tad-deċiżjonijiet.
Akapit pierwszy stosuje się w przypadku, gdy spełniony jest którykolwiek z następujących warunków:
L-ewwel subparagrafu għandu japplika fejn tiġi ssodisfata kwalunkwe waħda mill-kundizzjonijiet li ġejjin:
a)
system AI jest przeznaczony do wykonywania wąsko określonego zadania proceduralnego;
(a)
is-sistema tal-IA hija maħsuba biex twettaq kompitu proċedurali ristrett;
b)
system AI jest przeznaczony do poprawienia wyniku zakończonej uprzednio czynności wykonywanej przez człowieka;
(b)
is-sistema tal-IA hija maħsuba biex ittejjeb ir-riżultat ta' attività mill-bniedem li tkun tlestiet qabel;
c)
system AI jest przeznaczony do wykrywania wzorców podejmowania decyzji lub odstępstw od wzorców podjętych uprzednio decyzji i nie ma na celu zastąpienia ani wywarcia wpływu na zakończoną uprzednio ocenę dokonaną przez człowieka – bez odpowiedniej weryfikacji przez człowieka; lub
(c)
is-sistema tal-IA hija maħsuba biex tikxef xejriet ta' teħid ta' deċiżjonijiet jew devjazzjonijiet minn xejriet ta' teħid ta' deċiżjonijiet preċedenti u mhijiex maħsuba biex tissostitwixxi jew tinfluwenza l-valutazzjoni mill-bniedem li tkun tlestiet qabel, mingħajr rieżami xieraq mill-bniedem; jew
d)
system AI jest przeznaczony do wykonywania zadań przygotowawczych w kontekście oceny istotnej z punktu widzenia przypadków wykorzystania wymienionych w załączniku III.
(d)
is-sistema tal-IA hija maħsuba biex twettaq kompitu preparatorju għal valutazzjoni rilevanti għall-finijiet tal-każijiet ta' użu elenkati fl-Anness III.
Niezależnie od akapitu pierwszego system AI, o którym mowa w załączniku III, zawsze uznaje się za system wysokiego ryzyka, w przypadku gdy system ten dokonuje profilowania osób fizycznych.
Minkejja l-ewwel subparagrafu, sistema tal-IA msemmija fl-Anness III għandha dejjem titqies bħala b'riskju għoli meta s-sistema tal-IA twettaq tfassil tal-profili ta' persuni fiżiċi.
4. Dostawca, który uważa, że system AI, o którym mowa w załączniku III, nie jest system wysokiego ryzyka, przed wprowadzeniem tego systemu do obrotu lub oddaniem go do użytku dokumentuje swoją ocenę. Taki dostawca podlega obowiązkowi rejestracji określonemu w art. 49 ust. 2. Na wniosek właściwych organów krajowych dostawca przedstawia dokumentację tej oceny.
4. Fornitur li jqis li sistema tal-IA msemmija fl-Anness III mhix b'riskju għoli għandu jiddokumenta l-valutazzjoni tiegħu qabel ma dik is-sistema tiġi introdotta fis-suq jew titqiegħed fis-servizz. Tali fornitur għandu jkun soġġett għall-obbligu ta' reġistrazzjoni stipulat fl-Artikolu 49(2). Fuq talba tal-awtoritajiet nazzjonali kompetenti, il-fornitur għandu jipprovdi d-dokumentazzjoni tal-valutazzjoni.
5. Po konsultacji z Europejską Radą ds. Sztucznej Inteligencji (zwaną dalej „Radą ds. AI”), Komisja przedstawi nie później niż w dniu 2 lutego 2026 r. wytyczne określające praktyczne wdrożenie niniejszego artykułu zgodnie z art. 96 wraz z kompleksowym wykazem praktycznych przykładów przypadków wykorzystania systemów AI, które stanowią przypadki wykorzystania wysokiego ryzyka oraz które nie stanowią przypadków takiego wykorzystania.
5. Il-Kummissjoni għandha, wara li tikkonsulta lill-Bord Ewropew għall-Intelliġenza Artifiċjali (il-“Bord”), u mhux aktar tard mit-2 ta’ Frar 2026, tipprovdi linji gwida li jispeċifikaw l-implimentazzjoni prattika ta' dan l-Artikolu f'konformità mal-Artikolu 96 flimkien ma' lista komprensiva ta' eżempji prattiċi ta' każijiet ta' użu ta' sistemi tal-IA b'riskju għoli u mingħajr riskju għoli.
6. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 97 w celu zmiany akapitu drugiego ust. 3 niniejszego artykułu poprzez dodanie nowych warunków do warunków ustanowionych w tym przepisie lub ich zmianę, w przypadku gdy istnieją konkretne i wiarygodne dowody na istnienie systemów AI, które wchodzą w zakres stosowania załącznika III, ale nie stwarzają znaczącego ryzyka szkody dla zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych.
6. Il-Kummissjoni għandha tadotta atti delegati f'konformità mal-Artikolu 97 biex temenda l-kundizzjonijiet stabbiliti fil-paragrafu 3, l-ewwel subparagrafu, ta' dan l-Artikolu. Il-Kummissjoni tingħata s-setgħa li tadotta atti delegati f'konformità mal-Artikolu 97 sabiex temenda l-paragrafu 3, it-tieni subparagrafu, ta’ dan l-Artikolu billi żżid kundizzjonijiet ġodda ma' dawk stabbiliti fih, jew billi timmodifikahom, meta jkun hemm evidenza konkreta u affidabbli tal-eżistenza ta' sistemi tal-IA li jaqgħu fil-kamp ta' applikazzjoni tal-Anness III iżda li ma joħolqux riskju sinifikanti ta' ħsara għas-saħħa, għas-sikurezza jew għad-drittijiet fundamentali ta' persuni fiżiċi.
7. Komisja przyjmuje zgodnie z art 97 akty delegowane w celu zmiany akapitu drugiego ust. 3 niniejszego artykułu poprzez usunięcie któregokolwiek z warunków ustanowionych w tym przepisie, w przypadku gdy istnieją konkretne i wiarygodne dowody na to, że jest to konieczne w celu utrzymania poziomu ochrony zdrowia, bezpieczeństwa i praw podstawowych przewidzianego w niniejszym rozporządzeniu.
7. Il-Kummissjoni għandha tadotta atti delegati f'konformità mal-Artikolu 97 sabiex temenda l-paragrafu 3, it-tieni subparagrafu, ta’ dan l-Artikolu billi tħassar kwalunkwe waħda mill-kundizzjonijiet stabbiliti fih, fejn ikun hemm evidenza konkreta u affidabbli li dan ikun meħtieġ biex jinżamm il-livell ta' protezzjoni tas-saħħa, tas-sikurezza u tad-drittijiet fundamentali previsti f’dan ir-Regolament.
8. Zmiana warunków ustanowionych w ust. 3 akapit drugi, przyjęta zgodnie z ust. 6 i 7 niniejszego artykułu, nie może prowadzić do obniżenia ogólnego poziomu ochrony zdrowia, bezpieczeństwa i praw podstawowych przewidzianego w niniejszym rozporządzeniu i musi zapewniać spójność z aktami delegowanymi przyjętymi zgodnie z art. 7 ust. 1 oraz uwzględniać rozwój rynku i technologii.
8. Kwalunkwe emenda għall-kundizzjonijiet stabbiliti fil-paragrafu 3, it-tieni subparagrafu, adottati f’konformità mal-paragrafi 6 u 7 ta’ dan l-Artikolu, ma għandhiex tnaqqas il-livell ġenerali ta' protezzjoni tas-saħħa, tas-sikurezza u tad-drittijiet fundamentali previsti f’dan ir-Regolament u għandha tiżgura konsistenza mal-atti delegati adottati skont l-Artikolu 7(1), u tqis l-iżviluppi teknoloġiċi u tas-suq.
System zarządzania ryzykiem
Sistema ta' ġestjoni tar-riskju
1. Ustanawia się, wdraża, dokumentuje i obsługuje system zarządzania ryzykiem w odniesieniu do systemów AI wysokiego ryzyka.
1. Għandha tiġi stabbilita, implimentata, dokumentata u miżmuma sistema ta' ġestjoni tar-riskju fir-rigward tas-sistemi tal-IA b'riskju għoli.
2. Przez system zarządzania ryzykiem rozumie się ciągły, iteracyjny proces, planowany i realizowany przez cały cykl życia systemu AI wysokiego ryzyka, wymagający regularnego systematycznego przeglądu i aktualizacji. Obejmuje on następujące etapy:
2. Is-sistema ta' ġestjoni tar-riskju għandha tinftiehem bħala proċess iterattiv kontinwu ppjanat u li jseħħ tul iċ-ċiklu tal-ħajja kollu ta' sistema tal-IA b'riskju għoli, li jirrikjedi rieżami u aġġornament sistematiċi regolari. Għandu jkun fiha l-passi li ġejjin:
a)
identyfikację i analizę znanego i dającego się racjonalnie przewidzieć ryzyka, jakie dany system AI wysokiego ryzyka może stwarzać dla zdrowia, bezpieczeństwa lub praw podstawowych podczas jego stosowania zgodnie z przeznaczeniem;
(a)
l-identifikazzjoni u l-analiżi tar-riskji magħrufa u raġonevolment prevedibbli li s-sistema tal-IA b'riskju għoli tista' toħloq għas-saħħa, għas-sikurezza jew għad-drittijiet fundamentali meta s-sistema tal-IA b'riskju għoli tintuża f'konformità mal-għan maħsub tagħha;
b)
oszacowanie i ocenę ryzyka, jakie może wystąpić podczas wykorzystywania systemu AI wysokiego ryzyka zgodnie z przeznaczeniem i w warunkach dającego się racjonalnie przewidzieć niewłaściwego wykorzystania;
(b)
l-istima u l-evalwazzjoni tar-riskji li jistgħu jitfaċċaw meta s-sistema tal-IA b'riskju għoli tintuża f'konformità mal-għan maħsub tagħha u f'kundizzjonijiet ta' użu ħażin raġonevolment prevedibbli;
c)
ocenę innego mogącego wystąpić ryzyka na podstawie analizy danych zebranych z systemu monitorowania po wprowadzeniu do obrotu, o którym mowa w art. 72;
(c)
l-evalwazzjoni ta' riskji oħra li jistgħu jinħolqu abbażi tal-analiżi tad-data miġbura mis-sistema ta' sorveljanza ta' wara t-tqegħid fis-suq imsemmija fl-Artikolu 72;
d)
przyjęcie odpowiednich i ukierunkowanych środków zarządzania ryzykiem zaprojektowanych w celu przeciwdziałania ryzyku zidentyfikowanemu zgodnie z lit. a).
(d)
l-adozzjoni ta' miżuri ta' ġestjoni tar-riskju xierqa u mmirati mfassla biex jindirizzaw ir-riskji identifikati skont il-punt (a).
3. Ryzyko, o którym mowa w niniejszym artykule, oznacza tylko takie rodzaje ryzyka, które można stosownie ograniczyć lub wyeliminować poprzez rozwój lub zaprojektowanie systemu AI wysokiego ryzyka lub poprzez zapewnienie odpowiednich informacji technicznych.
3. Ir-riskji msemmija f'dan l-Artikolu għandhom jikkonċernaw biss dawk li jistgħu jiġu mitigati jew eliminati b'mod raġonevoli bl-iżvilupp jew id-disinn tas-sistema tal-IA b'riskju għoli, jew bl-għoti ta' informazzjoni teknika adegwata.
4. W ramach środków zarządzania ryzykiem, o których mowa w ust. 2 lit. d), należycie uwzględnia się skutki i możliwe interakcje wynikające z łącznego stosowania wymogów ustanowionych w niniejszej sekcji, w celu skuteczniejszego minimalizowania ryzyka przy jednoczesnym osiągnięciu odpowiedniej równowagi we wdrażaniu środków służących spełnieniu tych wymogów.
4. Il-miżuri ta' ġestjoni tar-riskju msemmija fil-paragrafu 2, il-punt (d) għandhom iqisu kif xieraq l-effetti u l-interazzjoni possibbli li jirriżultaw mill-applikazzjoni kkombinata tar-rekwiżiti stipulati f'din it-Taqsima, bil-għan li jiġu minimizzati r-riskji b'mod aktar effettiv filwaqt li jinkiseb bilanċ xieraq fl-implimentazzjoni tal-miżuri biex jiġu ssodisfati dawk ir-rekwiżiti.
5. Środki zarządzania ryzykiem, o których mowa w ust. 2 lit. d), muszą być takie, aby odpowiednie ryzyko szczątkowe związane z każdym zagrożeniem, jak również ogólne ryzyko szczątkowe systemów AI wysokiego ryzyka, oceniano jako dopuszczalne.
5. Il-miżuri ta' ġestjoni tar-riskju msemmija fil-paragrafu 2, il-punt (d) għandhom ikunu tali li r-riskju residwu rilevanti assoċjat ma' kull periklu kif ukoll ir-riskju residwu ġenerali tas-sistemi tal-IA b'riskju għoli jitqies aċċettabbli.
Przy określaniu najodpowiedniejszych środków zarządzania ryzykiem zapewnia się, co następuje:
Fl-identifikazzjoni tal-aktar miżuri xierqa ta' ġestjoni tar-riskju, għandu jkun żgurat dan li ġej:
a)
eliminację lub ograniczenie – w zakresie, w jakim jest to technicznie wykonalne – ryzyka zidentyfikowanego i ocenionego zgodnie z ust. 2 poprzez odpowiedni projekt i rozwój systemu AI wysokiego ryzyka;
(a)
l-eliminazzjoni jew it-tnaqqis tar-riskji identifikati u evalwati skont il-paragrafu 2 sa fejn hu teknikament possibbli permezz ta' disinn u żvilupp adegwati tas-sistema tal-IA b'riskju għoli;
b)
w stosownych przypadkach – wdrożenie odpowiednich środków służących ograniczeniu i kontroli ryzyka, którego nie można wyeliminować;
(b)
meta xieraq, l-implimentazzjoni ta' miżuri adegwati ta' mitigazzjoni u ta' kontroll li jindirizzaw ir-riskji li ma jistgħux jiġu eliminati;
c)
dostarczenie informacji wymaganych zgodnie z art. 13 oraz, w stosownych przypadkach, przeszkolenie podmiotów stosujących.
(c)
l-għoti ta' informazzjoni meħtieġa skont l-Artikolu 13, u, meta xieraq, taħriġ lill-implimentaturi.
W celu eliminowania lub ograniczania ryzyka związanego z wykorzystaniem systemu AI wysokiego ryzyka należytą uwagę zwraca się na wiedzę techniczną, doświadczenie, wykształcenie i szkolenia, jakich oczekuje się od podmiotu stosującego, oraz zakładany kontekst, w którym ma być stosowany system.
Bil-ħsieb tal-eliminazzjoni jew it-tnaqqis tar-riskji relatati mal-użu tas-sistema tal-IA b'riskju għoli, għandha tingħata kunsiderazzjoni dovuta lill-għarfien tekniku, l-esperjenza, l-edukazzjoni, it-taħriġ li għandu jkun mistenni mill-implimentatur u l-kuntest preżunt li fih tkun maħsuba li tintuża s-sistema.
6. Systemy AI wysokiego ryzyka testuje się w celu określenia najodpowiedniejszych i ukierunkowanych środków zarządzania ryzykiem. Testy zapewniają, by systemy AI wysokiego ryzyka działały zgodnie z ich przeznaczeniem oraz były zgodne z wymogami ustanowionymi w niniejszej sekcji.
6. Is-sistemi tal-IA b'riskju għoli għandhom jiġu ttestjati għall-finit tal-identifikazzjoni tal-aktar miżuri ta' ġestjoni tar-riskju xierqa u mmirati. L-ittestjar għandu jiżgura li s-sistemi tal-IA b'riskju għoli jaħdmu b'mod konsistenti għall-għan maħsub tagħhom u li jkunu konformi mar-rekwiżiti stipulati f'din it-Taqsima.
7. Procedury testowe mogą obejmować testy w warunkach rzeczywistych zgodnie z art. 60.
7. Il-proċeduri tal-ittestjar jistgħu jinkludu ttestjar fil-kundizzjonijiet tad-dinja reali skont l-Artikolu 60.
8. Testy systemów AI wysokiego ryzyka przeprowadza się, w stosownych przypadkach, w dowolnym momencie procesu rozwoju systemu, a w każdym przypadku przed wprowadzeniem go do obrotu lub oddaniem do użytku. Testy przeprowadza się w odniesieniu do uprzednio określonych wskaźników i progów probabilistycznych, stosownych ze względu na przeznaczenie systemu AI wysokiego ryzyka.
8. L-ittestjar ta' sistemi tal-IA b'riskju għoli għandu jitwettaq, kif xieraq, fi kwalunkwe ħin matul il-proċess ta' żvilupp, u, fi kwalunkwe każ, qabel l-introduzzjoni tagħhom fis-suq jew it-tqegħid fis-servizz. L-ittestjar għandu jitwettaq ma' metrika definita minn qabel u limiti massimi probabilistiċi li huma adattati għall-għan maħsub tas-sistema tal-IA b'riskju għoli.
9. Przy wdrażaniu systemu zarządzania ryzykiem przewidzianego w ust. 1–7 dostawcy zwracają uwagę na to, czy dany system AI wysokiego ryzyka w świetle swojego przeznaczenia może mieć niekorzystny wpływ na osoby poniżej 18 roku życia oraz, w stosownych przypadkach, na inne grupy szczególnie wrażliwe.
9. Meta jkunu qed jimplimentaw is-sistema ta' ġestjoni tar-riskju kif previst fil-paragrafi 1 sa 7, il-fornituri għandhom iqisu jekk, fid-dawl tal-għan maħsub tagħha, is-sistema tal-IA b'riskju għoli x'aktarx ikollha impatt negattiv fuq il-persuni taħt it-18-il sena u, kif xieraq, fuq gruppi oħra vulnerabbli.
10. W odniesieniu do dostawców systemów AI wysokiego ryzyka, którzy podlegają wymogom dotyczącym wewnętrznych procesów zarządzania ryzykiem na podstawie innych odpowiednich przepisów prawa Unii, aspekty przewidziane w ust. 1–9 mogą być częścią procedur zarządzania ryzykiem ustanowionych zgodnie z tym prawem lub łączyć się z tymi procedurami.
10. Għall-fornituri ta' sistemi tal-IA b'riskju għoli li huma soġġetti għal rekwiżiti rigward il-proċessi ta' ġestjoni tar-riskju interni skont dispożizzjonijiet rilevanti oħra tal-liġi tal-Unjoni, l-aspetti previsti fil-paragrafi 1 sa 9 jistgħu jkunu parti mill-proċeduri ta' ġestjoni tar-riskju stabbiliti skont dik il-liġi, jew ikkombinati magħhom.
Dane i zarządzanie danymi
Data u governanza tad-data
1. Systemy AI wysokiego ryzyka, które wykorzystują techniki obejmujące trenowanie modeli AI z wykorzystaniem danych, rozwija się na podstawie zbiorów danych treningowych, walidacyjnych i testowych spełniających kryteria jakości, o których mowa w ust. 2–5, w każdym przypadku gdy takie zbiory danych są wykorzystywane.
1. Sistemi tal-IA b'riskju għoli li jagħmlu użu minn tekniki li jinvolvu t-taħriġ ta' mudelli tal-IA b'data għandhom jiġu żviluppati abbażi ta' settijiet tad-data għal taħriġ, validazzjoni u ttestjar li jissodisfaw il-kriterji tal-kwalità msemmija fil-paragrafi 2 sa 5, kull meta jintużaw dawn is-settijiet tad-data.
2. Zbiory danych treningowych, walidacyjnych i testowych podlegają praktykom w zakresie zarządzania danymi stosownym do przeznaczenia danego systemu AI wysokiego ryzyka. Praktyki te dotyczą w szczególności:
2. Is-settijiet tad-data għal taħriġ, validazzjoni u ttestjar għandhom ikunu soġġetti għal prattiki ta' governanza u ġestjoni tad-data xierqa għall-għan maħsub tas-sistema tal-IA b'riskju għoli. Dawk il-prattiki għandhom jikkonċernaw b'mod partikolari:
a)
odpowiednich decyzji projektowych;
(a)
l-għażliet ta' disinn rilevanti;
b)
procesów zbierania danych i pochodzenia danych oraz, w przypadku danych osobowych, pierwotnego celu zbierania danych;
(b)
il-proċessi tal-ġbir tad-data u l-oriġini tad-data, u fil-każ ta' data personali, l-iskop oriġinali tal-ġbir tad-data;
c)
odpowiednich operacji przetwarzania na potrzeby przygotowania danych, takich jak dodawanie komentarzy, etykietowanie, czyszczenie, aktualizacja, wzbogacanie i agregacja;
(c)
operazzjonijiet rilevanti ta' pproċessar ta' tħejjija tad-data, bħall-annotazzjoni, it-tikkettar, it-tindif, l-aġġornament, l-arrikkiment u l-aggregazzjoni;
d)
sformułowania założeń, w szczególności w odniesieniu do informacji, do których pomiaru i reprezentowania mają służyć dane;
(d)
il-formulazzjoni ta' suppożizzjonijiet, b'mod partikolari fir-rigward tal-informazzjoni li d-data suppost tkejjel u tirrappreżenta;
e)
oceny dostępności, ilości i przydatności zbiorów danych, które są potrzebne;
(e)
valutazzjoni tad-disponibbiltà, il-kwantità u l-adegwatezza tas-settijiet tad-data li huma meħtieġa;
f)
badania pod kątem ewentualnej stronniczości, która może mieć wpływ na zdrowie i bezpieczeństwo osób, negatywnie wpływać na prawa podstawowe lub prowadzić do dyskryminacji zakazanej na mocy prawa Unii, zwłaszcza w przypadku gdy dane wyjściowe wpływają na dane wejściowe wykorzystywane na potrzeby przyszłych operacji;
(f)
l-eżami fid-dawl ta' preġudizzji possibbli li x'aktarx jaffettwaw is-saħħa u s-sikurezza tal-persuni, ikollhom impatt negattiv fuq id-drittijiet fundamentali jew iwasslu għal diskriminazzjoni pprojbita skont il-liġi tal-Unjoni, speċjalment fejn l-outputs tad-data jinfluwenzaw l-inputs għal operazzjonijiet futuri;
g)
odpowiednich środków służących wykrywaniu ewentualnej stronniczości określonej zgodnie z lit. f) oraz zapobieganiu jej i jej ograniczaniu;
(g)
miżuri xierqa għall-kxif, il-prevenzjoni u l-mitigazzjoni tal-preġudizzji possibbli identifikati skont il-punt (f);
h)
określenia istotnych luk w danych lub braków w danych, które uniemożliwiają zgodność z niniejszym rozporządzeniem, oraz tego, w jaki sposób można zaradzić tym lukom i brakom.
(h)
l-identifikazzjoni ta' lakuni jew nuqqasijiet rilevanti fid-data li jfixklu l-konformità ma' dan ir-Regolament, u kif dawk il-lakuni u n-nuqqasijiet jistgħu jiġu indirizzati.
3. Zbiory danych treningowych, walidacyjnych i testowych muszą być adekwatne, wystarczająco reprezentatywne oraz w jak największym stopniu wolne od błędów i kompletne z punktu widzenia przeznaczenia. Muszą się one charakteryzować odpowiednimi właściwościami statystycznymi, w tym, w stosownych przypadkach, w odniesieniu do osób lub grup osób, wobec których ma być stosowany system AI wysokiego ryzyka. Te kryteria zbiorów danych mogą zostać spełnione na poziomie pojedynczych zbiorów danych lub na poziomie ich kombinacji.
3. Is-settijiet tad-data għal taħriġ, validazzjoni u ttestjar għandhom ikunu rilevanti, rappreżentattivi biżżejjed, u kemm jista' jkun possibbli, mingħajr żbalji u kompluti fid-dawl tal-għan maħsub. Għandu jkollhom il-proprjetajiet statistiċi adatti, inkluż, fejn applikabbli, fir-rigward tal-persuni jew il-gruppi ta' persuni fir-rigward ta' min is-sistema tal-IA b'riskju għoli tkun maħsuba li tintuża. Dawk il-karatteristiċi tas-settijiet tad-data jistgħu jiġu ssodisfati fil-livell ta' settijiet tad-data individwali jew fil-livell ta' taħlita tagħhom.
4. Zbiory danych muszą uwzględniać, w zakresie wymaganym z uwagi na ich przeznaczenie, cechy lub elementy, które są specyficzne dla określonego otoczenia geograficznego, kontekstualnego, behawioralnego lub funkcjonalnego, w którym ma być wykorzystywany system AI wysokiego ryzyka.
4. Is-settijiet tad-data għandhom iqisu, sa fejn ikun mitlub mill-għan maħsub, il-karatteristiċi jew l-elementi li jkunu partikolari għall-ambjent ġeografiku, kuntestwali, komportamentali jew funzjonali speċifiku li fih tkun maħsuba li tintuża s-sistema tal-IA b'riskju għoli.
5. W zakresie, w jakim jest to bezwzględnie konieczne do celów zapewnienia zgodnie z ust. 2 lit. f) i g) niniejszego artykułu wykrywania i korygowania stronniczości systemów AI wysokiego ryzyka, dostawcy takich systemów mogą wyjątkowo przetwarzać szczególne kategorie danych osobowych, pod warunkiem stosowania odpowiednich zabezpieczeń w zakresie podstawowych praw i wolności osób fizycznych. Oprócz przepisów określonych w rozporządzeniach (UE) 2016/679 i (UE) 2018/1725 oraz dyrektywie (UE) 2016/680, aby takie przetwarzanie mogło się odbyć, przetwarzanie takie musi spełniać wszystkie następujące warunki:
5. Sal-punt li jkun strettament meħtieġ għall-fini li jiġu żgurati l-kxif u l-korrezzjoni tal-preġudizzju fir-rigward tas-sistemi tal-IA b'riskju għoli f'konformità mal-paragrafu (2), il-punti (f) u (g) ta' dan l-Artikolu, il-fornituri ta' tali sistemi jistgħu jipproċessaw b'mod eċċezzjonali kategoriji speċjali ta' data personali, soġġett għal salvagwardji xierqa għad-drittijiet u l-libertajiet fundamentali tal-persuni fiżiċi. Minbarra d-dispożizzjonijiet stipulati fir-Regolamenti (UE) 2016/679 u (UE) 2018/1725, id-Direttiva (UE) 2016/680, sabiex iseħħ tali pproċessar iridu jiġu ssodisfati l-kundizzjonijiet kollha li ġejjin:
a)
nie jest możliwe skuteczne wykrywanie i korygowanie stronniczości poprzez przetwarzanie innych danych, w tym danych syntetycznych lub zanonimizowanych;
(a)
il-kxif u l-korrezzjoni ta' preġudizzju ma jistgħux jiġu ssodisfati b'mod effettiv bl-ipproċessar ta' data oħra, inkluż data sintetika jew anonimizzata;
b)
szczególne kategorie danych osobowych podlegają ograniczeniom technicznym dotyczącym ponownego wykorzystywania danych osobowych oraz najnowocześniejszym środkom bezpieczeństwa i ochrony prywatności, w tym pseudonimizacji;
(b)
il-kategoriji speċjali ta' data personali huma soġġetti għal limitazzjonijiet tekniċi fuq l-użu mill-ġdid tad-data personali u miżuri ta' sigurtà u preservazzjoni tal-privatezza tal-ogħla livell ta' żvilupp tekniku, inkluża l-psewdonimizzazzjoni;
c)
szczególne kategorie danych osobowych podlegają środkom zapewniającym, by przetwarzane dane osobowe były zabezpieczone, chronione, podlegały odpowiednim środkom ochronnym, w tym ścisłym kontrolom i dokumentowaniu dostępu, aby uniknąć nadużyć i zapewnić, by dostęp do tych danych miały wyłącznie osoby upoważnione, zobowiązane do spełnienia odpowiednich obowiązków dotyczących poufności;
(c)
il-kategoriji speċjali ta' data personali huma soġġetti għal miżuri biex jiġi żgurat li d-data personali pproċessata tkun sigura, protetta, soġġetta għal salvagwardji xierqa, inkluż kontrolli stretti u dokumentazzjoni tal-aċċess, biex jiġi evitat l-użu ħażin u jiġi żgurat li persuni awtorizzati biss jkollhom aċċess għal dik id-data personali b'obbligi xierqa ta' kunfidenzjalità;
d)
szczególne kategorie danych osobowych nie są przesyłane, przekazywane ani w inny sposób udostępniane innym podmiotom;
(d)
il-kategoriji speċjali ta' data personali ma għandhomx jiġu trażmessi, trasferiti jew aċċessati b'xi mod ieħor minn partijiet oħra;
e)
szczególne kategorie danych osobowych usuwa się po skorygowaniu stronniczości lub po upływie okresu przechowywania danych osobowych, w zależności od tego, co nastąpi wcześniej;
(e)
il-kategoriji speċjali ta' data personali jitħassru ladarba l-preġudizzju jkun ġie kkoreġut jew id-data personali tkun laħqet tmiem il-perjodu ta' żamma tagħha, skont liema jiġi l-ewwel;
f)
rejestry czynności przetwarzania na podstawie rozporządzeń (UE) 2016/679 i (UE) 2018/1725 oraz dyrektywy (UE) 2016/680 zawierają uzasadnienie, dlaczego przetwarzanie szczególnych kategorii danych osobowych było bezwzględnie konieczne do wykrycia i skorygowania stronniczości oraz dlaczego cel ten nie mógł zostać osiągnięty w wyniku przetwarzania innych danych.
(f)
ir-rekords tal-attivitajiet ta' pproċessar skont ir-Regolamenti (UE) 2016/679 u (UE) 2018/1725 u d-Direttiva (UE) 2016/680 jinkludu r-raġunijiet għaliex l-ipproċessar ta' kategoriji speċjali ta' data personali kien strettament meħtieġ biex jinkixfu u jiġu kkoreġuti l-preġudizzji u għaliex dak l-objettiv ma setax jintlaħaq bl-ipproċessar ta' data oħra.
6. W przypadkach rozwoju systemów AI wysokiego ryzyka niewykorzystujących technik obejmujących trenowanie modeli AI ust. 2–5 stosuje się jedynie do zbiorów danych testowych.
6. Għall-iżvilupp ta' sistemi tal-IA b'riskju għoli li ma jużawx tekniki li jinvolvu t-taħriġ ta' mudelli tal-IA, il-paragrafi 2 sa 5 japplikaw biss għas-settijiet tad-data tal-ittestjar.
1. Dokumentację techniczną dla systemu AI wysokiego ryzyka sporządza się przed wprowadzeniem danego systemu do obrotu lub oddaniem go do użytku oraz dokonuje się jej aktualizacji.
1. Id-dokumentazzjoni teknika ta' sistema tal-IA b'riskju għoli għandha titfassal qabel ma dik is-sistema tiġi introdotta fis-suq jew titqiegħed fis-servizz u għandha tinżamm aġġornata.
Dokumentację techniczną sporządza się w taki sposób, aby wykazać, że system AI wysokiego ryzyka jest zgodny z wymogami ustanowionymi w niniejszej sekcji, oraz aby dostarczyć właściwym organom krajowym i jednostkom notyfikowanym informacji – w jasnej i kompleksowej formie – niezbędnych do oceny zgodności systemu AI z tymi wymogami. Zawiera ona co najmniej elementy określone w załączniku IV. MŚP, w tym przedsiębiorstwa typu start-up, mogą podawać elementy dokumentacji technicznej określone w załączniku IV w formie uproszczonej. W tym celu Komisja ustanawia wzór uproszczonej dokumentacji technicznej ukierunkowany na potrzeby małych przedsiębiorstw i mikroprzedsiębiorstw. W przypadku gdy MŚP, w tym przedsiębiorstwa typu start-up, zdecydują się na podawanie informacji wymaganych w załączniku IV w sposób uproszczony, korzystają z wzoru, o którym mowa w niniejszym ustępie. Jednostki notyfikowane akceptują ten wzór do celów oceny zgodności.
Id-dokumentazzjoni teknika għandha titfassal b'mod li turi li s-sistema tal-IA b'riskju għoli tikkonforma mar-rekwiżiti stipulati f'din it-Taqsima u tipprovdi lill-awtoritajiet kompetenti nazzjonali u lill-korpi notifikati bl-informazzjoni meħtieġa f'forma ċara u komprensiva biex tiġi vvalutata l-konformità tas-sistema tal-IA ma' dawk ir-rekwiżiti. Bħala minimu, għandu jkun fiha l-elementi stipulati fl-Anness IV. L-SMEs, inkluż in-negozji ġodda, jistgħu jipprovdu l-elementi tad-dokumentazzjoni teknika speċifikata fl-Anness IV b'mod simplifikat. Għal dan il-għan, il-Kummissjoni għandha tistabbilixxi formola simplifikata ta' dokumentazzjoni teknika mmirata lejn il-ħtiġijiet tal-intrapriżi żgħar u mikro. Meta SME, inkluż negozju ġdid, tagħżel li tipprovdi l-informazzjoni rikjesta fl-Anness IV b'mod simplifikat, hija għandha tuża l-formola msemmija f'dan il-paragrafu. Il-korpi notifikati għandhom jaċċettaw il-formola għall-finijiet tal-valutazzjoni tal-konformità.
2. W przypadku wprowadzania do obrotu lub oddawania do użytku systemu AI wysokiego ryzyka związanego z produktem, który jest objęty zakresem stosowania unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I sekcja A, sporządza się jeden zestaw dokumentacji technicznych zawierający wszystkie informacje określone w ust. 1, jak również informacje wymagane na podstawie tych aktów prawnych.
2. Meta sistema tal-IA b'riskju għoli relatata ma' prodott kopert mil-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni elenkata fit-Taqsima A tal-Anness I tiġi introdotta fis-suq jew titqiegħed fis-servizz, għandu jitfassal sett uniku ta' dokumentazzjoni teknika bl-informazzjoni kollha stipulata fil-paragrafu 1, kif ukoll l-informazzjoni meħtieġa skont dawk l-atti legali.
3. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 97 w celu zmiany, w razie potrzeby, załącznika IV, aby zagwarantować, by w świetle postępu technicznego dokumentacja techniczna zawierała wszystkie informacje niezbędne do oceny zgodności systemu z wymogami ustanowionymi w niniejszej sekcji.
3. Il-Kummissjoni għandha s-setgħa li tadotta atti delegati f'konformità mal-Artikolu 97 sabiex temenda l-Anness IV, meta meħtieġ, biex tiżgura li, fid-dawl tal-progress tekniku, id-dokumentazzjoni teknika tipprovdi l-informazzjoni kollha meħtieġa għal valutazzjoni tal-konformità tas-sistema mar-rekwiżiti stipulati f'din it-Taqsima.
Nadzór ze strony człowieka
1. Systemy AI wysokiego ryzyka projektuje się i rozwija w taki sposób, w tym poprzez uwzględnienie odpowiednich narzędzi interfejsu człowiek-maszyna, aby w okresie ich wykorzystywania systemu AI mogły być skutecznie nadzorowane przez osoby fizyczne.
1. Is-sistemi tal-IA b'riskju għoli għandhom jiġu ddisinjati u żviluppati b'tali mod, inkluż b'għodod xierqa ta' interfaċċa bejn il-bniedem u l-magna, li jistgħu jiġu sorveljati b'mod effettiv minn persuni fiżiċi waqt il-perjodu li jintużaw.
2. Nadzór ze strony człowieka ma na celu zapobieganie ryzyku dla zdrowia, bezpieczeństwa lub praw podstawowych lub minimalizowanie takiego ryzyka, które może się pojawić, gdy system AI wysokiego ryzyka jest wykorzystywany zgodnie z jego przeznaczeniem lub w warunkach dającego się racjonalnie przewidzieć niewłaściwego wykorzystania, w szczególności gdy takie ryzyko utrzymuje się pomimo stosowania innych wymogów ustanowionych w niniejszej sekcji.
2. Is-sorveljanza mill-bniedem għandu jkollha l-għan li tipprevjeni jew timminimizza r-riskji għas-saħħa, is-sikurezza jew id-drittijiet fundamentali li jistgħu jinħolqu waqt l-użu tas-sistema tal-IA b'riskju għoli f'konformità mal-għan maħsub tagħha jew f'kundizzjonijiet ta' użu ħażin raġonevolment prevedibbli, b'mod partikolari meta dawn ir-riskji jissoktaw minkejja l-applikazzjoni ta' rekwiżiti oħra stipulati f'din it-Taqsima.
3. Środki nadzoru muszą być współmierne do ryzyka, poziomu autonomii i kontekstu wykorzystywania danego systemu AI wysokiego ryzyka, a nadzór zapewnia się za pomocą co najmniej jednego z następujących rodzajów środków:
3. Il-miżuri ta' sorveljanza għandhom ikunu proporzjonati għar-riskji, il-livell ta' awtonomija u l-kuntest tal-użu tas-sistema tal-IA b'riskju għoli u għandhom jiġu żgurati permezz ta' tip wieħed ta' miżuri li ġejjin jew mit-tnejn li huma:
a)
środków określonych i wbudowanych, jeżeli jest to technicznie wykonalne, w system AI wysokiego ryzyka przez dostawcę przed wprowadzeniem systemu do obrotu lub oddaniem do użytku;
(a)
miżuri identifikati u mibnija, meta teknikament fattibbli, fis-sistema tal-IA b'riskju għoli mill-fornitur qabel ma tiġi introdotta fis-suq jew titqiegħed fis-servizz;
b)
środków określonych przez dostawcę przed wprowadzeniem systemu AI wysokiego ryzyka do obrotu lub oddaniem go do użytku i które to środki nadają się do wdrożenia przez podmiot stosujący.
(b)
miżuri identifikati mill-fornitur qabel l-introduzzjoni tas-sistema tal-IA b'riskju għoli fis-suq jew titqiegħed fis-servizz u li huma xierqa biex jiġu implimentati mill-implimentatur.
4. Do celów wykonania ust. 1, 2 i 3 system AI wysokiego ryzyka udostępnia się podmiotowi stosującemu w taki sposób, aby umożliwić osobom fizycznym, którym powierzono sprawowanie nadzoru ze strony człowieka, odpowiednio i proporcjonalnie:
4. Għall-fini tal-implimentazzjoni tal-paragrafi 1, 2 u 3, is-sistema tal-IA b'riskju għoli għandha tiġi pprovduta lill-implimentatur b’tali mod li l-persuni fiżiċi li lilhom tiġi assenjata s-sorveljanza mill-bniedem ikunu jistgħu, kif xieraq u b'mod proporzjonat:
a)
należyte zrozumienie odpowiednich możliwości i ograniczeń systemu AI wysokiego ryzyka oraz należyte monitorowanie jego działania, w tym w celu wykrywania anomalii, nieprawidłowego funkcjonowania i nieoczekiwanych wyników działania oraz zaradzeniu im w przypadku ich wystąpienia;
(a)
jifhmu sew il-kapaċitajiet u l-limitazzjonijiet rilevanti tas-sistema tal-IA b'riskju għoli u jkunu jistgħu jimmonitorjaw kif dovut l-operat tagħha, inkluż bil-ħsieb li jikxfu u jindirizzaw anomaliji, disfunzjonijiet u prestazzjoni mhux mistennija;
b)
pozostawanie świadomym potencjalnej tendencji do automatycznego polegania lub nadmiernego polegania na wyniku wytworzonym przez system AI wysokiego ryzyka (tzw. „błąd automatyzacji”), w szczególności w przypadku systemów AI wysokiego ryzyka wykorzystywanych do udzielania informacji lub zaleceń na potrzeby decyzji podejmowanych przez osoby fizyczne;
(b)
jibqgħu konxji tat-tendenza possibbli li wieħed iserraħ awtomatikament jew li jserraħ wisq fuq l-output prodott minn sistema tal-IA b'riskju għoli (preġudizzju tal-awtomatizzazzjoni), b'mod partikolari għal sistemi tal-IA b'riskju għoli użati biex jipprovdu informazzjoni jew rakkomandazzjonijiet għal deċiżjonijiet li jridu jittieħdu minn persuni fiżiċi;
c)
prawidłową interpretację wyniku systemu AI wysokiego ryzyka, biorąc pod uwagę na przykład dostępne narzędzia i metody interpretacji;
(c)
jinterpretaw b'mod korrett l-output tas-sistema IA b'riskju għoli, filwaqt li jqisu, pereżempju, l-għodod u l-metodi ta' interpretazzjoni disponibbli;
d)
podjęcie decyzji, w każdej konkretnej sytuacji, o niekorzystaniu z systemu AI wysokiego ryzyka lub w inny sposób zignorowanie, unieważnienie lub odwrócenie wyniku systemu AI wysokiego ryzyka;
(d)
jiddeċiedu, fi kwalunkwe sitwazzjoni partikolari, li ma jużawx is-sistema tal-IA b'riskju għoli jew li jinjoraw, iwarrbu jew ireġġgħu lura l-output tas-sistema tal-IA b'riskju għoli;
e)
ingerowanie w działanie systemu AI wysokiego ryzyka lub przerwanie działania systemu za pomocą przycisku „stop” lub podobnej procedury, która pozwala na zatrzymanie systemu w stanie bezpiecznym.
(e)
jintervjenu fit-tħaddim tas-sistema tal-IA b'riskju għoli jew jinterrompuha permezz ta' buttuna “stop” jew proċedura simili li permezz tagħha s-sistema tkun tista' tieqaf mingħajr periklu.
5. W przypadku systemów AI wysokiego ryzyka, o których mowa w załączniku III pkt 1 lit. a), środki, o których mowa w ust. 3 niniejszego artykułu, muszą ponadto zapewniać, aby podmiot stosujący nie podejmował żadnego działania ani decyzji na podstawie identyfikacji będącej wynikiem działania systemu, jeżeli identyfikacji tej nie zweryfikowały ani nie potwierdziły odrębnie co najmniej dwie osoby fizyczne mające wymagane kompetencje, przeszkolenie i uprawnienia.
5. Għas-sistemi tal-IA b'riskju għoli msemmija fil-punt 1(a) tal-Anness III, il-miżuri msemmija fil-paragrafu 3 ta' dan l-Artikolu għandhom ikunu tali li jiżguraw li, barra minn hekk, ma tittieħed l-ebda azzjoni jew deċiżjoni mill-implimentatur abbażi tal-identifikazzjoni li tirriżulta mis-sistema sakemm dik l-identifikazzjoni ma tkunx ġiet verifikata u kkonfermata separatament minn tal-anqas żewġ persuni fiżiċi bil-kompetenza, it-taħriġ u l-awtorità meħtieġa.
Wymóg odrębnej weryfikacji przez co najmniej dwie osoby fizyczne nie ma zastosowania do systemów AI wysokiego ryzyka wykorzystywanych do celów ścigania przestępstw, migracji, kontroli granicznej lub azylu, w przypadkach gdy prawo Unii lub prawo krajowe uznaje stosowanie tego wymogu za nieproporcjonalne.
Ir-rekwiżit għal verifika separata minn mill-inqas żewġ persuni fiżiċi ma għandux japplika għal sistemi tal-IA b'riskju għoli użati għall-finijiet tal-infurzar tal-liġi, tal-migrazzjoni, tal-kontroll fil-fruntieri jew tal-ażil, fejn il-liġi tal-Unjoni jew dik nazzjonali tqis li l-applikazzjoni ta' dan ir-rekwiżit hija sproporzjonata.
Dokładność, solidność i cyberbezpieczeństwo
Akkuratezza, robustezza u ċibersigurtà
1. Systemy AI wysokiego ryzyka projektuje się i rozwija w taki sposób, aby osiągały odpowiedni poziom dokładności, solidności i cyberbezpieczeństwa oraz by działały konsekwentnie pod tymi względami w całym cyklu życia.
1. Is-sistemi tal-IA b'riskju għoli għandhom jiġu ddisinjati u żviluppati b'tali mod li jiksbu livell xieraq ta' akkuratezza, robustezza u ċibersigurtà, u li l-prestazzjoni tagħhom fir-rigward ta' dawk l-aspetti tkun konsistenti tul iċ-ċiklu tal-ħajja tagħhom.
2. Aby odnieść się do technicznych aspektów pomiaru odpowiednich poziomów dokładności i solidności określonych w ust. 1 oraz wszelkich innych istotnych wskaźników skuteczności działania, Komisja we współpracy z odpowiednimi zainteresowanymi stronami i organizacjami, takimi jak organy metrologiczne i organy ds. analizy porównawczej, zachęca w stosownych przypadkach do opracowywania poziomów odniesienia i metod pomiarowych.
2. Sabiex tindirizza l-aspetti tekniċi ta' kif jitkejlu l-livelli xierqa ta' akkuratezza u robustezza stipulati fil-paragrafu 1 u kwalunkwe metrika tal-prestazzjoni rilevanti oħra, il-Kummissjoni għandha, f'kooperazzjoni mal-partijiet ikkonċernati u l-organizzazzjonijiet rilevanti bħall-metroloġija u l-awtoritajiet tal-valutazzjoni komparattiva, tħeġġeġ kif xieraq, l-iżvilupp ta' parametri referenzjarji u metodoloġiji tal-kejl.
3. Poziomy dokładności i odpowiednie wskaźniki dokładności systemów AI wysokiego ryzyka deklaruje się w dołączonych do nich instrukcjach obsługi.
3. Il-livelli ta' akkuratezza u l-metrika tal-akkuratezza rilevanti tas-sistemi tal-IA b'riskju għoli għandhom jiġu dikjarati fl-istruzzjonijiet tal-użu li jakkumpanjawhom.
4. Systemy AI wysokiego ryzyka muszą być możliwie jak najodporniejsze na błędy, usterki lub niespójności, które mogą wystąpić w systemie lub w środowisku, w którym działa system, w szczególności w wyniku interakcji z osobami fizycznymi lub innymi systemami. W tym zakresie podejmuje się środki techniczne i organizacyjne.
4. Is-sistemi tal-IA b'riskju għoli għandhom ikunu kemm jista' jkun reżiljenti fir-rigward ta' żbalji, ħsarat jew inkonsistenzi li jistgħu jseħħu fis-sistema jew fl-ambjent li fih topera s-sistema, b'mod partikolari minħabba l-interazzjoni tagħhom ma' persuni fiżiċi jew ma' sistemi oħra. F'dan ir-rigward għandhom jittieħdu miżuri tekniċi u organizzattivi.
Solidność systemów AI wysokiego ryzyka można osiągnąć dzięki rozwiązaniom technicznym gwarantującym redundancję, które mogą obejmować plany zakładające dostępność systemu zapasowego lub plany zapewniające przejście systemu w stan bezpieczny (tzw. „fail-safe”).
Ir-robustezza tas-sistemi tal-IA b'riskju għoli tista' tinkiseb b'soluzzjonijiet tekniċi ta' ridondanza, li jistgħu jinkludu pjanijiet ta' backup jew ta' fail-safe.
Systemy AI wysokiego ryzyka, które po wprowadzeniu na rynek lub oddaniu do użytku nadal się uczą, rozwija się w taki sposób, aby w możliwie największym stopniu wyeliminować lub ograniczyć ryzyko potencjalnie stronniczych wyników wpływających na dane wejściowe wykorzystywane na potrzeby przyszłych operacji (sprzężenie zwrotne) oraz aby zapewnić, by wszelkie tego typu sprzężenie zwrotne zostało odpowiednio uwzględnione przy pomocy odpowiednich środków ograniczających ryzyko.
Is-sistemi tal-IA b'riskju għoli li jkomplu jitgħallmu wara li jiġu introdotti fis-suq jew jitqiegħdu fis-servizz għandhom jiġu żviluppati b'tali mod li jeliminaw jew inaqqsu kemm jista' jkun ir-riskju li outputs possibbilment ippreġudikati jinfluwenzaw l-input għal operazzjonijiet futuri (“feedback loops”), u biex jiġi żgurat li kwalunkwe feedback loop bħal dan jiġi indirizzat kif xieraq b'miżuri ta' mitigazzjoni xierqa.
5. Systemy AI wysokiego ryzyka muszą być odporne na próby nieupoważnionych osób trzecich mające na celu zmianę ich wykorzystania, wyników lub skuteczności działania poprzez wykorzystanie słabych punktów systemu.
5. Is-sistemi tal-IA b'riskju għoli għandhom ikunu reżiljenti kontra tentattivi minn partijiet terzi mhux awtorizzati biex ibiddlu l-użu, l-outputs jew il-prestazzjoni tagħhom billi jisfruttaw il-vulnerabbiltajiet tas-sistema.
Rozwiązania techniczne mające na celu zapewnienie cyberbezpieczeństwa systemów AI wysokiego ryzyka muszą być dostosowane do odpowiednich okoliczności i ryzyka.
Is-soluzzjonijiet tekniċi mmirati biex jiżguraw iċ-ċibersigurtà tas-sistemi tal-IA b'riskju għoli għandhom ikunu xierqa għaċ-ċirkostanzi rilevanti u għar-riskji.
Rozwiązania techniczne mające na celu eliminowanie słabych punktów charakterystycznych dla AI obejmują, w stosownych przypadkach, środki służące zapobieganiu atakom mającym na celu manipulowanie zbiorem danych treningowych (zatruwanie danych) lub elementami stosowanymi przy trenowaniu, które zostały poddane pretrenowaniu (zatruwanie modelu), wprowadzaniu danych wejściowych, które mają na celu spowodowanie błędu w modelu AI (przykłady kontradyktoryjne lub omijanie modelu), atakom na poufność lub wadom modelu, a także środki w zakresie wykrywania tych zagrożeń, reagowania na nie, ich rozwiązywania i ich kontrolowania.
Is-soluzzjonijiet tekniċi biex jiġu indirizzati vulnerabbiltajiet speċifiċi tal-IA għandhom jinkludu, fejn xieraq, miżuri għall-prevenzjoni, il-kxif, ir-rispons għal, ir-riżoluzzjoni u l-kontroll ta' attakki li jippruvaw jimmanipulaw is-sett tad-data għat-taħriġ (avvelenament tad-data), jew komponenti mħarrġa minn qabel użati fit-taħriġ (avvelenament tal-mudell), inputs imfassla biex jġiegħlu lill-mudell tal-IA jiżbalja (eżempji kontradittorji jew evażjoni tal-mudell), attakki fuq il-kunfidenzjalità jew difetti fil-mudell.
System zarządzania jakością
Sistema ta' ġestjoni tal-kwalità
1. Dostawcy systemów AI wysokiego ryzyka wprowadzają system zarządzania jakością, który zapewnia zgodność z niniejszym rozporządzeniem. System ten dokumentuje się w systematyczny i uporządkowany sposób w formie pisemnych polityk, procedur i instrukcji oraz obejmuje on co najmniej następujące aspekty:
1. Il-fornituri tas-sistemi tal-IA b'riskju għoli għandhom jistabbilixxu sistema ta' ġestjoni tal-kwalità li tiżgura l-konformità ma' dan ir-Regolament. Dik is-sistema għandha tiġi dokumentata b'mod sistematiku u ordnat fil-forma ta' politiki, proċeduri u struzzjonijiet bil-miktub, u għandha tinkludi mill-inqas l-aspetti li ġejjin:
a)
strategię na rzecz zgodności regulacyjnej, w tym zgodności z procedurami oceny zgodności i procedurami zarządzania zmianami w systemie AI wysokiego ryzyka;
(a)
strateġija għall-konformità regolatorja, inkluż il-konformità mal-proċeduri ta' valutazzjoni tal-konformità u mal-proċeduri għall-ġestjoni tal-modifiki fis-sistema tal-IA b'riskju għoli;
b)
techniki, procedury i systematyczne działania, które należy stosować na potrzeby projektowania oraz kontroli i weryfikacji projektu systemu AI wysokiego ryzyka;
(b)
it-tekniki, il-proċeduri u l-azzjonijiet sistematiċi li għandhom jintużaw għad-disinn, il-kontroll tad-disinn u l-verifika tad-disinn tas-sistema tal-IA b'riskju għoli;
c)
techniki, procedury i systematyczne działania, które należy stosować na potrzeby rozwoju, kontroli jakości i zapewniania jakości systemu AI wysokiego ryzyka;
(c)
it-tekniki, il-proċeduri u l-azzjonijiet sistematiċi li jridu jintużaw għall-iżvilupp, il-kontroll tal-kwalità u l-garanzija tal-kwalità tas-sistema tal-IA b'riskju għoli;
d)
procedury badania, testowania i walidacji, które należy przeprowadzić przed przystąpieniem do rozwoju systemu AI wysokiego ryzyka, w trakcie tego rozwoju i po jego zakończeniu, oraz częstotliwość, z jaką mają być przeprowadzane;
(d)
il-proċeduri ta' eżaminazzjoni, ittestjar u validazzjoni li għandhom jitwettqu qabel, waqt u wara l-iżvilupp tas-sistema tal-IA b'riskju għoli, u l-frekwenza li biha jridu jsiru;
e)
specyfikacje techniczne, w tym normy, które należy zastosować, oraz w przypadkach gdy normy zharmonizowane nie są stosowane w pełni lub nie obejmują wszystkich odpowiednich wymogów ustanowionych w sekcji 2, środki, które należy zastosować do zapewnienia, by system AI wysokiego ryzyka był zgodny z tymi wymogami;
(e)
l-ispeċifikazzjonijiet tekniċi, inkluż l-istandards, li għandhom jiġu applikati u, meta l-istandards armonizzati rilevanti ma jiġux applikati b'mod sħiħ, jew ma jkoprux ir-rekwiżiti rilevanti kollha stipulati fit-Taqsima 2, il-mezzi li għandhom jintużaw biex jiġi żgurat li s-sistema tal-IA b'riskju għoli tikkonforma ma' dawk ir-rekwiżiti;
f)
systemy i procedury zarządzania danymi, w tym dotyczące nabywania danych, zbierania danych, analizy danych, etykietowania danych, przechowywania danych, filtrowania danych, eksploracji danych, agregacji danych, zatrzymywania danych i wszelkich innych operacji dotyczących danych, które przeprowadza się przed wprowadzeniem do obrotu lub oddaniem do użytku systemów AI wysokiego ryzyka i do celu wprowadzenia ich do obrotu lub oddania ich do użytku;
(f)
is-sistemi u l-proċeduri għall-ġestjoni tad-data, inkluż l-akwiżizzjoni tad-data, il-ġbir tad-data, l-analiżi tad-data, it-tikkettar tad-data, il-ħżin tad-data, il-filtrazzjoni tad-data, l-estrazzjoni tad-data, l-aggregazzjoni tad-data, iż-żamma tad-data u kwalunkwe operazzjoni oħra rigward id-data li titwettaq qabel u għall-fini tal-introduzzjoni fis-suq jew it-tqegħid fis-servizz ta' sistemi tal-IA b'riskju għoli;
g)
system zarządzania ryzykiem, o którym mowa w art. 9;
(g)
is-sistema ta' ġestjoni tar-riskju msemmija fl-Artikolu 9;
h)
ustanowienie, wdrożenie i obsługa systemu monitorowania po wprowadzeniu do obrotu, zgodnie z art. 72;
(h)
l-istabbiliment, l-implimentazzjoni u l-manutenzjoni ta' sorveljanza ta' wara t-tqegħid fis-suq, f'konformità mal-Artikolu 72;
i)
procedury związane ze zgłaszaniem poważnego incydentu zgodnie z art. 73;
(i)
il-proċeduri relatati mar-rappurtar ta' inċident serju f'konformità mal-Artikolu 73;
j)
porozumiewanie się z właściwymi organami krajowymi, innymi właściwymi organami, w tym organami zapewniającymi lub wspierającymi dostęp do danych, jednostkami notyfikowanymi, innymi operatorami, klientami lub innymi zainteresowanymi stronami;
(j)
it-trattament tal-komunikazzjoni mal-awtoritajiet nazzjonali kompetenti, ma' awtoritajiet rilevanti oħra, inkluż dawk li jipprovdu jew jappoġġaw l-aċċess għad-data, mal-korpi notifikati, ma' operaturi oħra, mal-klijenti jew ma' partijiet interessati oħra;
k)
systemy i procedury rejestrowania wszelkiej istotnej dokumentacji i wszelkich istotnych informacji;
(k)
is-sistemi u l-proċeduri għaż-żamma tar-rekords tad-dokumentazzjoni u l-informazzjoni rilevanti kollha;
l)
zarządzanie zasobami, w tym środki związane z bezpieczeństwem dostaw;
(l)
il-ġestjoni tar-riżorsi, li tinkludi miżuri relatati mas-sigurtà tal-provvista;
m)
ramy odpowiedzialności służące określeniu odpowiedzialności kierownictwa i pozostałego personelu w odniesieniu do wszystkich aspektów wymienionych w niniejszym ustępie.
(m)
qafas ta' responsabbiltà li jistabbilixxi r-responsabbiltajiet tal-maniġment u ta' persunal ieħor fir-rigward tal-aspetti kollha elenkati f'dan il-paragrafu.
2. Wdrożenie aspektów, o których mowa w ust. 1, musi być proporcjonalne do wielkości organizacji dostawcy. W każdym przypadku dostawcy przestrzegają stopnia rygoryzmu i poziomu ochrony wymaganych do zapewnienia zgodności ich systemów AI wysokiego ryzyka z niniejszym rozporządzeniem.
2. L-implimentazzjoni tal-aspetti msemmija fil-paragrafu 1 għandha tkun proporzjonata għad-daqs tal-organizzazzjoni tal-fornitur. Fi kwalunkwe każ, il-fornituri għandhom jirrispettaw il-grad ta' rigorożità u l-livell ta' protezzjoni meħtieġa biex tiġi żgurata l-konformità tas-sistemi tal-IA b'riskju għoli tagħhom ma' dan ir-Regolament.
3. Dostawcy systemów AI wysokiego ryzyka, którzy podlegają obowiązkom dotyczącym systemów zarządzania jakością lub równoważnym obowiązkom na podstawie odpowiednich sektorowych przepisów prawa Unii, mogą uwzględnić aspekty wymienione w ust. 1 jako część systemów zarządzania jakością zgodnie z tymi przepisami.
3. Fornituri ta' sistemi tal-IA b'riskju għoli li huma soġġetti għal obbligi rigward sistemi ta' ġestjoni tal-kwalità jew funzjoni ekwivalenti skont il-liġi settorjali rilevanti tal-Unjoni jistgħu jinkludu l-aspetti elenkati fil-paragrafu 1 bħala parti mis-sistemi ta' ġestjoni tal-kwalità skont dik il-liġi.
4. W odniesieniu do dostawców będących instytucjami finansowymi, które podlegają wymogom dotyczącym ich systemu zarządzania wewnętrznego, uzgodnień lub procedur na podstawie przepisów prawa Unii dotyczących usług finansowych, obowiązek wprowadzenia systemu zarządzania jakością, z wyjątkiem ust. 1 lit. g), h) oraz i) niniejszego artykułu, uznaje się za spełniony w przypadku zapewnienia zgodności z przepisami dotyczącymi zarządzania wewnętrznego, uzgodnień lub procedur zgodnie z odpowiednimi przepisami prawa Unii dotyczącymi usług finansowych. W tym celu uwzględnia się wszelkie normy zharmonizowane, o których mowa w art. 40.
4. Għal fornituri li huma istituzzjonijiet finanzjarji soġġetti għal rekwiżiti dwar il-governanza, l-arranġamenti jew il-proċessi interni tagħhom skont il-liġi tal-Unjoni dwar is-servizzi finanzjarji, l-obbligu li jdaħħlu fis-seħħ sistema ta' ġestjoni tal-kwalità bl-eċċezzjoni tal-paragrafu 1, il-punti (g), (h) u (i) ta' dan l-Artikolu għandu jitqies ssodisfat bil-konformità mar-regoli dwar l-arranġamenti jew il-proċessi ta' governanza interna skont il-liġi rilevanti tal-Unjoni dwar is-servizzi finanzjarji. Għal dan il-għan, għandu jitqies kwalunkwe standard armonizzat imsemmi fl-Artikolu 40.
Działania naprawcze i obowiązek informacyjny
Azzjonijiet korrettivi u dmir ta' informazzjoni
1. Dostawcy systemów AI wysokiego ryzyka, którzy uważają lub mają powody, by uważać, że system AI wysokiego ryzyka, który wprowadzili do obrotu lub oddali do użytku, nie jest zgodny z niniejszym rozporządzeniem, natychmiast podejmują niezbędne działania naprawcze w celu, stosownie do przypadku, zapewnienia zgodności tego systemu, wycofania go z rynku, wyłączenia go lub wycofania go z użytku. Informują oni o tym dystrybutorów danego systemu AI wysokiego ryzyka oraz, w stosownych przypadkach, odpowiednio podmioty stosujące, upoważnionego przedstawiciela i importerów.
1. Il-fornituri ta' sistemi tal-IA b'riskju għoli li jqisu jew li jkollhom raġuni biex iqisu li sistema tal-IA b'riskju għoli li jkunu introduċew fis-suq jew li jkunu qiegħdu fis-servizz ma tkunx f'konformità ma' dan ir-Regolament, għandhom minnufih jieħdu l-azzjonijiet korrettivi meħtieġa biex dik is-sistema tinġieb f'konformità, biex ineħħuha, biex jiddiżattivawha, jew biex isejħuha lura, skont il-każ. Dawn għandhom jinfurmaw lid-distributuri tas-sistema tal-IA b'riskju għoli kkonċernati u, meta applikabbli, lill-implimentaturi, lir-rappreżentat awtorizzat u lill-importaturi dwar dan.
2. W przypadku gdy system AI wysokiego ryzyka stwarza ryzyko w rozumieniu art. 79 ust. 1 i dostawca danego systemu dowie się o tym ryzyku, dostawca ten natychmiast wyjaśnia przyczyny tego ryzyka, w stosownych przypadkach we współpracy ze zgłaszającym podmiotem stosującym, oraz informuje organy nadzoru rynku właściwe w zakresie przedmiotowych systemów AI wysokiego ryzyka, oraz, w stosownych przypadkach, jednostkę notyfikowaną, która zgodnie z art. 44 wydała certyfikat dla danego systemu AI wysokiego ryzyka, w szczególności o charakterze danej niezgodności oraz o wszelkich podjętych działaniach naprawczych.
2. Meta s-sistema tal-IA b'riskju għoli tippreżenta riskju skont it-tifsira tal-Artikolu 79(1) u l-fornitur isir konxju minn dak ir-riskju, il-fornitur għandu minnufih jinvestiga l-kawżi, f'kollaborazzjoni mal-implimentatur li jirrapporta, meta applikabbli, u jinforma lill-awtoritajiet tas-sorveljanza tas-suq kompetenti għas-sistema tal-IA b'riskju għoli kkonċernata u, fejn applikabbli, lill-korp notifikat li ħareġ ċertifikat għal dik is-sistema tal-IA b'riskju għoli f'konformità mal-Artikolu 44, b'mod partikolari, dwar in-natura tan-nuqqas ta' konformità u dwar kwalunkwe azzjoni korrettiva meħuda.
Upoważnieni przedstawiciele dostawców systemów AI wysokiego ryzyka
Rappreżentanti awtorizzati tal-fornituri ta' sistemi tal-IA b'riskju għoli
1. Przed udostępnieniem swoich systemów AI wysokiego ryzyka na rynku Unii dostawcy mający miejsce zamieszkania lub siedzibę w państwach trzecich ustanawiają – na podstawie pisemnego pełnomocnictwa – upoważnionego przedstawiciela mającego miejsce zamieszkania lub siedzibę w Unii.
1. Qabel ma jqiegħdu s-sistemi tal-IA b'riskju għoli tagħhom fis-suq tal-Unjoni, il-fornituri stabbiliti f'pajjiżi terzi għandhom, b'mandat bil-miktub, jaħtru rappreżentant awtorizzat li jkun stabbilit fl-Unjoni.
2. Dostawca umożliwia swojemu upoważnionemu przedstawicielowi wykonywanie zadań powierzonych mu na mocy pełnomocnictwa udzielonego przez dostawcę.
2. Il-fornitur għandu jippermetti lir-rappreżentant awtorizzat tiegħu jwettaq il-kompiti speċifikati fil-mandat li jirċievi mingħand il-fornitur.
3. Upoważniony przedstawiciel wykonuje zadania powierzone mu na mocy pełnomocnictwa udzielonego przez dostawcę. Upoważniony przedstawiciel przekazuje organom nadzoru rynku, na wniosek, kopię pełnomocnictwa w jednym z oficjalnych języków instytucji Unii wskazanym przez właściwy organ. Do celów niniejszego rozporządzenia pełnomocnictwo uprawnia upoważnionego przedstawiciela do wykonywania następujących zadań:
3. Ir-rappreżentant awtorizzat għandu jwettaq il-kompiti speċifikati fil-mandat li jirċievi mingħand il-fornitur. Huwa għandu jipprovdi kopja tal-mandat lill-awtoritajiet tas-sorveljanza tas-suq fuq talba, b'waħda mil-lingwi uffiċjali tal-istituzzjonijiet tal-Unjoni, kif indikat mill-awtorità kompetenti. Għall-finijiet ta' dan ir-Regolament, il-mandat għandu jagħti s-setgħa lir-rappreżentant awtorizzat biex iwettaq il-kompiti li ġejjin:
a)
sprawdzenie, czy zostały sporządzone deklaracja zgodności UE, o której mowa w art. 47, i dokumentacja techniczna, o której mowa w art. 11, oraz czy została przeprowadzona przez dostawcę odpowiednia procedura oceny zgodności;
(a)
jivverifika li d-dikjarazzjoni ta' konformità tal-UE msemmija fl-Artikolu 47 u d-dokumentazzjoni teknika msemmija fl-Artikolu 11 ikunu tfasslu u li l-fornitur ikun wettaq proċedura ta' valutazzjoni tal-konformità xierqa;
b)
przechowywanie do dyspozycji właściwych organów i krajowych organów lub jednostek, o których mowa w art. 74 ust. 10, przez okres 10 lat od wprowadzenia systemu AI wysokiego ryzyka do obrotu lub oddania go do użytku, danych kontaktowych dostawcy, który ustanowił upoważnionego przedstawiciela, kopii deklaracji zgodności UE, o której mowa w art. 47, dokumentacji technicznej oraz, w stosownych przypadkach, certyfikatu wydanego przez jednostkę notyfikowaną;
(b)
iżomm għad-dispożizzjoni tal-awtoritajiet kompetenti u l-awtoritajiet jew il-korpi nazzjonali msemmija fl-Artikolu 74(10), għal perjodu ta' 10 snin wara li s-sistema tal-IA b'riskju għoli tkun ġiet introdotta fis-suq jew tqiegħdet fis-servizz, id-dettalji ta' kuntatt tal-fornitur li jkun ħatar ir-rappreżentant awtorizzat, kopja tad-dikjarazzjoni ta' konformità tal-UE msemmija fl-Artikolu 47, id-dokumentazzjoni teknika u, jekk applikabbli, iċ-ċertifikat maħruġ mill-korp notifikat;
c)
przekazywanie właściwemu organowi, na uzasadniony wniosek, wszelkich informacji i dokumentów, w tym tych, o których mowa w lit. b) niniejszego ustępu, niezbędnych do wykazania zgodności systemu AI wysokiego ryzyka z wymogami ustanowionymi w sekcji 2, w tym zapewnienie temu organowi dostępu do generowanych automatycznie przez system AI wysokiego ryzyka rejestrów zdarzeń, o których mowa w art. 12 ust. 1, w zakresie, w jakim tego rodzaju rejestry zdarzeń znajdują się pod kontrolą dostawcy;
(c)
jipprovdi lil awtorità kompetenti, fuq talba motivata, bl-informazzjoni u bid-dokumentazzjoni kollha, inkluż dak imsemmi fil-punt (b) ta' dan is-subparagrafu, meħtieġa biex turi l-konformità ta' sistema tal-IA b'riskju għoli mar-rekwiżiti stipulati fit-Taqsima 2, inkluż l-aċċess għar-reġistri, kif imsemmija fl-Artikolu 12(1), iġġenerati awtomatikament mis-sistema tal-IA b'riskju għoli sal-punt li tali reġistri jkunu fil-kontroll tal-fornitur;
d)
współpraca z właściwymi organami, na uzasadniony wniosek, w zakresie wszelkich działań, które organy te podejmują w odniesieniu do danego systemu AI wysokiego ryzyka, w szczególności, aby zmniejszyć i ograniczyć ryzyko, jakie stwarza ten system AI wysokiego ryzyka;
(d)
jikkoopera mal-awtoritajiet kompetenti, fuq talba motivata, f'kull azzjoni li dawn tal-aħħar jieħdu fir-rigward tas-sistema tal-IA b'riskju għoli, b'mod partikolari biex inaqqsu u jimmitigaw ir-riskji ppreżentati minn sistema tal-IA b'riskju għoli;
e)
w stosownych przypadkach spełnianie obowiązków rejestracyjnych, o których mowa w art. 49 ust. 1, lub, jeżeli rejestracji dokonuje sam dostawca, zapewnienie, by informacje, o których mowa w załączniku VIII sekcja A pkt 3, były prawidłowe.
(e)
meta applikabbli, jikkonforma mal-obbligi ta' reġistrazzjoni msemmija fl-Artikolu 49(1), jew, jekk ir-reġistrazzjoni titwettaq mill-fornitur innifsu, jiżgura li l-informazzjoni msemmija fil-punt 3 tat-Taqsima A tal-Anness VIII tkun korretta.
Pełnomocnictwo daje upoważnionemu przedstawicielowi prawo do tego, aby właściwe organy mogły się zwracać do niego, obok albo zamiast do dostawcy, we wszystkich kwestiach dotyczących zapewnienia zgodności z niniejszym rozporządzeniem.
Il-mandat għandu jagħti s-setgħa lir-rappreżentant awtorizzat li jiġi indirizzat, flimkien mal-fornitur jew minfloku, mill-awtoritajiet kompetenti, dwar il-kwistjonijiet kollha relatati mal-iżgurar tal-konformità ma' dan ir-Regolament.
4. Upoważniony przedstawiciel wypowiada pełnomocnictwo, jeśli uważa lub ma powody uważać, że dostawca działa w sposób sprzeczny ze swoimi obowiązkami wynikającymi z niniejszego rozporządzenia. W takim przypadku upoważniony przedstawiciel natychmiast informuje o wypowiedzeniu pełnomocnictwa i jego przyczynach odpowiedni organ nadzoru rynku, a także, w stosownych przypadkach, odpowiednią jednostkę notyfikowaną.
4. Ir-rappreżentant awtorizzat għandu jtemm il-mandat jekk iqis jew ikollu raġuni biex iqis li l-fornitur qed jaġixxi kontra l-obbligi tiegħu skont dan ir-Regolament. F'każ bħal dan, għandu jinforma minnufih lill-awtorità tas-sorveljanza tas-suq rilevanti, kif ukoll, fejn applikabbli, lill-korp notifikat rilevanti, dwar it-terminazzjoni tal-mandat u r-raġunijiet għal dan.
1. Przed wprowadzeniem do obrotu systemu AI wysokiego ryzyka importerzy zapewniają jego zgodność z niniejszym rozporządzeniem, sprawdzając, czy:
1. Qabel ma jintroduċu sistema tal-IA b'riskju għoli fis-suq, l-importaturi għandhom jiżguraw li s-sistema tkun f'konformità ma' dan ir-Regolament billi jivverifikaw li:
a)
dostawca systemu AI wysokiego ryzyka przeprowadził odpowiednią procedurę oceny zgodności, o której mowa w art. 43;
(a)
il-proċedura rilevanti ta' valutazzjoni tal-konformità msemmija fl-Artikolu 43 twettqet mill-fornitur tas-sistema tal-IA b'riskju għoli;
b)
dostawca sporządził dokumentację techniczną zgodnie z art. 11 i załącznikiem IV;
(b)
il-fornitur ikun fassal id-dokumentazzjoni teknika f'konformità mal-Artikolu 11 u l-Anness IV;
c)
system opatrzono wymaganym oznakowaniem CE oraz dołączono do niego deklarację zgodności UE, o której mowa w art. 47, oraz instrukcję obsługi;
(c)
is-sistema jkollha l-markatura CE meħtieġa u tkun akkumpanjata mid-dikjarazzjoni tal-konformità tal-UE msemmija fl-Artikolu 47 u l-istruzzjonijiet tal-użu;
d)
dostawca ustanowił upoważnionego przedstawiciela zgodnie z art. 22 ust. 1.
(d)
il-fornitur ikun ħatar rappreżentant awtorizzat f'konformità mal-Artikolu 22(1).
2. W przypadku gdy importer ma wystarczające powody, aby uważać, że system AI wysokiego ryzyka jest niezgodny z niniejszym rozporządzeniem lub został sfałszowany lub sfałszowana została dołączona do niego dokumentacja, nie wprowadza tego systemu do obrotu, dopóki nie zostanie zapewniona jego zgodność z niniejszym rozporządzeniem. W przypadku gdy system AI wysokiego ryzyka stwarza ryzyko w rozumieniu art. 79 ust. 1, importer informuje o tym dostawcę systemu, upoważnionych przedstawicieli oraz organy nadzoru rynku.
2. Meta importatur ikollu raġuni biżżejjed biex iqis li sistema tal-IA b'riskju għoli ma tkunx konformi ma' dan ir-Regolament, jew hija ffalsifikata, jew akkumpanjata minn dokumentazzjoni ffalsifikata, dan m'għandux jintroduċi s-sistema fis-suq qabel ma tkun inġiebet f'konformità. Meta s-sistema tal-IA b'riskju għoli tippreżenta riskju skont it-tifsira tal-Artikolu 79(1), l-importatur għandu jinforma lill-fornitur tas-sistema, lir-rappreżentanti awtorizzati u lill-awtoritajiet tas-sorveljanza tas-suq dwar dan.
3. Importerzy podają w systemie AI wysokiego ryzyka, na opakowaniu tego systemu lub, w stosownych przypadkach, w dołączonej do niego dokumentacji swoją nazwę, zarejestrowaną nazwę handlową lub zarejestrowany znak towarowy i adres, pod którym można się z nimi skontaktować.
3. L-importaturi għandhom iniżżlu isimhom, l-isem kummerċjali rreġistrat jew it-trademark irreġistrata tagħhom, u l-indirizz li fuqu jistgħu jiġu kkuntattjati dwar is-sistema tal-IA b'riskju għoli u fuq l-imballaġġ tagħha jew fid-dokumentazzjoni li takkumpanjaha, fejn applikabbli.
4. Importerzy zapewniają, aby w okresie, w którym ponoszą odpowiedzialność za system AI wysokiego ryzyka, warunki jego – stosownie do przypadku – przechowywania lub transportu nie zagrażały jego zgodności z wymogami ustanowionymi w sekcji 2.
4. L-importaturi għandhom jiżguraw li, waqt li sistema tal-IA b'riskju għoli tkun fir-responsabbiltà tagħhom, il-kundizzjonijiet tal-ħżin jew tat-trasport, fejn applikabbli, ma jipperikolawx il-konformità tagħha mar-rekwiżiti stipulati fit-Taqsima 2.
5. Przez okres 10 lat od wprowadzenia systemu AI wysokiego ryzyka do obrotu lub oddania go do użytku, importerzy przechowują kopię certyfikatu wydanego przez jednostkę notyfikowaną, w stosownych przypadkach, kopię instrukcji obsługi oraz deklaracji zgodności UE, o której mowa w art. 47.
5. L-importaturi għandhom iżommu, għal perjodu ta' 10 snin wara li s-sistema tal-IA b'riskju għoli tkun ġiet introdotta fis-suq jew imqiegħda fis-servizz, kopja taċ-ċertifikat maħruġ mill-korp notifikat, meta applikabbli, tal-istruzzjonijiet għall-użu u tad-dikjarazzjoni ta' konformità tal-UE msemmija fl-Artikolu 47.
6. Na uzasadniony wniosek odpowiednich właściwych organów importerzy przekazują im wszelkie niezbędne informacje i dokumentację, w tym te, o których mowa w ust. 5, w celu wykazania zgodności systemu AI wysokiego ryzyka z wymogami ustanowionymi w sekcji 2, w języku łatwo zrozumiałym dla tych organów. W tym celu importerzy zapewniają również możliwość udostępnienia tym organom dokumentacji technicznej.
6. L-importaturi għandhom jipprovdu lill-awtoritajiet kompetenti rilevanti, fuq talba motivata, bl-informazzjoni u d-dokumentazzjoni kollha meħtieġa, inkluż dik msemmija fil-paragrafu 5, biex juru l-konformità ta' sistema tal-IA b'riskju għoli mar-rekwiżiti stipulati fit-Taqsima 2 b'lingwa li tkun tista' tinftiehem faċilment minnhom. Għal dan il-għan, għandhom jiżguraw ukoll li d-dokumentazzjoni teknika tkun tista' titqiegħed għad-dispożizzjoni ta' dawk l-awtoritajiet.
7. Importerzy współpracują z odpowiednimi właściwymi organami w zakresie wszelkich działań, które organy te podejmują w odniesieniu do systemu AI wysokiego ryzyka wprowadzonego do obrotu przez importerów, w szczególności aby zmniejszyć i ograniczyć stwarzane przez ten system ryzyko.
7. L-importaturi għandhom jikkooperaw mal-awtoritajiet kompetenti rilevanti fi kwalunkwe azzjoni li dawk l-awtoritajiet jieħdu fir-rigward ta' sistema tal-IA b'riskju għoli introdotta fis-suq mill-importaturi, b'mod partikolari biex inaqqsu u jimmitigaw ir-riskji li din tippreżenta.
1. Przed udostępnieniem na rynku systemu AI wysokiego ryzyka dystrybutorzy sprawdzają, czy został on opatrzony wymaganym oznakowaniem zgodności CE, czy dołączono do niego kopię deklaracji zgodności UE, o której mowa w art. 47, i instrukcję obsługi oraz czy dostawca oraz – w stosownych przypadkach – importer tego systemu spełnili swoje obowiązki ustanowione w art. 16 lit. b) i c) oraz w art. 23 ust. 3.
1. Qabel ma jagħmlu sistema tal-IA b'riskju għoli disponibbli fis-suq, id-distributuri għandhom jivverifikaw li jkollha l-markatura CE meħtieġa, li tkun akkumpanjata minn kopja tad-dikjarazzjoni ta' konformità tal-UE msemmija fl-Artikolu 47 u mill-istruzzjonijiet għall-użu, u li l-fornitur u l-importatur ta’ dik is-sistema, kif applikabbli, ikunu ssodisfaw l-obbligi rispettivi tagħhom kif stabbiliti fl-Artikolu 16, il-punti (b) u (c) u fl-Artikolu 23(3).
2. W przypadku gdy dystrybutor – na podstawie dostępnych mu informacji – uważa lub ma powód, aby uważać, że system AI wysokiego ryzyka nie jest zgodny z wymogami ustanowionymi w sekcji 2 niniejszego tytułu, nie udostępnia na rynku tego systemu AI wysokiego ryzyka, dopóki nie zostanie zapewniona zgodność systemu z tymi wymogami. Ponadto, jeżeli system AI wysokiego ryzyka stwarza ryzyko w rozumieniu art. 79 ust. 1, dystrybutor informuje o tym stosownie do przypadku dostawcę lub importera systemu.
2. Meta distributur iqis jew ikollu raġuni biex iqis, abbażi tal-informazzjoni fil-pussess tiegħu, li sistema tal-IA b'riskju għoli ma tkunx konformi mar-rekwiżiti stipulati fit-Taqsima 2, m'għandux jagħmel is-sistema tal-IA b'riskju għoli disponibbli fis-suq sakemm is-sistema tkun inġiebet f'konformità ma' dawk ir-rekwiżiti. Barra minn hekk, meta s-sistema tal-IA b'riskju għoli tippreżenta riskju skont it-tifsira tal-Artikolu 79(1), id-distributur għandu jinforma lill-fornitur jew lill-importatur tas-sistema, kif ikun applikabbli, b'dan.
3. Dystrybutorzy zapewniają, aby w okresie, w którym ponoszą odpowiedzialność za system AI wysokiego ryzyka, warunki jego przechowywania lub transportu – stosownie do przypadku – nie zagrażały zgodności systemu z wymogami ustanowionymi w sekcji 2.
3. Id-distributuri għandhom jiżguraw li, waqt li sistema tal-IA b'riskju għoli tkun fir-responsabbiltà tagħhom, il-kundizzjonijiet tal-ħżin jew tat-trasport, fejn applikabbli, ma jipperikolawx il-konformità tas-sistema mar-rekwiżiti stipulati fit-Taqsima 2.
4. Dystrybutor, który uważa lub ma powód, aby – na podstawie dostępnych mu informacji – uważać, że system AI wysokiego ryzyka udostępniony przez niego na rynku jest niezgodny z wymogami ustanowionymi w sekcji 2, podejmuje działania naprawcze konieczne do zapewnienia zgodności tego systemu z tymi wymogami, do wycofania go z rynku lub wycofania go z użytku lub zapewnia podjęcie takich działań naprawczych przez, stosownie do przypadku, dostawcę, importera lub odpowiedniego operatora. W przypadku gdy system AI wysokiego ryzyka stwarza ryzyko w rozumieniu art. 79 ust. 1, dystrybutor natychmiast informuje o tym dostawcę lub importera systemu oraz organy właściwe w zakresie przedmiotowego system AI wysokiego ryzyka, przekazując szczegółowe informacje w szczególności na temat niezgodności systemu z wymogami i wszelkich podjętych działań naprawczych.
4. Distributur li jqis jew li jkollu raġuni biex iqis, abbażi tal-informazzjoni fil-pussess tiegħu, li sistema tal-IA b'riskju għoli li jkun għamel disponibbli fis-suq ma tkunx konformi mar-rekwiżiti stipulati fit-Taqsima 2, għandu jieħu l-azzjonijiet korrettivi meħtieġa biex iġib dik is-sistema f'konformità ma' dawk ir-rekwiżiti, biex jirtiraha jew isejjaħha lura jew għandu jiżgura li l-fornitur, l-importatur jew kwalunkwe operatur rilevanti, kif xieraq, jieħu dawk l-azzjonijiet korrettivi. Meta s-sistema tal-IA b'riskju għoli tippreżenta riskju skont it-tifsira tal-Artikolu 79(1), id-distributur għandu jinforma minnufih lill-fornitur jew importatur tas-sistema u lill-awtoritajiet kompetenti għas-sistema tal-IA b’riskju għoli kkonċernata, u jagħti d-dettalji, b'mod partikolari, dwar in-nuqqas ta' konformità u kwalunkwe azzjoni korrettiva meħuda.
5. Na uzasadniony wniosek odpowiedniego organu dystrybutorzy systemów AI wysokiego ryzyka przekazują temu organowi wszelkie informacje i dokumentację dotyczące ich działań zgodnie z ust. 1–4, niezbędne do wykazania zgodności tego systemu z wymogami określonymi w sekcji 2.
5. Fuq talba motivata minn awtorità kompetenti rilevanti, id-distributuri ta' sistema tal-IA b'riskju għoli għandhom jipprovdu lil dik l-awtorità bl-informazzjoni u bid-dokumentazzjoni kollha neċessarja dwar l-attivitajiet tagħhom skont il-paragrafi 1 sa 4 biex juru l-konformità ta' dik is-sistema mar-rekwiżiti stipulati fit-Taqsima 2.
6. Dystrybutorzy współpracują z odpowiednimi organami krajowymi w zakresie wszelkich działań, które organy te podejmują w odniesieniu do systemu AI wysokiego ryzyka udostępnionego na rynku przez dystrybutorów, w szczególności aby zmniejszyć lub ograniczyć stwarzane przez ten system ryzyko.
6. Id-distributuri għandhom jikkooperaw mal-awtoritajiet kompetenti rilevanti fi kwalunkwe azzjoni li dawk l-awtoritajiet jieħdu fir-rigward ta' sistema tal-IA b'riskju għoli introdotta fis-suq mid-distributuri, b'mod partikolari biex inaqqsu jew jimmitigaw ir-riskju li din tippreżenta.
Odpowiedzialność w całym łańcuchu wartości AI
Responsabbiltajiet tul il-katina tal-valur tal-IA
1. Do celów niniejszego rozporządzenia za dostawcę systemu AI wysokiego ryzyka uznaje się i obejmuje obowiązkami dostawcy ustanowionymi w art. 16 każdego dystrybutora, importera, podmiot stosujący lub inną stronę trzecią, jeżeli zachodzi którakolwiek z następujących okoliczności:
1. Kwalunkwe distributur, importatur, implimentatur jew parti terza oħra għandhom jitqiesu bħala fornitur ta' sistema tal-IA b'riskju għoli għall-finijiet ta' dan ir-Regolament u għandhom ikunu soġġetti għall-obbligi tal-fornitur skont l-Artikolu 16, fi kwalunkwe waħda miċ-ċirkostanzi li ġejjin:
a)
umieszczają oni swoją nazwę lub znak towarowy w systemie AI wysokiego ryzyka, który został już wprowadzony do obrotu lub oddany do użytku, bez uszczerbku dla ustaleń umownych przewidujących, że podział obowiązków następuje w inny sposób;
(a)
ipoġġu isimhom jew it-trademark tagħhom fuq sistema tal-IA b'riskju għoli diġà introdotta fis-suq jew imqiegħda fis-servizz, mingħajr preġudizzju għal ftehimiet kuntrattwali li jistipulaw li l-obbligi jiġu allokati b'mod ieħor;
b)
we wprowadzonym już do obrotu lub oddanym do użytku systemie AI wysokiego ryzyka dokonują oni istotnej zmiany w taki sposób, że pozostaje on systemem AI wysokiego ryzyka zgodnie z art. 6;
(b)
jagħmlu modifika sostanzjali f'sistema tal-IA b'riskju għoli li tkun diġà ġiet introdotta fis-suq jew diġà tqiegħdet fis-servizz b'tali mod li tibqa' sistema tal-IA b'riskju għoli skont l-Artikolu 6;
c)
zmieniają oni przeznaczenie systemu AI, w tym systemu AI ogólnego przeznaczenia, który nie został zaklasyfikowany jako system AI wysokiego ryzyka i który został już wprowadzony do obrotu lub oddany do użytku, w taki sposób, że dany system AI staje się systemem AI wysokiego ryzyka zgodnie z art. 6.
(c)
jimmodifikaw l-għan maħsub ta' sistema tal-IA, inkluż sistema tal-IA bi skop ġenerali, li ma tkunx ġiet ikklassifikata bħala ta' riskju għoli u li tkun diġà ġiet introdotta fis-suq jew imqiegħda fis-servizz b'tali mod li s-sistema tal-IA kkonċernata ssir sistema tal-IA b'riskju għoli skont l-Artikolu 6.
2. W przypadku zaistnienia okoliczności, o których mowa w ust. 1, dostawcy, który pierwotnie wprowadził do obrotu lub oddał do użytku ten system AI, nie uznaje się już do celów niniejszego rozporządzenia za dostawcę tego konkretnego systemu AI. Ten pierwotny dostawca ściśle współpracuje z nowymi dostawcami i udostępnia niezbędne informacje oraz udziela racjonalnie oczekiwanego dostępu technicznego i innego wsparcia niezbędnych do spełnienia obowiązków określonych w niniejszym rozporządzeniu, w szczególności w odniesieniu do zgodności z kryteriami oceny zgodności systemów AI wysokiego ryzyka. Niniejszego ustępu nie stosuje się w przypadkach, gdy pierwotny dostawca wyraźnie określił, że jego system AI nie może zostać zmieniony w system AI wysokiego ryzyka, a zatem nie dotyczy go obowiązek przekazania dokumentacji.
2. Meta jseħħu ċ-ċirkostanzi msemmijin fil-paragrafu 1, il-fornitur li inizjalment ikun introduċa s-sistema tal-IA fis-suq jew qegħedha fis-servizz m'għandux jibqa' jitqies bħala fornitur ta' dik is-sistema speċifika tal-IA għall-finijiet ta' dan ir-Regolament. Dak il-fornitur inizjali għandu jikkoopera mill-qrib ma fornituri ġodda u għandu jagħmel disponibbli l-informazzjoni meħtieġa u jipprovdi l-aċċess tekniku raġonevolment mistenni u assistenza oħra meħtieġa għat-twettiq tal-obbligi stipulati f'dan ir-Regolament, b'mod partikolari fir-rigward tal-konformità mal-valutazzjoni tal-konformità tas-sistemi tal-IA b'riskju għoli. Dan il-paragrafu m'għandux japplika f'każijiet fejn il-fornitur inizjali jkun speċifika b'mod ċar li s-sistema tal-IA tiegħu m'għandhiex tinbidel f'sistema tal-IA b'riskju għoli u għalhekk ma taqax taħt l-obbligu li jgħaddi d-dokumentazzjoni.
3. W przypadku systemów AI wysokiego ryzyka, które stanowią związane z bezpieczeństwem elementy produktów objętych zakresem unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I sekcja A, producenta produktów uznaje się za dostawcę systemu AI wysokiego ryzyka i podlega on obowiązkom ustanowionym w art. 16, jeżeli zachodzi którakolwiek z następujących okoliczności:
3. Fil-każ ta' sistemi tal-IA b'riskju għoli li huma komponenti tas-sikurezza ta' prodotti koperti mil-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni elenkata fit-Taqsima A tal-Anness I, il-manifattur tal-prodott għandu jitqies bħala l-fornitur tas-sistema tal-IA b'riskju għoli u għandu jkun soġġett għall-obbligi skont l-Artikolu 16 fi kwalunkwe waħda miċ-ċirkostanzi li ġejjin:
a)
system AI wysokiego ryzyka jest wprowadzany do obrotu wraz z produktem pod nazwą lub znakiem towarowym producenta produktu;
(a)
is-sistema tal-IA b'riskju għoli tiġi introdotta fis-suq flimkien mal-prodott taħt l-isem jew it-trademark tal-manifattur tal-prodott;
b)
system AI wysokiego ryzyka jest oddawany do użytku pod nazwą lub znakiem towarowym producenta produktu po wprowadzeniu produktu do obrotu.
(b)
is-sistema tal-IA b'riskju għoli titqiegħed fis-servizz taħt l-isem jew it-trademark tal-manifattur tal-prodott wara li l-prodott ikun ġie introdott fis-suq.
4. Dostawca systemu AI wysokiego ryzyka i osoba trzecia dostarczająca system AI, narzędzia, usługi, komponenty lub procesy, które są wykorzystywane w systemie AI wysokiego ryzyka lub z nim zintegrowane, wskazują, w drodze pisemnej umowy, informacje, zdolności, dostęp techniczny i innego rodzaju pomoc opartą na powszechnie uznanym stanie wiedzy technicznej wymagane, aby umożliwić dostawcy systemu AI wysokiego ryzyka pełne spełnienie obowiązków ustanowionych w niniejszym rozporządzeniu. Niniejszego ustępu nie stosuje się do osób trzecich udostępniających publicznie na podstawie bezpłatnej licencji otwartego oprogramowania narzędzia, usługi, procesy lub komponenty inne niż modele AI ogólnego przeznaczenia.
4. Il-fornitur ta' sistema tal-IA b'riskju għoli u l-parti terza li tforni sistema tal-IA, għodod, servizzi, komponenti jew proċessi li jintużaw jew jiġu integrati f'sistema tal-IA b'riskju għoli għandhom, bi ftehim bil-miktub, jispeċifikaw l-informazzjoni, il-kapaċitajiet u l-aċċess tekniku meħtieġa, u assistenza oħra abbażi tal-ogħla livell ta' żvilupp tekniku rikonoxxut b'mod ġenerali, sabiex il-fornitur tas-sistema tal-IA b'riskju għoli jkun jista' jikkonforma bis-sħiħ mal-obbligi stipulati f'dan ir-Regolament. Dan il-paragrafu m'għandux japplika għal partijiet terzi li jagħmlu aċċessibbli għall-pubbliku għodod, servizzi, proċessi, jew komponenti li mhumiex mudelli tal-IA bi skop ġenerali b'liċenzja libera u b’sors miftuħ.
Urząd ds. AI może opracować i zalecić dobrowolne wzorcowe postanowienia umowne dla umów zawieranych między dostawcami systemów AI wysokiego ryzyka a osobami trzecimi dostarczającymi narzędzia, usługi, komponenty lub procesy, które są wykorzystywane na potrzeby systemów AI wysokiego ryzyka lub zintegrowane z tymi systemami. Przy opracowywaniu dobrowolnych wzorcowych postanowień umownych, Urząd ds. AI bierze również pod uwagę ewentualne wymogi umowne mające zastosowanie w określonych sektorach lub przypadkach biznesowych. Dobrowolne wzorcowe postanowienia umowne są publikowane i udostępniane bezpłatnie w łatwym w użyciu formacie elektronicznym.
L-Uffiċċju għall-IA jista' jiżviluppa u jirrakkomanda mudelli volontarji ta' termini għal kuntratti bejn il-fornituri ta' sistemi tal-IA b'riskju għoli u l-partijiet terzi li jipprovdu għodod, servizzi, komponenti jew proċessi li jintużaw għal sistemi tal-IA b'riskju għoli jew jiġu integrati fihom. Meta jiżviluppa dawk il-mudelli volontarji ta' termini, l-Uffiċċju għall-IA għandu jqis ir-rekwiżiti kuntrattwali possibbli applikabbli f'setturi jew każijiet ta' negozju speċifiċi. Il-mudelli volontarji ta' termini kuntrattwali għandhom jiġu ppubblikati u jkunu disponibbli mingħajr ħlas f'format elettroniku li jista' jintuża faċilment.
5. Ust. 2 i 3 pozostają bez uszczerbku dla konieczności przestrzegania i ochrony praw własności intelektualnej, poufnych informacji handlowych i tajemnic przedsiębiorstwa zgodnie z prawem Unii i prawem krajowym.
5. Il-paragrafi 2 u 3 huma mingħajr preġudizzju għall-ħtieġa li jiġu rrispettati u protetti d-drittijiet tal-proprjetà intellettwali, l-informazzjoni kummerċjali kunfidenzjali u s-sigrieti kummerċjali f'konformità mal-liġi tal-Unjoni u l-liġi nazzjonali.
Obowiązki podmiotów stosujących systemy AI wysokiego ryzyka
Obbligi tal-implimentaturi ta' sistemi tal-IA b'riskju għoli
1. Podmioty stosujące systemy AI wysokiego ryzyka podejmują – na podstawie ust. 3 i 6 – odpowiednie środki techniczne i organizacyjne w celu zapewnienia, aby systemy takie były wykorzystywane zgodnie z dołączoną do nich instrukcją obsługi.
1. L-implimentaturi ta' sistemi tal-IA b'riskju għoli għandhom jieħdu miżuri tekniċi u organizzazzjonali xierqa biex jiżguraw li jużaw dawn is-sistemi f'konformità mal-istruzzjonijiet għall-użu li jakkumpanjaw is-sistemi, skont il-paragrafi 3 u 6.
2. Podmioty stosujące powierzają sprawowanie nadzoru ze strony człowieka osobom fizycznym, które mają niezbędne kompetencje, przeszkolenie i uprawnienia, a także niezbędne wsparcie.
2. L-implimentaturi għandhom jassenjaw sorveljanza mill-bniedem lil persuni fiżiċi li għandhom il-kompetenza, it-taħriġ u l-awtorità meħtieġa, kif ukoll l-appoġġ meħtieġ.
3. Obowiązki ustanowione w ust. 1 i 2 pozostają bez uszczerbku dla innych obowiązków podmiotu stosującego wynikających z prawa Unii lub prawa krajowego oraz dla przysługującej podmiotowi stosującemu swobody organizowania swoich zasobów własnych i działań w celu wdrożenia wskazanych przez dostawcę środków nadzoru ze strony człowieka.
3. L-obbligi stipulati fil-paragrafi 1 u 2, huma mingħajr preġudizzju għal obbligi oħra tal-implimentatur skont il-liġi tal-Unjoni jew il-liġi nazzjonali u għal-libertà tal-implimentatur li jorganizza r-riżorsi u l-attivitajiet proprji tiegħu għall-fini tal-implimentazzjoni tal-miżuri tas-sorveljanza mill-bniedem indikati mill-fornitur.
4. Bez uszczerbku dla ust. 1 i 2 podmiot stosujący zapewnia, w zakresie, w jakim sprawuje on kontrolę nad danymi wejściowymi, adekwatność i wystarczającą reprezentatywność danych wejściowych w odniesieniu do przeznaczenia systemu AI wysokiego ryzyka.
4. Mingħajr preġudizzju għall-paragrafi 1 u 2, sa fejn l-implimentatur jeżerċita kontroll fuq id-data tal-input, dak l-implimentatur għandu jiżgura li d-data tal-input tkun rilevanti u rappreżentattiva biżżejjed fid-dawl tal-għan maħsub tas-sistema tal-IA b'riskju għoli.
5. Podmioty stosujące monitorują działanie systemu AI wysokiego ryzyka w oparciu o instrukcję obsługi i w stosownych przypadkach informują dostawców zgodnie z art. 72. W przypadku gdy podmioty stosujące mają powody uważać, że wykorzystanie systemu AI wysokiego ryzyka zgodnie z instrukcją obsługi może powodować, że ten system AI będzie stwarzał ryzyko w rozumieniu art. 79 ust. 1, bez zbędnej zwłoki informują o tym dostawcę lub dystrybutora oraz odpowiedni organ nadzoru rynku i zawieszają wykorzystywanie systemu. W przypadku gdy podmioty stosujące stwierdziły wystąpienie poważnego incydentu, natychmiast informują o tym incydencie najpierw dostawcę, a następnie importera lub dystrybutora oraz odpowiednie organy nadzoru rynku. Jeżeli podmiot stosujący nie jest w stanie skontaktować się z dostawcą, art. 73 stosuje się odpowiednio. Obowiązek ten nie obejmuje wrażliwych danych operacyjnych podmiotów stosujących systemy AI będących organami ścigania.
5. L-implimentaturi għandhom jimmonitorjaw it-tħaddim tas-sistema tal-IA b'riskju għoli abbażi tal-istruzzjonijiet għall-użu u, meta rilevanti, jinfurmaw lill-fornituri f'konformità mal-Artikolu 72. Meta l-implimentaturi jkollhom raġuni biex iqisu li l-użu tas-sistema tal-IA b'riskju għoli f'konformità mal-istruzzjonijiet jista' jirriżulta f’dik is-sistema tal-IA tippreżenta riskju skont it-tifsira tal-Artikolu 79(1), huma għandhom, mingħajr dewmien żejjed, jinfurmaw lill-fornitur jew lid-distributur u lill-awtorità tas-sorveljanza tas-suq rilevanti u għandhom jissospendu l-użu ta' dik is-sistema. Meta l-implimentaturi jkunu identifikaw inċident serju, huma għandhom jinfurmaw minnufih ukoll l-ewwel lill-fornitur, u mbagħad lill-importatur jew lid-distributur u lill-awtoritajiet rilevanti tas-sorveljanza tas-suq dwar dak l-inċident. F'każ li l-implimentatur ma jkunx jista' jikkuntattja lill-fornitur, l-Artikolu 73 għandu japplika mutatis mutandis. Dan l-obbligu ma għandux ikopri data operazzjonali sensittiva tal-implimentaturi tas-sistemi tal-IA li huma awtoritajiet tal-infurzar tal-liġi.
W odniesieniu do podmiotów stosujących będących instytucjami finansowymi, które podlegają wymogom dotyczącym ich systemu zarządzania wewnętrznego, uzgodnień lub procedur na podstawie przepisów prawa Unii dotyczących usług finansowych, obowiązek w zakresie monitorowania, o którym mowa w akapicie pierwszym, uznaje się za spełniony w przypadku zapewnienia zgodności z przepisami dotyczącymi uzgodnień, procedur i mechanizmów zarządzania wewnętrznego na podstawie odpowiednich przepisów dotyczących usług finansowych.
Għall-implimentaturi li huma istituzzjonijiet finanzjarji soġġetti għal rekwiżiti rigward il-governanza, l-arranġamenti jew il-proċessi interni tagħhom skont il-liġi tal-Unjoni dwar is-servizzi finanzjarji, l-obbligu ta' monitoraġġ stipulat fl-ewwel subparagrafu għandu jitqies issodisfat billi jiġu konformi mar-regoli dwar l-arranġamenti, il-proċessi u l-mekkaniżmi ta' governanza interna skont il-liġi rilevanti dwar is-servizzi finanzjarji.
6. Podmioty stosujące systemy AI wysokiego ryzyka przechowują generowane automatycznie przez system AI wysokiego ryzyka rejestry zdarzeń – w zakresie, w jakim rejestry te znajdują się pod ich kontrolą – przez stosowny ze względu na przeznaczenie danego systemu AI wysokiego ryzyka okres, wynoszący co najmniej sześć miesięcy, o ile mające zastosowanie prawo Unii lub prawo krajowe, w szczególności prawo Unii dotyczące ochrony danych osobowych, nie stanowi inaczej.
6. L-implimentaturi tas-sistemi tal-IA b'riskju għoli għandhom iżommu r-reġistri ġġenerati awtomatikament minn dik is-sistema tal-IA b'riskju għoli sa fejn dawn ir-reġistri jkunu fil-kontroll tagħhom għal perjodu xieraq għall-għan maħsub tas-sistema tal-IA b'riskju għoli, ta' mill-inqas sitt xhur, sakemm ma jkunx previst mod ieħor fil-liġi tal-Unjoni jew dik nazzjonali applikabbli, b’mod partikolari fil-liġi tal-Unjoni dwar il-protezzjoni tad-data personali.
Podmioty stosujące będące instytucjami finansowymi, które podlegają wymogom dotyczącym ich systemu zarządzania wewnętrznego, uzgodnień lub procedur na podstawie przepisów prawa Unii dotyczących usług finansowych, prowadzą rejestry zdarzeń jako część dokumentacji prowadzonej na podstawie odpowiednich unijnych przepisów dotyczących usług finansowych.
L-implimentaturi li huma istituzzjonijiet finanzjarji soġġetti għal rekwiżiti rigward il-governanza, l-arranġamenti jew il-proċessi interni tagħhom skont il-liġi tal-Unjoni dwar is-servizzi finanzjarji għandhom iżommu r-reġistri bħala parti mid-dokumentazzjoni miżmuma skont il-liġi rilevanti tal-Unjoni dwar is-servizzi finanzjarji.
7. Przed oddaniem do użytku lub wykorzystaniem systemu AI wysokiego ryzyka w miejscu pracy podmioty stosujące będące pracodawcami informują przedstawicieli pracowników i pracowników, których to dotyczy, że będzie w stosunku do nich wykorzystywany system AI wysokiego ryzyka. Informacje te przekazuje się, w stosownych przypadkach, zgodnie z zasadami i procedurami ustanowionymi w prawie Unii i prawie krajowym oraz praktyką w zakresie informowania pracowników i ich przedstawicieli.
7. Qabel ma jqiegħdu fis-servizz jew jużaw sistema tal-IA b’riskju għoli fuq il-post tax-xogħol, l-implimentaturi li jkunu impjegaturi għandhom jinfurmaw lir-rappreżentanti tal-ħaddiema u lill-ħaddiema affettwati li ser ikunu soġġetti għall-użu tas-sistema tal-AI b’riskju għoli. Din l-informazzjoni għandha tingħata, fejn applikabbli, f’konformità mar-regoli u l-proċeduri stipulati fil-liġi u l-prattika tal-Unjoni u nazzjonali dwar l-informazzjoni tal-ħaddiema u r-rappreżentanti tagħhom.
8. Podmioty stosujące systemy AI wysokiego ryzyka, będące publicznymi organami lub instytucjami, organami i jednostkami organizacyjnymi Unii, spełniają obowiązki rejestracji, o których mowa w art. 49. Jeżeli takie podmioty stosujące ustalą, że system AI wysokiego ryzyka, który zamierzają wykorzystywać, nie został zarejestrowany w bazie danych UE, o której mowa w art. 71, nie stosują tego systemu i informują o tym dostawcę lub dystrybutora.
8. L-implimentaturi ta’ sistemi tal-IA b’riskju għoli li huma awtoritajiet pubbliċi jew istituzzjonijiet, korpi, uffiċċji jew aġenziji tal-Unjoni għandhom jikkonformaw mal-obbligi tar-reġistrazzjoni msemmija fl-Artikolu 49. Meta dawn l-implimentaturi jsibu li s-sistema tal-IA b’riskju għoli li beħsiebhom jużaw ma tkunx ġiet irreġistrata fil-bażi tad-data tal-UE msemmija fl-Artikolu 71, ma għandhomx jużaw dik is-sistema u għandhom jinfurmaw lill-fornitur jew lid-distributur.
9. W stosownych przypadkach, podmioty stosujące systemy AI wysokiego ryzyka korzystają z informacji przekazanych na podstawie art. 13 niniejszego rozporządzenia, aby spełnić spoczywając na nich obowiązki przeprowadzenia oceny skutków dla ochrony danych zgodnie z art. 35 rozporządzenia (UE) 2016/679 lub art. 27 dyrektywy (UE) 2016/680.
9. Fejn applikabbli, l-implimentaturi ta’ sistemi tal-IA b’riskju għoli għandhom jużaw l-informazzjoni pprovduta skont l-Artikolu 13 ta’ dan ir-Regolament biex jikkonformaw mal-obbligu tagħhom li jwettqu valutazzjoni tal-impatt fuq il-protezzjoni tad-data skont l-Artikolu 35 tar-Regolament (UE) 2016/679 jew l-Artikolu 27 tad-Direttiva (UE) 2016/680.
10. Bez uszczerbku dla dyrektywy (UE) 2016/680, w ramach postępowania przygotowawczego dotyczącego ukierunkowanego poszukiwania osoby podejrzanej o popełnienie przestępstwa lub skazanej za popełnienie przestępstwa podmiot stosujący system AI wysokiego ryzyka do celów zdalnej identyfikacji biometrycznej post factum zwraca się – ex ante lub bez zbędnej zwłoki, nie później jednak niż w ciągu 48 godzin – do organu wymiaru sprawiedliwości lub organu administracyjnego, którego decyzja jest wiążąca i podlega kontroli sądowej, z wnioskiem o zezwolenie na wykorzystanie tego systemu, z wyjątkiem sytuacji, gdy jest on wykorzystywany do wstępnej identyfikacji potencjalnego podejrzanego w oparciu o obiektywne i możliwe do zweryfikowania fakty bezpośrednio związane z przestępstwem. Każde wykorzystanie takiego systemu musi być ograniczone do tego, co jest bezwzględnie konieczne do prowadzenia postępowań przygotowawczych w sprawie konkretnego przestępstwa.
10. Mingħajr preġudizzju għad-Direttiva (UE) 2016/680, fil-qafas ta’ investigazzjoni għat-tfittxija mmirata ta’ persuna ssuspettata jew ikkundannata li wettqet reat kriminali, l-implimentatur ta’ sistema tal-IA b’riskju għoli għall-identifikazzjoni bijometrika remota “f’ħin aktar tard” għandu jitlob awtorizzazzjoni, ex ante, jew mingħajr dewmien żejjed u mhux aktar tard minn 48 siegħa, minn awtorità ġudizzjarja jew awtorità amministrattiva li d-deċiżjoni tagħha tkun vinkolanti u soġġetta għal rieżami ġudizzjarju, għall-użu ta’ dik is-sistema, ħlief meta tintuża għall-identifikazzjoni inizjali ta’ persuna suspettata potenzjali abbażi ta’ fatti oġġettivi u verifikabbli marbuta direttament mar-reat. Kull użu għandu jkun limitat għal dak li huwa strettament meħtieġ għall-investigazzjoni ta’ reat kriminali speċifiku.
W przypadku gdy wniosek o zezwolenie, o którym mowa w akapicie pierwszym, zostanie odrzucony, korzystanie z systemu zdalnej identyfikacji biometrycznej post factum, będące przedmiotem wniosku o zezwolenie, zostaje wstrzymane ze skutkiem natychmiastowym, a dane osobowe związane z wykorzystaniem systemu AI wysokiego ryzyka, w odniesieniu do którego złożono wniosek o zezwolenie, zostają usunięte.
Jekk l-awtorizzazzjoni mitluba skont l-ewwel subparagrafu tiġi rrifjutata, l-użu tas-sistema ta’ identifikazzjoni bijometrika remota “f’ħin aktar tard” marbuta ma’ dik l-awtorizzazzjoni mitluba għandu jitwaqqaf b’effett immedjat u d-data personali marbuta mal-użu tas-sistema tal-IA b’riskju għoli li għaliha tkun intalbet l-awtorizzazzjoni għandha titħassar.
W żadnym przypadku taki system AI wysokiego ryzyka służący do zdalnej identyfikacji biometrycznej post factum nie może być wykorzystywany do celów ścigania przestępstw w sposób nieukierunkowany, bez związku z przestępstwem, postępowaniem karnym, rzeczywistym i obecnym lub rzeczywistym i dającym się przewidzieć zagrożeniem popełnieniem przestępstwa lub poszukiwaniem konkretnej osoby zaginionej. Zapewnia się, aby organy ścigania mogły wydać żadnej decyzji wywołującej niepożądane skutki prawne dla danej osoby wyłącznie na podstawie wyników uzyskanych z systemu zdalnej identyfikacji biometrycznej post factum.
Tali sistema tal-IA b’riskju għoli għall-identifikazzjoni bijometrika remota “f’ħin aktar tard” fl-ebda każ ma għandha tintuża għal finijiet ta’ infurzar tal-liġi b’mod mhux immirat, mingħajr ebda rabta ma’ reat kriminali, proċediment kriminali, theddida ġenwina u preżenti jew ġenwina u prevedibbli ta’ reat kriminali jew it-tfittxija għal persuna nieqsa speċifika. Għandu jiġi żgurat li l-ebda deċiżjoni li tipproduċi effett legali negattiv fuq persuna ma tista’ tittieħed mill-awtoritajiet tal-infurzar tal-liġi abbażi biss tal-output ta’ dawn is-sistemi ta’ identifikazzjoni bijometrika remota “f’ħin aktar tard”.
Niniejszy ustęp pozostaje bez uszczerbku dla art. 9 rozporządzenia (UE) 2016/679 i art. 10 dyrektywy (UE) 2016/680 w odniesieniu do przetwarzania danych biometrycznych.
Dan il-paragrafu huwa mingħajr preġudizzju għall-Artikolu 9 tar-Regolament (UE) 2016/679 u l-Artikolu 10 tad-Direttiva (UE) 2016/680 għall-ipproċessar ta’ data bijometrika.
Niezależnie od celu lub podmiotu stosującego każde wykorzystanie takich systemów AI wysokiego ryzyka musi zostać udokumentowane w odpowiednich aktach policyjnych i udostępnione na wniosek właściwego organu nadzoru rynku i krajowemu organowi ochrony danych, z wyłączeniem ujawniania wrażliwych danych operacyjnych związanych ze ściganiem przestępstw. Niniejszy akapit pozostaje bez uszczerbku dla uprawnień powierzonych organom nadzorczym dyrektywą (UE) 2016/680.
Irrispettivament mill-fini jew mill-implimentatur, kull użu ta’ dawn is-sistemi tal-IA b’riskju għoli għandu jiġi ddokumentat fil-fajl rilevanti tal-pulizija u għandu jsir disponibbli għall-awtorità tas-sorveljanza tas-suq rilevanti u għall-awtorità nazzjonali għall-protezzjoni tad-data fuq talba, bl-esklużjoni tad-divulgazzjoni ta’ data operazzjonali sensittiva relatata mal-infurzar tal-liġi. Dan is-subparagrafu għandu jkun mingħajr preġudizzju għas-setgħat mogħtija mid-Direttiva (UE) 2016/680 lill-awtoritajiet superviżorji.
Podmioty stosujące przedkładają właściwym organom nadzoru rynku i krajowym organom ochrony danych roczne sprawozdania dotyczące wykorzystania przez nie systemów zdalnej identyfikacji biometrycznej post factum, z wyłączeniem ujawniania wrażliwych danych operacyjnych związanych ze ściganiem przestępstw. Sprawozdania te mogą zostać zagregowane w celu uwzględnienia stosowania więcej niż jednego systemu.
L-implimentaturi għandhom jippreżentaw rapporti annwali lill-awtoritajiet rilevanti tas-sorveljanza tas-suq u tal-protezzjoni tad-data nazzjonali dwar l-użu tagħhom tas-sistemi ta’ identifikazzjoni bijometrika remota “f’ħin aktar tard”, bl-esklużjoni tad-divulgazzjoni ta’ data operazzjonali sensittiva relatata mal-infurzar tal-liġi. Ir-rapporti jistgħu jiġu aggregati biex ikopru iktar minn implimentazzjoni waħda.
Państwa członkowskie mogą wprowadzić, zgodnie z prawem Unii, bardziej restrykcyjne przepisy dotyczące korzystania z systemów zdalnej identyfikacji biometrycznej post factum.
L-Istati Membri jistgħu jintroduċu, f’konformità mal-liġi tal-Unjoni, liġijiet aktar restrittivi dwar l-użu ta’ sistemi ta’ identifikazzjoni bijometrika remota “f’ħin aktar tard”.
11. Bez uszczerbku dla art. 50 niniejszego rozporządzenia podmioty stosujące systemy wysokiego ryzyka, o których mowa w załączniku III, które to podmioty podejmują decyzje lub uczestniczą w podejmowaniu decyzji dotyczących osób fizycznych, informują osoby fizyczne o tym, że jest w stosunku do nich wykorzystywany system AI wysokiego ryzyka. W przypadku systemów AI wysokiego ryzyka wykorzystywanych do celów ścigania przestępstw stosuje się art. 13 dyrektywy (UE) 2016/680.
11. Mingħajr preġudizzju għall-Artikolu 50 ta’ dan ir-Regolament, l-implimentaturi ta’ sistemi tal-IA b’riskju għoli msemmija fl-Anness III, li jieħdu deċiżjonijiet jew jassistu fit-teħid ta’ deċiżjonijiet relatati ma’ persuni fiżiċi, għandhom jinfurmaw lill-persuni fiżiċi li huma soġġetti għall-użu tas-sistema tal-IA b’riskju għoli. Għal sistemi tal-IA b’riskju għoli użati għall-finijiet tal-infurzar tal-liġi, għandu japplika l-Artikolu 13 tad-Direttiva (UE) 2016/680.
12. Podmioty stosujące współpracują z odpowiednimi właściwymi organami przy wszelkich działaniach, które organy te podejmują w odniesieniu do systemu AI wysokiego ryzyka, w celu wykonywania niniejszego rozporządzenia.
12. L-implimentaturi għandhom jikkooperaw mal-awtoritajiet kompetenti rilevanti fi kwalunkwe azzjoni li dawk l-awtoritajiet jieħdu fir-rigward ta’ sistema tal-IA b’riskju għoli biex jimplimentaw dan ir-Regolament.
Ocena skutków systemów AI wysokiego ryzyka dla praw podstawowych
Valutazzjoni tal-impatt fuq id-drittijiet fundamentali għas-sistemi tal-IA b’riskju għoli
1. Przed wdrożeniem systemu AI wysokiego ryzyka, o którym mowa w art. 6 ust. 2, z wyjątkiem systemów AI wysokiego ryzyka przeznaczonych do stosowania w obszarze wymienionym w załączniku III pkt 2, podmioty stosujące będące podmiotami prawa publicznego lub podmiotami prywatnymi świadczącymi usługi publiczne, oraz podmioty stosujące systemy AI wysokiego ryzyka, o których mowa w załączniku III pkt 5 lit. b) i c), przeprowadzają ocenę skutków w zakresie praw podstawowych, jakie może wywołać wykorzystanie takiego systemu. W tym celu podmioty stosujące przeprowadzają ocenę obejmującą:
1. Qabel l-użu ta’ sistema tal-IA b’riskju għoli msemmija fl-Artikolu 6(2), bl-eċċezzjoni ta’ sistemi tal-IA b’riskju għoli maħsuba biex jintużaw fil-qasam elenkat fl-Anness III, il-punt 2, l-implimentaturi li huma korpi rregolati bil-liġi pubblika jew li huma entitajiet privati li jipprovdu servizzi pubbliċi u implimentaturi ta’ sistemi tal-IA b’riskju għoli msemmija fil-punti 5, (b) u (c) tal-Anness III, għandhom iwettqu valutazzjoni tal-impatt fuq id-drittijiet fundamentali li l-użu ta’ tali sistema jista’ jipproduċi. Għal dak il-għan, l-implimentaturi għandhom iwettqu valutazzjoni li jkun fiha:
a)
opis procesów podmiotu stosującego, w których system AI wysokiego ryzyka będzie wykorzystywany zgodnie z jego przeznaczeniem;
(a)
deskrizzjoni tal-proċessi tal-implimentatur li fihom ser tintuża s-sistema tal-IA b’riskju għoli skont l-għan maħsub tagħha;
b)
opis okresu, w którym każdy system AI wysokiego ryzyka ma być wykorzystywany i opis częstotliwości tego wykorzystywania;
(b)
deskrizzjoni tal-perjodu ta’ żmien li fih ikun maħsub li kull sistema tal-IA b’riskju għoli ser tintuża, u l-frekwenza ta’ dan l-użu;
c)
kategorie osób fizycznych i grup, na które może mieć wpływ wykorzystywanie systemu;
(c)
il-kategoriji ta’ persuni u gruppi fiżiċi li aktarx jiġu affettwati mill-użu tagħha fil-kuntest speċifiku;
d)
szczególne ryzyko szkody, które może mieć wpływ na kategorie osób fizycznych lub grupy osób zidentyfikowane zgodnie z lit. c) niniejszego ustępu, z uwzględnieniem informacji przekazanych przez dostawcę zgodnie z art. 13;
(d)
ir-riskji speċifiċi ta’ ħsara li x’aktarx ikollhom impatt fuq il-kategoriji ta’ persuni fiżiċi jew gruppi ta’ persuni identifikati skont il-punt (c) ta’ dan il-paragrafu, b’kont meħud tal-informazzjoni mogħtija mill-fornitur skont l-Artikolu 13;
e)
opis wdrożenia środków nadzoru ze strony człowieka, zgodnie z instrukcją obsługi;
(e)
deskrizzjoni tal-implimentazzjoni tal-miżuri ta’ sorveljanza mill-bniedem, skont l-istruzzjonijiet għall-użu;
f)
środki, jakie należy podjąć w przypadku urzeczywistnienia się tego ryzyka, w tym ustalenia dotyczące zarządzania wewnętrznego i mechanizmów rozpatrywania skarg.
(f)
il-miżuri li għandhom jittieħdu fil-każ tal-materjalizzazzjoni ta’ dawk ir-riskji, inkluż l-arranġamenti għall-governanza interna u l-mekkaniżmi tal-ilmenti.
2. Obowiązek ustanowiony w ust. 1 ma zastosowanie do wykorzystania systemu AI wysokiego ryzyka po raz pierwszy. W podobnych przypadkach podmiot stosujący może polegać na wcześniej przeprowadzonych ocenach skutków dla praw podstawowych lub na istniejących ocenach skutków przeprowadzonych przez dostawcę. Jeżeli w trakcie wykorzystania systemu AI wysokiego ryzyka podmiot stosujący uzna, że którykolwiek z elementów wymienionych w ust. 1 uległ zmianie lub nie jest już aktualny, podmiot ten podejmuje niezbędne kroki w celu aktualizacji informacji.
2. L-obbligu stipulat fil-paragrafu 1 japplika għall-ewwel użu tas-sistema tal-IA b’riskju għoli. L-implimentatur jista’, f’każijiet simili, jistrieħ fuq valutazzjonijiet tal-impatt fuq id-drittijiet fundamentali mwettqa qabel jew valutazzjonijiet tal-impatt eżistenti mwettqa mill-fornitur. Jekk, matul l-użu tas-sistema tal-IA b’riskju għoli, l-implimentatur iqis li xi wieħed mill-elementi elenkati fil-paragrafu 1 ikun inbidel jew m’għadux validu, l-implimentatur għandu jieħu l-passi meħtieġa biex jaġġorna l-informazzjoni.
3. Po przeprowadzeniu oceny, o której mowa w ust. 1 niniejszego artykułu, podmiot stosujący powiadamia organ nadzoru rynku o jej wynikach, przedkładając jako element tego powiadomienia wypełniony wzór, o którym mowa w ust. 5 niniejszego artykułu. W przypadku, o którym mowa w art. 46 ust. 1, podmioty stosujące mogą zostać zwolnione z obowiązku dokonania powiadomienia.
3. Ladarba tkun twettqet il-valutazzjoni msemmija fil-paragrafu 1 ta’ dan l-Artikolu, l-implimentatur għandu jinnotifika lill-awtorità tas-sorveljanza tas-suq bir-riżultati tagħha, fejn jippreżenta l-mudell mimli msemmi fil-paragrafu 5 ta’ dan l-Artikolu bħala parti min-notifika. Fil-każ imsemmi fl-Artikolu 46(1), l-implimentaturi jistgħu jiġu eżentati minn dak l-obbligu ta’ notifika.
4. Jeżeli którykolwiek z obowiązków ustanowionych w niniejszym artykule został już spełniony w wyniku oceny skutków dla ochrony danych przeprowadzonej zgodnie z art. 35 rozporządzenia (UE) 2016/679 lub art. 27 dyrektywy (UE) 2016/680, ocena skutków w zakresie praw podstawowych, o której mowa w ust. 1 niniejszego artykułu, stanowi uzupełnieniem tej oceny skutków dla ochrony danych.
4. Jekk diġà tkun saret konformità ma’ xi wieħed mill-obbligi stabbiliti f’dan l-Artikolu ’permezz tal-valutazzjoni tal-impatt fuq il-protezzjoni tad-data skont l-Artikolu 35 tar-Regolament (UE) 2016/679 jew l-Artikolu 27 tad-Direttiva (UE) 2016/680, il-valutazzjoni tal-impatt fuq id-drittijiet fundamentali msemmija fil-paragrafu 1 ta’ dan l-Artikolu għandha tikkomplementa dik il-valutazzjoni tal-impatt fuq il-protezzjoni tad-data.
5. Urząd ds. AI opracowuje wzór kwestionariusza, w tym za pomocą zautomatyzowanego narzędzia, aby ułatwić podmiotom stosującym spełnianie ich obowiązków wynikających z niniejszego artykułu w sposób uproszczony.
5. L-Uffiċċju għall-IA għandu jiżviluppa mudell għal kwestjonarju, inkluż permezz ta’ għodda awtomatizzata, biex ikun aktar faċli għall-implimentaturi biex jikkonformaw mal-obbligi tagħhom skont dan l-Artikolu b’mod simplifikat.
Awtoritajiet tan-notifika
1. Każde państwo członkowskie wyznacza lub ustanawia przynajmniej jeden organ notyfikujący odpowiedzialny za opracowanie i stosowanie procedur koniecznych do oceny, wyznaczania i notyfikowania jednostek oceniających zgodność oraz za ich monitorowanie. Procedury te są przygotowywane wspólnie przez organy notyfikujące wszystkich państw członkowskich.
1. Kull Stat Membru għandu jiddeżinja jew jistabbilixxi mill-inqas awtorità tan-notifika waħda responsabbli għall-istabbiliment u għat-twettiq tal-proċeduri meħtieġa għall-valutazzjoni, id-deżinjazzjoni u n-notifika tal-korpi ta’ valutazzjoni tal-konformità u għall-monitoraġġ tagħhom. Dawk il-proċeduri għandhom jiġu żviluppati b’kooperazzjoni bejn l-awtoritajiet tan-notifika tal-Istati Membri kollha.
2. Państwa członkowskie mogą zdecydować, że ocena oraz monitorowanie, o których mowa w ust. 1, są prowadzone przez krajową jednostkę akredytującą w rozumieniu rozporządzenia (WE) nr 765/2008 oraz zgodnie z tym rozporządzeniem.
2. L-Istati Membri jistgħu jiddeċiedu li l-valutazzjoni u l-monitoraġġ imsemmija fil-paragrafu 1 għandhom jitwettqu minn korp nazzjonali ta’ akkreditazzjoni skont it-tifsira ta’, u f’konformità mar-Regolament (KE) Nru 765/2008 u f’konformità miegħu.
3. Organy notyfikujące ustanawia się, organizuje się i zarządza się nimi w taki sposób, aby nie dopuścić do wystąpienia konfliktu interesów z jednostkami oceniającymi zgodność i aby zapewnić obiektywny i bezstronny charakter ich działalności.
3. L-awtoritajiet tan-notifika għandhom ikunu stabbiliti, organizzati u mħaddma b’tali mod li ma jinħoloq l-ebda kunflitt ta’ interess mal-korpi ta’ valutazzjoni tal-konformità, u li l-oġġettività u li l-imparzjalità tal-attivitajiet tagħhom għandhom ikunu salvagwardati.
4. Działalność organów notyfikujących organizuje się w taki sposób, aby decyzje dotyczące notyfikacji jednostek oceniających zgodność podejmowały kompetentne osoby, które nie przeprowadzały oceny tych jednostek.
4. L-awtoritajiet tan-notifika għandhom ikunu organizzati b’tali mod li kull deċiżjoni relatata man-notifika tal-korpi ta’ valutazzjoni tal-konformità tittieħed minn persuna kompetenti differenti minn dawk li jkunu għamlu l-valutazzjoni ta’ dawk il-korpi.
5. Organy notyfikujące nie mogą oferować ani podejmować żadnych działań realizowanych przez jednostki oceniające zgodność ani świadczyć żadnych usług doradztwa na zasadzie komercyjnej lub konkurencyjnej.
5. L-awtoritajiet tan-notifika la għandhom joffru u lanqas jipprovdu xi attivitajiet li jwettqu l-korpi ta’ valutazzjoni tal-konformità u lanqas xi servizz ta’ konsulenza fuq bażi kummerċjali jew kompetittiva.
6. Organy notyfikujące zapewniają poufność otrzymywanych informacji zgodnie z art. 78.
6. L-awtoritajiet tan-notifika għandhom jissalvagwardjaw il-kunfidenzjalità tal-informazzjoni li jiksbu, f’konformità mal-Artikolu 78.
7. Organy notyfikujące muszą dysponować odpowiednią liczbą kompetentnych pracowników, aby należycie wykonywać powierzone im zadania. Kompetentni pracownicy muszą posiadać, w odpowiednich przypadkach, wiedzę fachową niezbędną do pełnienia ich funkcji w dziedzinach, takich jak technologie informacyjne, AI i prawo, w tym nadzór nad prawami podstawowymi.
7. L-awtoritajiet tan-notifika għandu jkollhom għadd adegwat ta’ persunal kompetenti għad-dispożizzjoni tagħhom biex jagħmlu x-xogħol tagħhom sewwa. Il-persunal kompetenti għandu jkollu l-kompetenza esperta meħtieġa, fejn applikabbli, għall-funzjoni tiegħu, f’oqsma bħat-teknoloġiji tal-informazzjoni, l-IA u l-liġi, inkluż is-superviżjoni tad-drittijiet fundamentali.
Wniosek jednostki oceniającej zgodność o notyfikację
Applikazzjoni ta’ korp ta’ valutazzjoni tal-konformità għan-notifika
1. Jednostki oceniające zgodność przekazują wniosek o notyfikację organowi notyfikującemu państwa członkowskiego, w którym znajduje się ich siedziba.
1. Il-korpi ta’ valutazzjoni tal-konformità għandhom jippreżentaw applikazzjoni għal notifika lill-awtorità tan-notifika tal-Istat Membru li fih ikunu stabbiliti.
2. Do wniosku o notyfikację załącza się opis czynności z zakresu oceny zgodności, modułu lub modułów oceny zgodności i rodzajów systemów AI, w odniesieniu do których jednostka oceniająca zgodność uważa się za kompetentną, a także wydany przez krajową jednostkę akredytującą certyfikat akredytacji (o ile takowy istnieje) poświadczający, że jednostka oceniająca zgodność spełnia wymogi ustanowione w art. 31.
2. L-applikazzjoni għal notifika għandha tkun akkumpanjata minn deskrizzjoni tal-attivitajiet ta’ valutazzjoni tal-konformità, il-modulu jew il-moduli ta’ valutazzjoni tal-konformità u t-tipi ta’ sistemi tal-IA li fir-rigward tagħhom il-korp ta’ valutazzjoni tal-konformità jgħid li huwa kompetenti, kif ukoll minn ċertifikat ta’ akkreditazzjoni, jekk ikun jeżisti wieħed, maħruġ minn korp nazzjonali ta’ akkreditazzjoni li jafferma li l-korp ta’ valutazzjoni tal-konformità jissodisfa r-rekwiżiti stipulati fl-Artikolu 31.
Do wniosku załącza się również wszelkie ważne dokumenty dotyczące obowiązującego wyznaczenia – na podstawie innego unijnego prawodawstwa harmonizacyjnego – występującej z wnioskiem jednostki notyfikowanej.
Għandu jiżdied kull dokument validu relatat mad-deżinjazzjonijiet eżistenti tal-korp notifikat applikanti skont kwalunkwe leġiżlazzjoni oħra tal-Unjoni dwar l-armonizzazzjoni.
3. Jeżeli dana jednostka oceniająca zgodność nie jest w stanie przedstawić certyfikatu akredytacji, przekazuje organowi notyfikującemu wszystkie dowody w postaci dokumentów niezbędne do zweryfikowania, potwierdzenia i regularnego monitorowania spełnienia przez tę jednostkę wymogów ustanowionych w art. 31.
3. Meta l-korp ta’ valutazzjoni tal-konformità kkonċernat ma jkunx jista’ jipprovdi ċertifikat ta’ akkreditazzjoni, dan għandu jipprovdi lill-awtorità tan-notifika l-evidenza dokumentata kollha meħtieġa għall-verifika, ir-rikonoxximent u l-monitoraġġ regolari tal-konformità tiegħu mar-rekwiżiti stabbiliti fl-Artikolu 31.
4. W odniesieniu do jednostek notyfikowanych wyznaczonych na podstawie innego unijnego prawodawstwa harmonizacyjnego w stosownych przypadkach dopuszcza się możliwość wykorzystania wszelkich dokumentów i certyfikatów dotyczących takiego wyznaczenia w charakterze dowodów w toku procedury wyznaczania przeprowadzanej zgodnie z niniejszym rozporządzeniem. Jednostka notyfikowana aktualizuje dokumentację, o której mowa w ust. 2 i 3 niniejszego artykułu, w każdym przypadku gdy wystąpią istotne zmiany, aby umożliwić organowi odpowiedzialnemu za jednostki notyfikowane monitorowanie i weryfikowanie, czy zapewniona jest ciągła zgodność ze wszystkimi wymogami ustanowionymi w art. 31.
4. Għall-korpi notifikati deżinjati skont xi leġiżlazzjoni oħra tal-Unjoni dwar l-armonizzazzjoni, id-dokumenti u ċ-ċertifikati kollha marbuta ma’ dawk id-deżinjazzjonijiet jistgħu jintużaw biex jappoġġaw il-proċedura tad-deżinjazzjoni tagħhom skont dan ir-Regolament, skont il-każ. Il-korp notifikat għandu jaġġorna d-dokumentazzjoni msemmija fil-paragrafi 2 u 3 ta’ dan l-Artikolu kull fejn isiru bidliet rilevanti, sabiex l-awtorità responsabbli għall-korpi notifikati tkun tista’ timmonitorja u tivverifika l-konformità kontinwa mar-rekwiżiti kollha stabbiliti fl-Artikolu 31.
1. Organy notyfikujące mogą dokonywać notyfikacji wyłącznie w odniesieniu do tych jednostek oceniających zgodność, które spełniają wymogi ustanowione w art. 31.
1. L-awtoritajiet tan-notifika jistgħu jinnotifikaw biss lil korpi ta’ valutazzjoni tal-konformità li jkunu ssodisfaw ir-rekwiżiti stabbiliti fl-Artikolu 31.
2. Organy notyfikujące dokonują notyfikacji Komisji i pozostałym państwom członkowskim za pomocą narzędzia do notyfikacji elektronicznej opracowanego i obsługiwanego przez Komisję, o każdej jednostce oceniającej zgodność, o której mowa w ust. 1.
2. L-awtoritajiet tan-notifika għandhom jinnotifikaw lill-Kummissjoni u lill-Istati Membri l-oħra permezz tal-għodda ta’ notifika elettronika żviluppata u ġestita mill-Kummissjoni, b’kull korp ta’ valutazzjoni tal-konformità msemmi fil-paragrafu 1.
3. Notyfikacja, o której mowa w ust. 2 niniejszego artykułu, zawiera wyczerpujące informacje na temat czynności z zakresu oceny zgodności, modułu lub modułów oceny zgodności i przedmiotowych rodzajów systemów AI oraz odpowiednie poświadczenie kompetencji. W przypadku gdy podstawą notyfikacji nie jest certyfikat akredytacji, o którym mowa w art. 29 ust. 2, organ notyfikujący przedkłada Komisji i pozostałym państwom członkowskim dowody w postaci dokumentów potwierdzające kompetencje jednostki oceniającej zgodność oraz wdrożone rozwiązania zapewniające regularne monitorowanie tej jednostki i nieustanne spełnianie przez nią wymagań ustanowionych w art. 31.
3. In-notifika msemmija fil-paragrafu 2 ta’ dan l-Artikolu għandha tinkludi d-dettalji kollha dwar l-attivitajiet ta’ valutazzjoni tal-konformità, il-modulu jew il-moduli ta’ valutazzjoni tal-konformità, it-tipi ta’ sistemi tal-IA ikkonċernat u l-attestazzjoni ta’ kompetenza rilevanti. Meta notifika ma tkunx ibbażata fuq ċertifikat ta’ akkreditazzjoni kif imsemmi fl-Artikolu 29(2), l-awtorità tan-notifika għandha tipprovdi lill-Kummissjoni u lill-Istati Membri l-oħra l-evidenza dokumentata li tafferma l-kompetenza tal-korp ta’ valutazzjoni tal-konformità u l-arranġamenti fis-seħħ biex ikun żgurat li dak il-korp ser jiġi monitorjat regolarment u ser ikompli jissodisfa r-rekwiżiti stabbiliti fl-Artikolu 31.
4. Dana jednostka oceniająca zgodność może wykonywać czynności jednostki notyfikowanej tylko wówczas, gdy Komisja lub pozostałe państwa członkowskie nie zgłosiły sprzeciwu w terminie dwóch tygodni od notyfikacji przez organ notyfikujący, w przypadku gdy notyfikacja ta obejmuje certyfikat akredytacji, o którym mowa w art. 29 ust. 2, lub w terminie dwóch miesięcy od notyfikacji przez organ notyfikujący, w przypadku gdy notyfikacja ta obejmuje dowody w postaci dokumentów, o których mowa w art. 29 ust. 3.
4. Il-korp ta’ valutazzjoni tal-konformità kkonċernat jista’ jwettaq l-attivitajiet ta’ korp notifikat biss meta ma titqajjem l-ebda oġġezzjoni mill-Kummissjoni jew mill-Istati Membri l-oħra fi żmien ġimagħtejn min-notifika minn awtorità tan-notifika meta din tinkludi ċertifikat ta’ akkreditazzjoni msemmi fl-Artikolu 29(2), jew fi żmien xahrejn min-notifika mill-awtorità tan-notifika meta din tinkludi evidenza dokumentarja msemmija fl-Artikolu 29(3).
5. W przypadku zgłoszenia sprzeciwu Komisja niezwłocznie przystępuje do konsultacji z odpowiednimi państwami członkowskimi i jednostką oceniającą zgodność. Na podstawie tych konsultacji Komisja podejmuje decyzję, czy dane zezwolenie jest uzasadnione. Komisja kieruje swoją decyzję do zainteresowanego państwa członkowskiego i odpowiedniej jednostki oceniającej zgodność.
5. Fejn jitressqu oġġezzjonijiet, il-Kummissjoni għandha, mingħajr dewmien, tidħol f’konsultazzjonijiet mal-Istati Membri rilevanti u mal-korp ta’ valutazzjoni tal-konformità. Fid-dawl ta’ dan, ’’il-Kummissjoni għandha tiddeċiedi jekk l-awtorizzazzjoni hix iġġustifikata. Il-Kummissjoni għandha tindirizza d-deċiżjoni tagħha lill-Istat Membru kkonċernat u lill-korp rilevanti ta’ valutazzjoni tal-konformità.
Wymogi dotyczące jednostek notyfikowanych
Rekwiżiti relatati mal-korpi notifikati
1. Jednostkę notyfikowaną ustanawia się zgodnie z prawem krajowym danego państwa członkowskiego i ma ona osobowość prawną.
1. Korp notifikat għandu jkun stabbilit skont il-liġi nazzjonali ta’ Stat Membru u għandu jkollu personalità ġuridika.
2. Jednostki notyfikowane muszą spełniać wymogi organizacyjne, wymogi w zakresie zarządzania jakością oraz wymogi dotyczące zasobów i procesów niezbędne do tego, aby mogły wykonywać powierzone im zadania, jak również odpowiednie wymogi w zakresie cyberbezpieczeństwa.
2. Il-korpi notifikati għandhom jissodisfaw ir-rekwiżiti organizzazzjonali, tal-ġestjoni tal-kwalità, tar-riżorsi u tal-proċessi li huma meħtieġa biex iwettqu l-kompiti tagħhom, kif ukoll ir-rekwiżiti taċ-ċibersigurtà adatti.
3. Struktura organizacyjna jednostek notyfikowanych, podział obowiązków w tych jednostkach, obowiązująca w nich hierarchia służbowa oraz ich funkcjonowanie zapewniają, by działalność jednostek notyfikowanych oraz wyniki czynności z zakresu oceny zgodności prowadzonych przez te jednostki nie budziły żadnych wątpliwości.
3. L-istruttura organizzazzjonali, l-allokazzjoni tar-responsabbiltajiet, il-linji ġerarkiċi u l-ħidma tal-korpi notifikati għandhom jiżguraw il-fiduċja fil-prestazzjoni tagħhom, u fir-riżultati tal-attivitajiet ta’ valutazzjoni tal-konformità li l-korpi notifikati jwettqu.
4. Jednostki notyfikowane muszą być niezależne od dostawcy systemu AI wysokiego ryzyka, wobec którego podejmują czynności z zakresu oceny zgodności. Jednostki notyfikowane muszą być również niezależne od wszelkich innych operatorów, których interes gospodarczy wiąże się z systemami AI wysokiego ryzyka będącymi przedmiotem oceny, a także od wszelkich innych konkurentów dostawcy. Nie wyklucza to wykorzystania będących przedmiotem oceny systemów AI wysokiego ryzyka, które są niezbędne do prowadzenia działalności jednostki oceniającej zgodność, ani wykorzystania takich systemów AI wysokiego ryzyka do celów prywatnych.
4. Il-korpi notifikati għandhom ikunu indipendenti mill-fornitur tas-sistema tal-IA b’riskju għoli li fir-rigward tagħha jwettqu attivitajiet ta’ valutazzjoni tal-konformità. Il-korpi notifikati għandhom ikunu indipendenti wkoll minn kwalunkwe operatur ieħor li jkollu interess ekonomiku f’sistemi tal-IA b’riskju għoli vvalutati, kif ukoll minn kwalunkwe kompetitur tal-fornitur. Dan ma għandux jipprekludi l-użu ta’ sistemi tal-IA b’riskju għoli vvalutati li huma meħtieġa għall-operazzjonijiet tal-korp ta’ valutazzjoni tal-konformità jew l-użu ta’ tali sistemi tal-IA b’riskju għoli għal skopijiet personali.
5. Jednostka oceniająca zgodność, jej kierownictwo najwyższego szczebla ani pracownicy odpowiedzialni za realizację zadań związanych z oceną zgodności nie mogą być bezpośrednio zaangażowani w projektowanie, rozwój, sprzedaż ani wykorzystywanie systemów AI wysokiego ryzyka, nie mogą też reprezentować stron zaangażowanych w taką działalność. Nie angażują się oni w żadną działalność, która może zagrozić niezależności ich osądów i wiarygodności w związku z czynnościami z zakresu oceny zgodności, do której zostali notyfikowani. Dotyczy to w szczególności usług konsultingowych.
5. La l-korp ta’ valutazzjoni tal-konformità, il-maniġment superjuri tiegħu u lanqas il-persunal responsabbli għat-twettiq tal-kompiti ta’ valutazzjoni tal-konformità tiegħu ma għandhom ikunu involuti direttament fid-disinn, fl-iżvilupp, fil-kummerċjalizzazzjoni jew fl-użu ta’ sistemi tal-IA b’riskju għoli, u lanqas ma għandhom jirrappreżentaw lill-partijiet involuti f’dawk l-attivitajiet. Dawn ma għandhom jinvolvu ruħhom fl-ebda attività li tista’ tkun f’kunflitt mal-indipendenza tal-ġudizzju jew l-integrità tagħhom b’rabta mal-attivitajiet tal-valutazzjoni tal-konformità li għalihom jiġu notifikati. Dan għandu japplika b’mod partikolari għas-servizzi tal-konsulenza.
6. Jednostki notyfikowane organizuje się i zarządza się nimi w sposób gwarantujący niezależność, obiektywizm i bezstronność podejmowanych przez nie czynności. Jednostki notyfikowane dokumentują i wdrażają strukturę i procedury służące zagwarantowaniu ich bezstronności oraz propagowaniu i stosowaniu zasad bezstronności we wszystkich podejmowanych przez nie czynnościach organizacyjnych i kadrowych oraz we wszystkich ich czynnościach związanych z oceną.
6. Il-korpi notifikati għandhom ikunu organizzati u jitħaddmu b’tali mod li jkunu ssalvagwardati l-indipendenza, l-oġġettività u l-imparzjalità tal-attivitajiet tagħhom. Il-korpi notifikati għandhom jiddokumentaw u jimplimentaw struttura u proċeduri biex jissalvagwardjaw l-imparzjalità u biex jippromwovu u japplikaw il-prinċipji ta’ imparzjalità fl-organizzazzjoni kollha tagħhom, fost il-persunal tagħhom u fl-attivitajiet ta’ valutazzjoni tagħhom.
7. Jednostki notyfikowane dysponują udokumentowanymi procedurami, które zapewniają zachowanie poufności informacji – zgodnie z art. 78 – przez ich personel, komitety, jednostki zależne, podwykonawców oraz wszelkie stowarzyszone z nimi jednostki lub pracowników podmiotów zewnętrznych, które to informacje znalazły się w ich posiadaniu w toku czynności z zakresu oceny zgodności, chyba że ujawnienie takich informacji jest wymagane na mocy obowiązującego prawa. Personel jednostek notyfikowanych pozostaje związany tajemnicą zawodową w kwestii wszystkich informacji pozyskiwanych w toku wykonywania zadań powierzonych mu zgodnie z niniejszym rozporządzeniem, jednak nie w stosunku do organów notyfikujących państwa członkowskiego, w którym jednostki notyfikowane podejmują czynności.
7. Il-korpi notifikati għandu jkollhom fis-seħħ proċeduri dokumentati li jiżguraw li l-persunal, il-kumitati, is-sussidjarji, is-sottokuntratturi tagħhom, u kwalunkwe korp assoċjat jew persunal ta’ korpi esterni jżommu, f’konformità mal-Artikolu 78, il-kunfidenzjalità tal-informazzjoni li tiġi fil-pussess tagħhom waqt it-twettiq ta’ attivitajiet ta’ valutazzjoni tal-konformità, għajr meta d-divulgazzjoni tagħha tkun meħtieġa bil-liġi. Il-persunal ta’ korpi notifikati għandu jkun marbut li josserva s-segretezza professjonali fir-rigward tal-informazzjoni kollha miksuba waqt li jkun qed iwettaq il-kompiti tiegħu skont dan ir-Regolament, ħlief fir-rigward tal-awtoritajiet tan-notifika tal-Istat Membru li fih ikunu qed isiru l-attivitajiet tiegħu.
8. Jednostki notyfikowane dysponują procedurami prowadzenia czynności z uwzględnieniem rozmiaru dostawcy, sektora, w którym prowadzi on działalność, jego struktury oraz stopnia złożoności danego systemu AI.
8. Il-korpi notifikati għandu jkollhom proċeduri għat-twettiq ta’ attivitajiet li jqisu b’mod dovut id-daqs tal-fornitur, is-settur li fih jopera, l-istruttura tiegħu u l-livell ta’ kumplessità tas-sistema tal-IA kkonċernata.
9. Jednostki notyfikowane zawierają odpowiednie umowy ubezpieczenia od odpowiedzialności cywilnej w odniesieniu do podejmowanych przez siebie czynności z zakresu oceny zgodności, chyba że państwo członkowskie, w którym mają siedzibę, bierze na siebie odpowiedzialność z tego tytułu zgodnie z prawem krajowym lub bezpośrednia odpowiedzialność za ocenę zgodności spoczywa na danym państwie członkowskim.
9. Il-korpi notifikati għandhom jieħdu assigurazzjoni tar-responsabbiltà xierqa għall-attivitajiet ta’ valutazzjoni tal-konformità tagħhom, dment li r-responsabbiltà ma tkunx merfugħa mill-Istat Membru li fih ikunu stabbiliti f’konformità mal-liġi nazzjonali jew dment li dak l-Istat Membru ma jkunx hu stess responsabbli direttament għall-valutazzjoni tal-konformità.
10. Jednostki notyfikowane posiadają zdolność wykonywania wszystkich zadań wynikających z niniejszego rozporządzenia z zachowaniem najwyższego poziomu uczciwości zawodowej i wymaganych kompetencji w danej dziedzinie, niezależnie od tego, czy zadania te są wykonywane przez nie samodzielnie, czy też w ich imieniu i na ich odpowiedzialność.
10. Il-korpi notifikati għandhom ikunu kapaċi jwettqu l-kompiti kollha tagħhom skont dan ir-Regolament bl-ogħla livell ta’ integrità professjonali u bil-kompetenza meħtieġa fil-qasam speċifiku, sew jekk dawk il-kompiti jitwettqu mill-korpi notifikati nnifishom jew f’isimhom u taħt ir-responsabbiltà tagħhom.
11. Jednostki notyfikowane dysponują wystarczającymi kompetencjami wewnętrznymi pozwalającymi im skutecznie oceniać zadania wykonywane w ich imieniu przez podmioty zewnętrzne. Jednostka notyfikowana dysponuje stałą dostępnością wystarczającej liczby pracowników odpowiedzialnych za aspekty administracyjne, techniczne, prawne i naukowe dysponujących doświadczeniem i wiedzą w zakresie odnośnych rodzajów systemów AI, danych i metod przetwarzania danych oraz w zakresie wymogów ustanowionych w sekcji 2.
11. Il-korpi notifikati għandu jkollhom kompetenzi interni suffiċjenti biex ikunu jistgħu jevalwaw b’mod effettiv il-kompiti mwettqa minn partijiet esterni f’isimhom. Il-korp notifikat għandu jkollu disponibbiltà permanenti ta’ persunal amministrattiv, tekniku, legali u xjentifiku suffiċjenti bl-esperjenza u l-għarfien relatati mat-tipi ta’ sistemi tal-IA, id-data u l-computing tad-data rilevanti, u relatati mar-rekwiżiti stipulati fit-Taqsima 2.
12. Jednostki notyfikowane biorą udział w działaniach koordynacyjnych, o których mowa w art. 38. Angażują się także w działalność europejskich organizacji normalizacyjnych bezpośrednio lub za pośrednictwem swoich przedstawicieli lub zapewniają, by same posiadały znajomość odpowiednich norm i dysponowały zawsze aktualną wiedzą na ich temat.
12. Il-korpi notifikati għandhom jieħdu sehem f’attivitajiet ta’ koordinazzjoni kif imsemmi fl-Artikolu 38. Dawn għandhom jieħdu sehem ukoll direttament jew ikunu rrappreżentati f’organizzazzjonijiet tal-istandardizzazzjoni Ewropej, jew jiżguraw li jkunu konxji u aġġornati fir-rigward tal-istandards rilevanti.
1. Organ notyfikujący powiadamia Komisję i pozostałe państwa członkowskie za pomocą systemu notyfikacji elektronicznej, o którym mowa w art. 30 ust. 2, o wszelkich istotnych zmianach w notyfikacji danej jednostki notyfikowanej.
1. L-awtorità tan-notifika għandha tinnotifika lill-Kummissjoni u lill-Istati Membri l-oħra bi kwalunkwe bidla rilevanti fin-notifika ta’ korp notifikat permezz tal-għodda elettronika ta’ notifika msemmija fl-Artikolu 30(2).
2. Procedury ustanowione w art. 29 i 30 stosuje się do rozszerzenia zakresu notyfikacji.
2. Il-proċeduri stabbiliti fl-Artikoli 29 u 30 għandhom japplikaw għal estensjonijiet tal-kamp ta’ applikazzjoni tan-notifika.
W przypadku zmian w notyfikacji innych niż rozszerzenie jej zakresu stosuje się procedury ustanowione w ust. 3-9.
Għal bidliet għan-notifika minbarra estensjonijiet tal-kamp ta’ applikazzjoni tagħha, għandhom japplikaw il-proċeduri stipulati fil-paragrafi (3) sa (9).
3. W przypadku gdy jednostka notyfikowana podejmie decyzję o zaprzestaniu prowadzenia czynności z zakresu oceny zgodności, jak najszybciej informuje o tym organ notyfikujący i zainteresowanych dostawców, a w przypadku planowanego zaprzestania działalności – na co najmniej rok przed zaprzestaniem działalności. Certyfikaty wydane przez jednostkę notyfikowaną mogą pozostać ważne przez okres dziewięciu miesięcy po zaprzestaniu działalności jednostki notyfikowanej, pod warunkiem że inna jednostka notyfikowana potwierdzi na piśmie, że przejmie odpowiedzialność za objęte tymi certyfikatami systemy AI wysokiego ryzyka. Przed upływem tego okresu dziewięciu miesięcy ta inna jednostka notyfikowana przeprowadza pełną ocenę odnośnych systemów AI wysokiego ryzyka, zanim wyda nowe certyfikaty dla tych systemów. W przypadku gdy jednostka notyfikowana zaprzestała działalności, organ notyfikujący cofa jej wyznaczenie.
3. Fejn korp notifikat jiddeċiedi li jtemm l-attivitajiet tiegħu ta’ valutazzjoni tal-konformità, huwa għandu jinforma lill-awtorità tan-notifika u lill-fornituri kkonċernati malajr kemm jista’ jkun u fil-każ ta’ tmiem ippjanat mill-inqas sena qabel ma jtemm l-attivitajiet tiegħu. Iċ-ċertifikati tal-korp notifikat jistgħu jibqgħu validi għal perjodu ta’ disa’ xhur wara t-tmiem tal-attivitajiet tal-korp notifikat bil-kundizzjoni li korp notifikat ieħor ikun ikkonferma bil-miktub li ser jieħu r-responsabbiltà għas-sistemi tal-IA b’riskju għoli koperti minn dawk iċ-ċertifikati. Il-korp notifikat tal-aħħar għandu jlesti valutazzjoni sħiħa tas-sistemi tal-IA b’riskju għoli affettwati sa tmiem dak il-perjodu ta’ disa’ xhur qabel ma joħroġ ċertifikati ġodda għal dawk is-sistemi. Fejn il-korp notifikat ikun waqqaf l-attività tiegħu, l-awtorità tan-notifika għandha tirtira d-deżinjazzjoni.
4. W przypadku gdy organ notyfikujący ma wystarczające powody, by uważać, że jednostka notyfikowana przestała spełniać wymogi określone w art. 31 lub nie spełnia swoich obowiązków, organ notyfikujący niezwłocznie wszczyna postępowanie wyjaśniające w tej sprawie z zachowaniem największej staranności. W takim przypadku organ notyfikujący informuje daną jednostkę notyfikowaną o zgłoszonym sprzeciwu i zapewnia jej możliwość ustosunkowania się do tego sprzeciwu. Jeżeli organ notyfikujący dojdzie do wniosku, że jednostka notyfikowana przestała spełniać wymogi ustanowione w art. 31 lub nie spełnia swoich obowiązków, organ ten, stosownie do przypadku, ogranicza, zawiesza lub cofa wyznaczenie, w zależności od powagi niespełnienia tych wymogów lub tych obowiązków. Informuje on o tym natychmiast Komisję i pozostałe państwa członkowskie.
4. Meta awtorità tan-notifika jkollha raġuni biżżejjed biex tqis li korp notifikat m’għadux jissodisfa r-rekwiżiti stabbiliti fl-Artikolu 31, jew li qed jonqos milli jissodisfa l-obbligi tiegħu, l-awtorità tan-notifika għandha, mingħajr dewmien, tinvestiga l-kwistjoni bl-akbar diliġenza possibbli. F’dak il-kuntest, hija għandha tinforma lill-korp notifikat ikkonċernat dwar l-oġġezzjonijiet imqajmin u tagħtih il-possibbiltà li jaqsam il-fehmiet tiegħu. Jekk l-awtorità tan-notifika tasal għall-konklużjoni li l-korp notifikat m’għadux jissodisfa r-rekwiżiti stabbiliti fl-Artikolu 31 jew li qed jonqos milli jissodisfa l-obbligi tiegħu, dan għandu jirrestrinġi, jissospendi jew jirtira d-deżinjazzjoni, kif xieraq, skont is-serjetà tan-nuqqas milli jissodisfa dawk ir-rekwiżiti jew dawk l-obbligi. Din għandha minnufih tinforma lill-Kummissjoni u lill-Istati Membri l-oħra dwar dan.
5. W przypadku gdy wyznaczenie zostało zawieszone, ograniczone lub całkowicie lub częściowo cofnięte, jednostka notyfikowana informuje o tym zainteresowanych dostawców w terminie 10 dni.
5. Meta d-deżinjazzjoni tiegħu tkun ġiet sospiża, ristretta, jew irtirata kompletament jew parzjalment, il-korp notifikat għandu jinforma lill-fornituri kkonċernati fi żmien 10 ijiem.
6. W przypadku ograniczenia, zawieszenia lub cofnięcia wyznaczenia organ notyfikujący podejmuje odpowiednie kroki w celu zapewnienia, by zachowana została dokumentacja danej jednostki notyfikowanej i była ona udostępniana organom notyfikującym w pozostałych państwach członkowskich oraz organom nadzoru rynku na ich wniosek.
6. Fil-każ tar-restrizzjoni, is-sospensjoni jew l-irtirar ta’ deżinjazzjoni, l-awtorità tan-notifika għandha tieħu passi xierqa biex tiżgura li l-fajls tal-korp notifikat ikkonċernat jinżammu u li jitqiegħdu għad-dispożizzjoni tal-awtoritajiet tan-notifika fi Stati Membri oħra u tal-awtoritajiet tas-sorveljanza tas-suq fuq talba tagħhom.
7. W przypadku ograniczenia, zawieszenia lub cofnięcia wyznaczenia organ notyfikujący:
7. Fil-każ ta’ restrizzjoni, sospensjoni jew irtirar ta’ deżinjazzjoni, l-awtorità tan-notifika għandha:
a)
ocenia skutki dla certyfikatów wydanych przez daną jednostkę notyfikowaną;
(a)
tivvaluta l-impatt fuq iċ-ċertifikati maħruġa mill-korp notifikat;
b)
przedkłada Komisji i pozostałym państwom członkowskim sprawozdanie ze swoich ustaleń w terminie trzech miesięcy od powiadomienia o zmianach w wyznaczeniu;
(b)
tippreżenta rapport dwar is-sejbiet tagħha lill-Kummissjoni u lill-Istati Membri l-oħra fi żmien tliet xhur minn meta tkun innotifikat dwar il-bidliet fid-deżinjazzjoni;
c)
zwraca się do jednostki notyfikowanej z żądaniem, by w celu zapewnienia ciągłości zgodności systemów AI wysokiego ryzyka na rynku zawiesiła lub cofnęła, w rozsądnym terminie ustalonym przez ten organ, wszelkie certyfikaty, które zostały nienależnie wydane;
(c)
titlob lill-korp notifikat jissospendi jew jirtira, f’perjodu ta’ żmien raġonevoli determinat mill-awtorità, kwalunkwe ċertifikat maħruġ bi żball sabiex tkun żgurata l-konformità kontinwa tas-sistemi tal-IA b’riskju għoli fis-suq;
d)
informuje Komisję i państwa członkowskie o certyfikatach, których zawieszenia lub cofnięcia zażądał;
(d)
tinforma lill-Kummissjoni u lill-Istati Membri dwar ċertifikati li tkun talbet is-sospensjoni jew l-irtirar tagħhom;
e)
przekazuje właściwym organom krajowym państwa członkowskiego, w którym dostawca ma zarejestrowane miejsce prowadzenia działalności, wszelkie istotne informacje na temat certyfikatów, których zawieszenia lub cofnięcia zażądał; organy te podejmują w stosownych przypadkach odpowiednie środki w celu uniknięcia potencjalnego ryzyka dla zdrowia, bezpieczeństwa lub praw podstawowych.
(e)
tipprovdi lill-awtoritajiet nazzjonali kompetenti tal-Istat Membru li fih il-fornitur ikollu l-post tan-negozju rreġistrat tiegħu bl-informazzjoni rilevanti kollha dwar iċ-ċertifikati li għalihom tkun talbet is-sospensjoni jew l-irtirar; dik l-awtorità għandha tieħu l-miżuri xierqa, fejn meħtieġ, biex jiġi evitat riskju potenzjali għas-saħħa, is-sikurezza jew id-drittijiet fundamentali.
8. Z wyjątkiem certyfikatów nienależnie wydanych, w przypadkach, w których wyznaczenie zostało zawieszone lub ograniczone, certyfikaty pozostają ważne, jeżeli zachodzi którakolwiek z następujących okoliczności:
8. Bl-eċċezzjoni ta’ ċertifikati maħruġa bi żball, u fejn deżinjazzjoni tkun ġiet sospiża jew ristretta, iċ-ċertifikati għandhom jibqgħu validi f’waħda miċ-ċirkostanzi li ġejjin:
a)
organ notyfikujący potwierdził, w terminie jednego miesiąca od zawieszenia lub ograniczenia, że w odniesieniu do certyfikatów, których dotyczy zawieszenie lub ograniczenie, nie występuje ryzyko dla zdrowia, bezpieczeństwa lub praw podstawowych i określił czas działań służących temu, by znieść zawieszenie lub ograniczenie; lub
(a)
l-awtorità tan-notifika tkun ikkonfermat, fi żmien xahar mis-sospensjoni jew ir-restrizzjoni, li ma hemm l-ebda riskju għas-saħħa, is-sikurezza jew id-drittijiet fundamentali b’rabta ma’ ċertifikati milquta mis-sospensjoni jew ir-restrizzjoni, u l-awtorità tan-notifika tkun fasslet skeda ta’ żmien għal azzjonijiet biex tiġi rimedjata s-sospensjoni jew ir-restrizzjoni; jew
b)
organ notyfikujący potwierdził, że w czasie trwania zawieszenia lub ograniczenia nie będą wydawane, zmieniane ani wydawane ponownie żadne certyfikaty powiązane z danym zawieszeniem, oraz stwierdza, czy dana jednostka notyfikowana jest zdolna do dalszego monitorowania i bycia odpowiedzialną za wydane już certyfikaty obowiązujące w okresie pokrywającym się z tym zawieszeniem lub ograniczeniem; w przypadku gdy organ notyfikujący ustali, że jednostka notyfikowana nie posiada zdolności do obsługi wydanych certyfikatów, dostawca systemu objętego danym certyfikatem – w terminie trzech miesięcy od zawieszenia lub ograniczenia – przekazuje właściwym organom krajowym w państwie członkowskim, w którym ma zarejestrowane miejsce prowadzenia działalności, potwierdzenie na piśmie, że inna wykwalifikowana jednostka notyfikowana tymczasowo przejmuje funkcje jednostki notyfikowanej w zakresie monitorowania certyfikatów i pozostanie ona odpowiedzialna za te certyfikaty w okresie zawieszenia lub ograniczenia wyznaczenia.
(b)
l-awtorità tan-notifika tkun ikkonfermat li mhu ser jinħareġ, jiġi emendat jew jinħareġ mill-ġdid l-ebda ċertifikat rilevanti għas-sospensjoni matul is-sospensjoni jew ir-restrizzjoni, u tgħid jekk il-korp notifikat għandux il-kapaċità li jkompli jimmonitorja u jibqa’ responsabbli miċ-ċertifikati eżistenti maħruġa għall-perjodu tas-sospensjoni jew ir-restrizzjoni; fil-każ li l-awtorità tan-notifika tiddetermina li l-korp notifikat ma għandux il-kapaċità li jappoġġa ċ-ċertifikati eżistenti maħruġa, il-fornitur tas-sistema koperta miċ-ċertifikat għandu jikkonferma bil-miktub lill-awtoritajiet nazzjonali kompetenti tal-Istat Membru li fih ikollu l-post tan-negozju rreġistrat tiegħu, fi żmien tliet xhur mis-sospensjoni jew mir-restrizzjoni, li korp notifikat kwalifikat ieħor qed jassumi temporanjament il-funzjonijiet tal-korp notifikat biex jimmonitorja u jibqa’ responsabbli għaċ-ċertifikati matul il-perjodu ta’ sospensjoni jew restrizzjoni.
9. Z wyjątkiem certyfikatów nienależnie wydanych, w przypadkach, w których wyznaczenie zostało cofnięte, certyfikaty pozostają ważne przez okres dziewięciu miesięcy w następujących okolicznościach:
9. Bl-eċċezzjoni ta’ ċertifikati li jkunu nħarġu bi żball, u meta deżinjazzjoni tkun ġiet irtirata, iċ-ċertifikati għandhom jibqgħu validi għal perjodu ta’ disa’ xhur fiċ-ċirkostanzi li ġejjin:
a)
właściwy organ krajowy w państwie członkowskim, w którym dostawca systemu AI wysokiego ryzyka objętego certyfikatem ma zarejestrowane miejsce prowadzenia działalności, potwierdził, że nie występuje ryzyko dla zdrowia, bezpieczeństwa lub praw podstawowych związane z danymi systemami AI wysokiego ryzyka; oraz
(a)
l-awtorità kompetenti nazzjonali tal-Istat Membru li fih il-fornitur tas-sistema tal-IA b’riskju għoli kopert miċ-ċertifikat ikollu l-post tan-negozju rreġistrat tiegħu tkun ikkonfermat li ma hemm l-ebda riskju għas-saħħa, is-sikurezza jew d-drittijiet fundamentali assoċjati mas-sistemi tal-IA b’riskju għoli kkonċernati; u
b)
inna jednostka notyfikowana potwierdziła na piśmie, że przejmie bezpośrednią odpowiedzialność za te systemy AI i zakończy swoją ocenę w terminie dwunastu miesięcy od cofnięcia wyznaczenia.
(b)
korp notifikat ieħor ikun ikkonferma bil-miktub li ser jassumi minnufih ir-’responsabbiltà għal dawk is-sistemi tal-IA u jlesti l-valutazzjoni tiegħu fi żmien 12-il xahar mill-irtirar tad-deżinjazzjoni.
W okolicznościach, o których mowa w akapicie pierwszym, właściwy organ krajowy w państwie członkowskim, w którym dostawca systemu objętego certyfikatem ma zarejestrowane miejsce prowadzenia działalności, może przedłużyć tymczasową ważność tych certyfikatów o dodatkowe trzymiesięczne okresy, które łącznie nie mogą przekraczać dwunastu miesięcy.
Fiċ-ċirkostanzi msemmija fl-ewwel subparagrafu, l-awtorità nazzjonali kompetenti tal-Istat Membru li fih il-fornitur tas-sistema kopert miċ-ċertifikat għandu l-post tan-negozju tiegħu tista’ testendi l-validità proviżorja taċ-ċertifikati għal perjodi addizzjonali ta’ tliet xhur, li b’kollox ma għandhomx jaqbżu t-12-il xahar.
Właściwy organ krajowy lub jednostka notyfikowana przejmująca funkcje jednostki notyfikowanej, której dotyczy zmiana wyznaczenia, natychmiast powiadamiają o tym Komisję, pozostałe państwa członkowskie i pozostałe jednostki notyfikowane.
L-awtorità nazzjonali kompetenti jew il-korp notifikat li jassumi l-funzjonijiet tal-korp notifikat milqut mill-bidliet fid-deżinjazzjoni, għandu minnufih jinforma b’dan lill-Kummissjoni, lill-Istati Membri l-oħra u lill-korpi notifikati l-oħra.
Kwestionowanie kompetencji jednostek notyfikowanych
Kontestazzjoni tal-kompetenza tal-korpi notifikati
1. W razie konieczności Komisja przeprowadza postępowanie wyjaśniające dotyczące wszystkich przypadków, w których ma podstawy, by wątpić w kompetencje jednostki notyfikowanej lub w ciągłość spełniania przez jednostkę notyfikowaną wymogów ustanowionych w art. 31 oraz wypełnianie mających zastosowanie obowiązków.
1. Fejn meħtieġ, il-Kummissjoni għandha tinvestiga l-każijiet kollha meta jkun hemm raġunijiet biex tiġi ddubitata l-kompetenza ta’ korp notifikat jew jekk korp notifikat ikunx għadu jissodisfa r-rekwiżiti stabbiliti fl-Artikolu 31 u r-responsabbiltajiet applikabbli tiegħu.
2. Organ notyfikujący przekazuje Komisji, na wniosek, wszystkie istotne informacje dotyczące notyfikacji lub utrzymania kompetencji przez daną jednostkę notyfikowaną.
2. L-awtorità tan-notifika għandha tipprovdi lill-Kummissjoni, fuq talba, l-informazzjoni rilevanti kollha dwar in-notifika jew iż-żamma tal-kompetenza tal-korp notifikat ikkonċernat.
3. Komisja zapewnia zgodnie z art. 78 poufność wszystkich informacji wrażliwych uzyskanych w toku postępowań wyjaśniających prowadzonych zgodnie z niniejszym artykułem.
3. Il-Kummissjoni għandha tiżgura li l-informazzjoni sensittiva kollha miksuba matul l-investigazzjonijiet tagħha skont dan l-Artikolu tiġi ttrattata b’mod kunfidenzjali f’konformità mal-Artikolu 78.
4. W przypadku gdy Komisja stwierdzi, że jednostka notyfikowana nie spełnia wymogów notyfikacji lub przestała je spełniać, informuje o tym notyfikujące państwo członkowskie i zwraca się do niego o podjęcie koniecznych środków naprawczych, włącznie z zawieszeniem lub cofnięciem notyfikacji, jeżeli zachodzi taka potrzeba. W przypadku niepodjęcia przez państwo członkowskie koniecznych środków naprawczych Komisja może w drodze aktu wykonawczego zawiesić, ograniczyć lub cofnąć wyznaczenie. Ten akt wykonawczy przyjmuje się zgodnie z procedurą sprawdzającą, o której mowa w art. 98 ust. 2.
4. Meta l-Kummissjoni taċċerta ruħha li korp notifikat ma jissodisfax, jew li ma jkunx għadu jissodisfa, ir-rekwiżiti għan-notifika tiegħu, hija għandha tinforma lill-Istat Membru tan-notifika b’dan u titolbu jieħu l-miżuri korrettivi meħtieġa, inkluż is-sospensjoni jew l-irtirar tan-notifika, jekk ikun meħtieġ. Meta l-Istat Membru jonqos milli jieħu l-miżuri korrettivi meħtieġa, il-Kummissjoni tista’, permezz ta’ att ta’ implimentazzjoni, tissospendi, tirrestrinġi jew tirtira d-deżinjazzjoni. Dak l-att ta’ implimentazzjoni għandu jiġi adottat f’konformità mal-proċedura ta’ eżami msemmija fl-Artikolu 98(2).
Normy zharmonizowane i dokumenty normalizacyjne
Standards armonizzati u strumenti ta’ standardizzazzjoni
1. W przypadku systemów AI wysokiego ryzyka oraz systemów AI ogólnego przeznaczenia spełniających normy zharmonizowane lub części tych norm, do których odniesienia opublikowano w Dzienniku Urzędowym Unii Europejskiej zgodnie z rozporządzeniem (UE) nr 1025/2012, domniemuje się, że spełniają one wymogi ustanowione w sekcji 2 niniejszego rozdziału lub, w stosownych przypadkach, obowiązki ustanowione w rozdziale V sekcja 2 i 3 niniejszego rozporządzenia, w zakresie, w jakim normy te obejmują te wymogi lub obowiązki.
1. Is-sistemi tal-IA b’riskju għoli jew il-mudelli tal-IA bi skop ġenerali li jkunu konformi ma’ standards armonizzati jew ma’ partijiet minnhom, li r-referenzi tagħhom ikunu ġew ippubblikati f’Il-Ġurnal Uffiċjali tal-Unjoni Ewropea f’konformità mar-Regolament (UE) Nru 1025/2012 għandhom ikunu preżunti li huma konformi mar-rekwiżiti stipulati fit-Taqsima 2 ta’ dan il-Kapitolu jew, kif applikabbli, mal-obbligi stipulati fl-Kapitolu V, it-Taqsimiet 2 u 3 ta’ dan ir-Regolament, sa fejn dawk l-istandards ikopru dawk ir-rekwiżiti jew obbligi.
2. Zgodnie z art. 10 rozporządzenia (UE) nr 1025/2012 Komisja wydaje bez zbędnej zwłoki wnioski o normalizację obejmujące wszystkie wymogi ustanowione w sekcji 2 niniejszego rozdziału oraz, w stosownych przypadkach, wnioski o normalizację obejmujące obowiązki ustanowione w rozdziale V sekcja 2 i 3 niniejszego rozporządzenia. We wniosku o normalizację zwraca się również o przedstawienie wyników sprawozdawczości i procesów dokumentowania w celu poprawy skuteczności działania zasobów systemów AI, takich jak zmniejszenie zużycia energii i innych zasobów przez system AI wysokiego ryzyka w jego cyklu życia, oraz wyników dotyczących efektywnego energetycznie rozwoju modeli AI ogólnego przeznaczenia. Przygotowując wniosek o normalizację, Komisja konsultuje się z Radą ds. AI i odpowiednimi zainteresowanymi stronami, w tym z forum doradczym.
2. F’konformità mal-Artikolu 10 tar-Regolament (UE) Nru 1025/2012, il-Kummissjoni għandha toħroġ, mingħajr dewmien żejjed, talbiet għall-istandardizzazzjoni li jkopru r-rekwiżiti kollha stipulati fit-Taqsima 2 ta’ dan il-Kapitolu u, kif applikabbli, talbiet għall-istandardizzazzjoni li jkopru l-obbligi stipulati fil-Kapitolu V, it-Taqsimiet 2 u 3 ta’ dan ir-Regolament’. It-talba ta’ standardizzazzjoni għandha titlob ukoll strumenti għall-proċessi ta’ rappurtar u ta’ dokumentazzjoni biex tittejjeb il-prestazzjoni tar-riżorsi tas-sistemi tal-IA, bħat-tnaqqis fil-konsum tal-enerġija u ta’ riżorsi oħra tas-sistema tal-IA b’riskju għoli matul iċ-ċiklu tal-ħajja tagħha, u dwar l-iżvilupp tal-effiċjenza fl-użu tal-enerġija tal-mudelli tal-IA bi skop ġenerali. Meta tħejji talba ta’ standardizzazzjoni, il-Kummissjoni għandha tikkonsulta lill-Bord u lill-partijiet ikkonċernati rilevanti, inkluż il-forum konsultattiv.
Wydając wniosek o normalizację do europejskich organizacji normalizacyjnych, Komisja określa, że normy muszą być jasne, spójne, w tym z normami opracowanymi w poszczególnych sektorach dla produktów objętych zakresem stosowania obowiązującego unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I, i mieć na celu zapewnienie, by systemy AI wysokiego ryzyka lub modele AI ogólnego przeznaczenia wprowadzane do obrotu lub oddawane do użytku w Unii spełniały odpowiednie wymogi lub obowiązki ustanowione w niniejszym rozporządzeniu.
Meta toħroġ talba ta’ standardizzazzjoni lill-organizzazzjonijiet Ewropej tal-istandardizzazzjoni, il-Kummissjoni għandha tispeċifika li l-istandards iridu jkunu ċari, konsistenti, inkluż mal-istandards żviluppati fid-diversi setturi għall-prodotti koperti mil-leġiżlazzjoni eżistenti tal-Unjoni dwar l-armonizzazzjoni elenkata fl-Anness I, u bil-għan li jiżguraw li s-sistemi tal-IA b’riskju għoli jew il-mudelli tal-IA bi skop ġenerali introdotti fis-suq jew imqiegħda fis-servizz fl-Unjoni jissodisfaw ir-rekwiżiti rilevanti jew l-obbligi stabbiliti f’dan ir-Regolament.
Komisja zwraca się do europejskich organizacji normalizacyjnych o przedstawienie dowodów, że dokładają wszelkich starań, aby osiągnąć cele, o których mowa w akapicie pierwszym i drugim niniejszego ustępu, zgodnie z art. 24 rozporządzenia (UE) nr 1025/2012.
Il-Kummissjoni għandha titlob lill-organizzazzjonijiet Ewropej tal-istandardizzazzjoni biex jipprovdu evidenza tal-aħjar sforzi tagħhom biex jissodisfaw l-objettivi msemmija fl-ewwel u t-tieni subparagrafu ta’ dan il-paragrafu f’konformità mal-Artikolu 24 tar-Regolament (UE) 1025/2012.
3. Uczestnicy procesu normalizacji dążą do promowania inwestycji i innowacji w dziedzinie AI, w tym poprzez zwiększenie pewności prawa, a także konkurencyjności i wzrostu rynku Unii, do przyczynienia się do wzmocnienia globalnej współpracy w zakresie normalizacji, z uwzględnieniem istniejących w dziedzinie AI norm międzynarodowych zgodnych z wartościami Unii, prawami podstawowymi i interesem Unii, a także do poprawy zarządzania wielostronnego, zapewniając wyważoną reprezentację interesów i skuteczny udział wszystkich odpowiednich zainteresowanych stron zgodnie z art. 5, 6 i 7 rozporządzenia (UE) nr 1025/2012.
3. Il-parteċipanti fil-proċess ta’ standardizzazzjoni għandhom ifittxu li jippromwovu l-investiment u l-innovazzjoni fl-IA, inkluż permezz ta’ żieda fiċ-ċertezza legali, kif ukoll il-kompetittività u t-tkabbir tas-suq tal-Unjoni, li jikkontribwixxu għat-tisħiħ tal-kooperazzjoni globali dwar l-istandardizzazzjoni u filwaqt li jqisu l-istandards internazzjonali eżistenti fil-qasam tal-IA li huma konsistenti mal-valuri, id-drittijiet fundamentali u l-interessi tal-Unjoni, u li jtejbu l-governanza b’diversi partijiet ikkonċernati li tiżgura rappreżentanza bbilanċjata tal-interessi u l-parteċipazzjoni effettiva tal-partijiet ikkonċernati rilevanti kollha f’konformità mal-Artikoli 5, 6 u 7 tar-Regolament (UE) Nru 1025/2012.
Speċifikazzjonijiet komuni
1. Komisja może przyjmować akty wykonawcze ustanawiające wspólne specyfikacje w odniesieniu do wymogów ustanowionych w sekcji 2 niniejszego rozdziału lub, w stosownych przypadkach, obowiązków ustanowionych w rozdziale V sekcja 2 i 3, w przypadku gdy spełnione są następujące warunki:
1. Il-Kummissjoni tista’ tadotta atti ta’ implimentazzjoni li jistabbilixxu speċifikazzjonijiet komuni għar-rekwiżiti stipulati fit-Taqsima 2 ta’ dan il-Kapitolu jew, kif applikabbli, għall-obbligi stipulati fit-Taqsimiet 2 u 3 tal-Kapitolu V meta jkunu ġew issodisfati l-kundizzjonijiet li ġejjin:
a)
Komisja wystąpiła zgodnie z art. 10 ust. 1 rozporządzenia (UE) nr 1025/2012 do jednej lub kilku europejskich organizacji normalizacyjnych z wnioskiem o opracowanie normy zharmonizowanej w odniesieniu do wymogów określonych w sekcji 2 niniejszego rozdziału, lub, w stosownych przypadkach, w odniesieniu do obowiązków ustanowionych w rozdziale V sekcja 2 i 3, oraz:
(a)
il-Kummissjoni tkun talbet, skont l-Artikolu 10(1) tar-Regolament (UE) Nru 1025/2012, organizzazzjoni Ewropea tal-istandardizzazzjoni waħda jew aktar biex tabbozza standard armonizzat għar-rekwiżiti stipulati fit-Taqsima 2 ta’ dan il-Kapitolu, jew, kif applikabbli, għall-obbligi stipulati fit-Taqsimiet 2 u 3 tal-Kapitolu V, u:
(i)
wniosek ten nie został przyjęty przez żadną z europejskich organizacji normalizacyjnych; lub
(i)
it-talba ma tkunx ġiet aċċettata minn ebda waħda mill-organizzazzjonijiet Ewropej tal-istandardizzazzjoni; jew
(ii)
normy zharmonizowane stanowiące odpowiedź na ten wniosek nie zostały wydane w terminie określonym zgodnie z art. 10 ust. 1 rozporządzenia (UE) nr 1025/2012; lub
(ii)
l-istandards armonizzati li jindirizzaw dik it-talba ma jkunux tfasslu sal-iskadenza stipulata f’konformità mal-Artikolu 10(1) tar-Regolament (UE) 1025/2012; jew
(iii)
odpowiednie normy zharmonizowane w niewystarczającym stopniu uwzględniają obawy dotyczące praw podstawowych; lub
(iii)
l-istandards armonizzati rilevanti ma jindirizzawx biżżejjed it-tħassib dwar id-drittijiet fundamentali; jew
(iv)
normy zharmonizowane nie są zgodne z wnioskiem; oraz
(iv)
l-istandards armonizzati ma jkunux konformi mat-talba; u
b)
w Dzienniku Urzędowym Unii Europejskiej nie opublikowano odniesienia do zharmonizowanych norm obejmujących wymogi, o których mowa w sekcji 2 niniejszego rozdziału, lub, w stosownych przypadkach, obowiązki, o których mowa w rozdziale V sekcja 2 i 3, zgodnie z przepisami rozporządzenia (UE) nr 1025/2012 i nie przewiduje się opublikowania takiego odniesienia w rozsądnym terminie.
(b)
ma tkun ġiet ippubblikata l-ebda referenza għall-istandards armonizzati li jkopru r-rekwiżiti msemmija fit-Taqsima 2 ta’ dan il-Kapitolu jew, kif applikabbli, l-obbligi msemmija fit-Taqsimiet 2 u 3 tal-Kapitolu V, f’Il-Ġurnal Uffiċjali tal-Unjoni Ewropea f’konformità mar-Regolament (UE) 1025/2012 u l-ebda referenza bħal din ma tkun mistennija li tiġi ppubblikata fi żmien raġonevoli.
Przygotowując projekt wspólnych specyfikacji, Komisja konsultuje się z forum doradczym, o którym mowa w art. 67.
Meta tabbozza l-ispeċifikazzjonijiet komuni, il-Kummissjoni għandha tikkonsulta lill-forum konsultattiv imsemmi fl-Artikolu 67.
Akty wykonawcze, o których mowa w akapicie pierwszym niniejszego ustępu, przyjmuje się zgodnie z procedurą sprawdzającą, o której mowa w art. 98 ust. 2.
L-atti ta’ implimentazzjoni msemmija fl-ewwel subparagrafu ta’ dan il-paragrafu għandhom jiġu adottati f’konformità mal-proċedura ta’ eżami msemmija fl-Artikolu 98(2).
2. Przed przygotowaniem projektu aktu wykonawczego Komisja informuje komitet, o którym mowa w art. 22 rozporządzenia (UE) nr 1025/2012, że uważa za spełnione warunki ustanowione w ust. 1 niniejszego artykułu.
2. Qabel ma tħejji abbozz ta’ att ta’ implimentazzjoni, il-Kummissjoni għandha tinforma lill-kumitat imsemmi fl-Artikolu 22 tar-Regolament (UE) Nru 1025/2012 li hija tqis il-kundizzjonijiet stabbiliti fil-paragrafu 1 ta’ dan l-Artikolu li għandhom jiġu sodisfati.
3. W przypadku systemów AI wysokiego ryzyka lub modeli AI ogólnego przeznaczenia zgodnych ze wspólnymi specyfikacjami, o których mowa w ust. 1, lub z częściami tych specyfikacji domniemuje się, że są one zgodne z wymogami ustanowionymi w sekcji 2 niniejszego rozdziału lub, w stosownych przypadkach, spełniają obowiązki ustanowione w rozdziale V sekcja 2 i 3, w zakresie, w jakim te wspólne specyfikacje obejmują te wymogi i te obowiązki.
3. Is-sistemi tal-IA b’riskju għoli jew il-mudelli tal-IA bi skop ġenerali li jkunu konformi mal-ispeċifikazzjonijiet komuni msemmijin fil-paragrafu 1, jew partijiet minn dawk l-ispeċifikazzjonijiet, għandhom jiġu preżunti li huma konformi mar-rekwiżiti stipulati fit-Taqsima 2 ta’ dan il-Kapitolu jew, kif applikabbli, li huma konformi mal-obbligi msemmija fit-Taqsimiet 2 u 3 tal-Kapitolu V, sa fejn dawk l-ispeċifikazzjonijiet komuni jkopru dawk ir-rekwiżiti jew dawk l-obbligi.
4. W przypadku gdy europejska organizacja normalizacyjna przyjmuje normę zharmonizowaną i proponuje Komisji opublikowanie odniesienia do niej w Dzienniku Urzędowym Unii Europejskiej, Komisja ocenia normę zharmonizowaną zgodnie z rozporządzeniem (UE) nr 1025/2012. W przypadku opublikowania odniesienia do normy zharmonizowanej w Dzienniku Urzędowym Unii Europejskiej Komisja uchyla akty wykonawcze, o których mowa w ust. 1, lub ich części, które obejmują te same wymogi ustanowione w sekcji 2 niniejszego rozdziału lub, w stosownych przypadkach, te same obowiązki ustanowione w rozdziale V sekcja 2 i 3.
4. Meta jiġi adottat standard armonizzat minn organizzazzjoni Ewropea tal-istandardizzazzjoni u dan jiġi propost lill-Kummissjoni għall-pubblikazzjoni tar-referenza tiegħu f’Il-Ġurnal Uffiċjali tal-Unjoni Ewropea, il-Kummissjoni għandha tivvaluta l-istandard armonizzat f’konformità mar-Regolament (UE) Nru 1025/2012. Meta r-referenza għal standard armonizzat tiġi ppubblikata f’Il-Ġurnal Uffiċjali tal-Unjoni Ewropea, il-Kummissjoni għandha tħassar l-atti ta’ implimentazzjoni msemmija fil-paragrafu 1, jew il-partijiet minnhom li jkopru l-istess rekwiżiti stipulati fit-Taqsima 2 ta’ dan il-Kapitolu jew, kif applikabbli, l-istess obbligi stipulati fit-Taqsimiet 2 u 3 tal-Kapitolu V.
5. W przypadku gdy dostawcy systemów AI wysokiego ryzyka lub modeli AI ogólnego przeznaczenia nie zapewnią zgodności ze wspólnymi specyfikacjami, o których mowa w ust. 1, należycie wykazują oni, że przyjęli rozwiązania techniczne, które są zgodne z wymogami, o których mowa w rozdziale I sekcja 2, lub, w stosownych przypadkach, spełniają obowiązki ustanowione w rozdziale V sekcja 2 i 3, na poziomie co najmniej równoważnym tym wspólnym specyfikacjom.
5. Meta l-fornituri ta’ sistemi tal-IA b’riskju għoli jew ta’ mudelli tal-IA bi skop ġenerali ma jikkonformawx mal-ispeċifikazzjonijiet komuni msemmijin fil-paragrafu 1, huma għandhom jiġġustifikaw kif xieraq li jkunu adottaw soluzzjonijiet tekniċi li jissodisfaw ir-rekwiżiti msemmija fit-Taqsima 2 ta’ dan il-Kapitolu jew, kif applikabbli, li jikkonformaw mal-obbligi stipulati fit-Taqsimiet 2 u 3 tal-Kapitolu V sa livell mill-inqas ekwivalenti għalihom.
6. W przypadku gdy państwo członkowskie uważa, że wspólna specyfikacja nie jest całkowicie zgodna z wymogami ustanowionymi w sekcji 2 lub, w stosownych przypadkach, nie spełnia całkowicie obowiązków ustanowionych w rozdziale V sekcja 2 i 3, informuje o tym Komisję, przedstawiając szczegółowe wyjaśnienie. Komisja ocenia te informacje i w stosownym przypadku zmienia akt wykonawczy ustanawiający daną wspólną specyfikację.
6. Meta Stat Membru jqis li speċifikazzjoni komuni ma tissodisfax għalkollox ir-rekwiżiti stipulati fit-Taqsima 2 jew, kif applikabbli, li jikkonformaw mal-obbligi stipulati fit-Taqsimiet 2 u 3 tal-Kapitolu V, għandu jinforma lill-Kummissjoni dwar dan bi spjegazzjoni dettaljata. Il-Kummissjoni għandha tivvaluta dik l-informazzjoni u, jekk ikun xieraq, temenda l-att ta’ implimentazzjoni li jistabbilixxi l-ispeċifikazzjoni komuni kkonċernata.
Valutazzjoni tal-konformità
1. W odniesieniu do systemów AI wysokiego ryzyka wymienionych w załączniku III pkt 1, w przypadku gdy do wykazania zgodności systemu AI wysokiego ryzyka z wymogami ustanowionymi w sekcji 2 dostawca zastosował normy zharmonizowane, o których mowa w art. 40, lub, w stosownych przypadkach, wspólne specyfikacje, o których mowa w art. 41, dostawca wybiera jedną z następujących procedur oceny zgodności w oparciu o:
1. Għas-sistemi tal-IA b’riskju għoli elenkati fl-Anness III, il-punt 1, jekk meta kien qed juri l-konformità ta’ sistema tal-IA b’riskju għoli mar-rekwiżiti stipulati fit-Taqsima 2, il-fornitur applika standards armonizzati msemmija fl-Artikolu 40 jew, meta applikabbli, l-ispeċifikazzjonijiet komuni msemmija fl-Artikolu 41, il-fornitur għandu jagħżel waħda mill-proċeduri ta’ valutazzjoni tal-konformità li ġejjin abbażi ta’:
a)
kontrolę wewnętrzną, o której mowa w załączniku VI; lub
(a)
il-kontroll intern imsemmi fl-Anness VI; jew
b)
ocenę systemu zarządzania jakością i ocenę dokumentacji technicznej przeprowadzaną z udziałem jednostki notyfikowanej, o której to procedurze mowa w załączniku VII.
(b)
il-valutazzjoni tas-sistema ta’ ġestjoni tal-kwalità u l-valutazzjoni tad-dokumentazzjoni teknika, bl-involviment ta’ korp notifikat, imsemmija fl-Anness VII.
Przy wykazywaniu zgodności systemu AI wysokiego ryzyka z wymogami ustanowionymi w sekcji 2 dostawca postępuje zgodnie z procedurą oceny zgodności ustanowioną w załączniku VII, w przypadku gdy:
Meta juri l-konformità ta’ sistema tal-IA b’riskju għoli mar-rekwiżiti stipulati fit-Taqsima 2, il-fornitur għandu jsegwi l-proċedura tal-valutazzjoni tal-konformità stipulata fl-Anness VII fejn:
a)
normy zharmonizowane, o których mowa w art. 40, nie istnieją, a wspólne specyfikacje, o których mowa w art. 41, nie są dostępne;
(a)
ma jeżistux standards armonizzati kif imsemmija fl-Artikolu 40 u l-ispeċifikazzjonijiet komuni msemmija fl-Artikolu 41 ma jkunux disponibbli;
b)
dostawca nie zastosował normy zharmonizowanej lub zastosował jedynie jej część;
(b)
il-fornitur ma jkunx applika, jew applika biss parti, mill-istandard armonizzat;
c)
wspólne specyfikacje, o których mowa w lit. a), istnieją, ale dostawca ich nie zastosował;
(c)
l-ispeċifikazzjonijiet komuni msemmija fil-punt (a) jkunu jeżistu iżda l-fornitur ma jkunx applikahom;
d)
co najmniej jedna z norm zharmonizowanych, o których mowa w lit. a), została opublikowana z ograniczeniem i jedynie w odniesieniu do tej części normy, której dotyczy ograniczenie.
(d)
wieħed jew aktar mill-istandards armonizzati msemmija fil-punt (a) ikunu ġew ippubblikati b’restrizzjoni u biss fuq il-parti tal-istandard li kienet ġiet ristretta.
Na potrzeby procedury oceny zgodności, o której mowa w załączniku VII, dostawca może wybrać dowolną jednostkę notyfikowaną. Jednak w przypadku gdy system ma zostać oddany do użytku przez organy ścigania, organy imigracyjne lub organy azylowe lub przez instytucje, organy i jednostki organizacyjne Unii, funkcję jednostki notyfikowanej pełni organ nadzoru rynku, o którym mowa odpowiednio w art. 74 ust. 8 lub ust. 9.
Għall-finijiet tal-proċedura ta’ valutazzjoni tal-konformità msemmija fl-Anness VII, il-fornitur jista’ jagħżel kwalunkwe wieħed mill-korpi notifikati. Madankollu, meta s-sistema tal-IA b’riskju għoli tkun maħsuba biex titqiegħed fis-servizz minn awtoritajiet tal-infurzar tal-liġi, tal-immigrazzjoni jew tal-ażil jew minn istituzzjonijiet, korpi, uffiċċji jew aġenziji tal-Unjoni, l-awtorità tas-sorveljanza tas-suq imsemmija fl-Artikolu 74(8) jew (9), kif applikabbli, għandha taġixxi bħala korp notifikat.
2. W przypadku systemów AI wysokiego ryzyka, o których mowa w załączniku III pkt 2–8, dostawcy postępują zgodnie z procedurą oceny zgodności opierającą się na kontroli wewnętrznej, o której mowa w załączniku VI i która nie przewiduje udziału jednostki notyfikowanej.
2. Għas-sistemi tal-IA b’riskju għoli msemmija fl-Anness III, il-punti 2 sa 8, il-fornituri għandhom isegwu l-proċedura tal-valutazzjoni tal-konformità bbażata fuq il-kontroll intern kif imsemmi fl-Anness VI, li ma tipprevedix l-involviment ta’ korp notifikat.
3. W przypadku systemów AI wysokiego ryzyka objętych zakresem stosowania unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I sekcja A, dostawca postępuje zgodnie z odpowiednią procedurą oceny zgodności wymaganą na podstawie tych aktów prawnych. W odniesieniu do tego rodzaju systemów AI wysokiego ryzyka zastosowanie mają wymogi ustanowione w sekcji 2 niniejszego rozdziału i stanowią one jeden z elementów tej oceny. Zastosowanie mają również przepisy załącznika VII pkt 4.3, pkt 4.4, pkt 4.5 i pkt 4.6 akapit piąty.
3. Għal sistemi tal-IA b’riskju għoli koperti bil-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni elenkata fl-Anness I, it-Taqsima A, il-fornitur għandu jsegwi l-proċedura ta’ valutazzjoni tal-konformità rilevanti kif meħtieġ skont dawk l-atti legali. Ir-rekwiżiti stipulati fit-Taqsima 2 ta’ dan il-Kapitolu għandhom japplikaw għal dawk is-sistemi tal-IA b’riskju għoli u għandhom ikunu parti minn dik il-valutazzjoni. Għandhom japplikaw ukoll il-punti 4.3., 4.4., 4.5. u l-ħames paragrafu tal-punt 4.6 tal-Anness VII.
Na potrzeby tej oceny jednostki notyfikowane, które notyfikowano zgodnie z tymi aktami prawnymi, są uprawnione do przeprowadzania kontroli zgodności systemów AI wysokiego ryzyka z wymogami ustanowionymi w sekcji 2, o ile zgodność tych jednostek notyfikowanych z wymogami ustanowionymi w art. 31 ust. 4, 5, 10 i 11 została oceniona w kontekście procedury notyfikacyjnej przewidzianej w tych aktach prawnych.
Għall-finijiet ta’ dik il-valutazzjoni, il-korpi notifikati li jkunu ġew notifikati skont dawk l-atti legali għandhom ikunu intitolati li jikkontrollaw il-konformità tas-sistemi tal-IA b’riskju għoli mar-rekwiżiti stipulati fit-Taqsima 2, dment li l-konformità ta’ dawk il-korpi notifikati mar-rekwiżiti stipulati fl-Artikolu 31(4), (10) u (11) tkun ġiet ivvalutata fil-kuntest tal-proċedura ta’ notifika skont dawk l-atti legali.
W przypadku gdy akt prawny wymieniony w załączniku I sekcja A zapewnia producentowi produktu możliwość zrezygnowania z oceny zgodności przeprowadzanej przez stronę trzecią, pod warunkiem że producent ten zapewnił zgodność ze wszystkimi normami zharmonizowanymi obejmującymi wszystkie stosowne wymogi, taki producent może skorzystać z tej możliwości wyłącznie w przypadku, gdy zapewnił również zgodność z normami zharmonizowanymi lub – w stosownych przypadkach – wspólnymi specyfikacjami, o których mowa w art. 41, obejmującymi wszystkie wymogi ustanowione w sekcji 2 niniejszego rozdziału.
Meta att legali elenkat fit-Taqsima A tal-Anness I,, jippermetti li l-manifattur tal-prodott ma jipparteċipax f’valutazzjoni tal-konformità minn parti terza, dment li dak il-manifattur ikun applika l-istandards armonizzati kollha li jkopru r-rekwiżiti rilevanti kollha, dak il-manifattur jista’ juża dik l-opzjoni biss jekk ikun applika wkoll standards armonizzati jew, meta applikabbli, l-ispeċifikazzjonijiet komuni msemmija fl-Artikolu 41, li jkopru r-rekwiżiti kollha stipulati fit-Taqsima 2 ta’ dan il-Kapitolu.
4. Systemy AI wysokiego ryzyka, które poddano już procedurze oceny zgodności, poddaje się nowej procedurze oceny zgodności w przypadku gdy wprowadza się w nich istotne zmiany, niezależnie od tego, czy zmieniony system jest przeznaczony do dalszej dystrybucji lub czy ma być nadal wykorzystywany przez obecny podmiot stosujący.
4. Is-sistemi tal-IA b’riskju għoli li diġà ġew soġġetti għal proċedura tal-valutazzjoni tal-konformità għandhom jgħaddu minn proċedura ġdida ta’ valutazzjoni tal-konformità f’każ li ssir modifika sostanzjali, irrispettivament minn jekk is-sistema modifikata tkunx maħsuba li tkompli titqassam jew tkompli tintuża mill-implimentatur attwali.
W przypadku systemów AI wysokiego ryzyka, które nadal uczą się po wprowadzeniu ich do obrotu lub po oddaniu ich do użytku, istotnej zmiany nie stanowią zmiany w systemie AI wysokiego ryzyka i jego skuteczności działania, które dostawca z góry zaplanował w chwili przeprowadzania początkowej oceny zgodności i które są częścią informacji zawartych w dokumentacji technicznej, o której mowa w pkt 2 lit. f) załącznika IV.
Għas-sistemi tal-IA b’riskju għoli li jkomplu jitgħallmu wara li jiġu introdotti fis-suq jew jitqiegħdu fis-servizz, il-bidliet fis-sistema tal-IA b’riskju għoli u fil-prestazzjoni tagħha li jkunu ġew determinati minn qabel mill-fornitur waqt il-valutazzjoni inizjali tal-konformità u li jkunu parti mill-informazzjoni li tinsab fid-dokumentazzjoni teknika msemmija fl-Anness IV, il-punt 2(f), m’għandhomx jikkostitwixxu modifika sostanzjali.
5. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 97 w celu zmiany załączników VI i VII poprzez ich zmianę w świetle postępu technicznego.
5. Il-Kummissjoni għandha s-setgħa li tadotta atti delegati f’konformità mal-Artikolu 97 sabiex temenda l-Annessi VI u VII billi taġġornahom fid-dawl tal-progress tekniku.
6. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 97 w celu zmiany ust. 1 i 2 niniejszego artykułu, aby objąć systemy AI wysokiego ryzyka, o których mowa w załączniku III pkt 2–8, procedurą oceny zgodności, o której mowa w załączniku VII, lub elementami tej procedury. Komisja przyjmuje takie akty delegowane, biorąc pod uwagę skuteczność procedury oceny zgodności opierającej się na kontroli wewnętrznej, o której mowa w załączniku VI, w zapobieganiu ryzyku dla zdrowia i bezpieczeństwa oraz ryzyku związanemu z ochroną praw podstawowych stwarzanemu przez takie systemy lub minimalizowaniu takiego ryzyka, a także uwzględniając dostępność odpowiednich zdolności i zasobów wśród jednostek notyfikowanych.
6. Il-Kummissjoni għandha s-setgħa li tadotta atti delegati f’konformità mal-Artikolu 97 sabiex temenda l-paragrafi 1 u 2 ta’ dan l-Artikolu sabiex is-sistemi tal-IA b’riskju għoli msemmija fl-Anness III, il-punti 2 sa 8, jiġu soġġetti għall-proċedura ta’ valutazzjoni tal-konformità msemmija fl-Anness VII jew partijiet minnha. Il-Kummissjoni għandha tadotta tali atti delegati filwaqt li tqis l-effettività tal-proċedura ta’ valutazzjoni tal-konformità abbażi ta’ kontroll intern imsemmi fl-Anness VI fil-prevenzjoni jew fil-minimizzazzjoni tar-riskji għas-saħħa u s-sikurezza u fil-ħarsien tad-drittijiet fundamentali ppreżentati minn tali sistemi kif ukoll id-disponibbiltà ta’ kapaċitajiet u riżorsi adegwati fost il-korpi notifikati.
Odstępstwo od procedury oceny zgodności
Deroga mill-proċedura ta’ valutazzjoni tal-konformità
1. Na zasadzie odstępstwa od art. 43 i na należycie uzasadniony wniosek organ nadzoru rynku może wydać zezwolenie na wprowadzenie do obrotu lub oddanie do użytku konkretnych systemów AI wysokiego ryzyka na terytorium danego państwa członkowskiego w związku z wystąpieniem nadzwyczajnych względów dotyczących bezpieczeństwa publicznego lub ochrony zdrowia i życia osób, ochrony środowiska lub ochrony kluczowych aktywów przemysłowych i infrastrukturalnych. Zezwolenie to wydaje się tymczasowo na okres przeprowadzenia niezbędnych procedur oceny zgodności, uwzględniając nadzwyczajne względy uzasadniające przedmiotowe odstępstwo. Dokłada się starań, aby procedury te ukończono bez zbędnej zwłoki.
1. B’deroga mill-Artikolu 43 u fuq talba debitament ġustifikata, kwalunkwe awtorità tas-sorveljanza tas-suq tista’ tawtorizza l-introduzzjoni fis-suq jew it-tqegħid fis-servizz ta’ sistemi tal-IA b’riskju għoli speċifiċi fit-territorju tal-Istat Membru kkonċernat, għal raġunijiet eċċezzjonali ta’ sigurtà pubblika jew il-protezzjoni tal-ħajja u tas-saħħa tal-persuni, għall-ħarsien tal-ambjent jew għall-protezzjoni ta’ assi industrijali u infrastrutturali ewlenin. Dik l-awtorizzazzjoni għandha tkun għal perjodu limitat waqt li jkunu qed isiru l-proċeduri ta’ valutazzjoni tal-konformità meħtieġa, filwaqt li jitqiesu r-raġunijiet eċċezzjonali li jiġġustifikaw id-deroga. It-tlestija ta’ dawk il-proċeduri għandha ssir mingħajr dewmien żejjed.
2. W należycie uzasadnionych pilnych przypadkach w związku z wystąpieniem nadzwyczajnych względów bezpieczeństwa publicznego lub w przypadku konkretnego, istotnego i bezpośredniego zagrożenia życia lub bezpieczeństwa fizycznego osób fizycznych, organy ścigania lub organy ochrony ludności mogą oddać do użytku określony system AI wysokiego ryzyka bez zezwolenia, o którym mowa w ust. 1, pod warunkiem że wniosek o takie zezwolenie zostanie bez zbędnej zwłoki złożony w trakcie wykorzystywania tego systemu lub tuż po nim. W przypadku odmowy wydania zezwolenia, o którym mowa w ust. 1, wykorzystywanie tego systemu AI wysokiego ryzyka wstrzymuje się ze skutkiem natychmiastowym, a wszystkie rezultaty i wyniki tego wykorzystania muszą zostać natychmiast odrzucone.
2. F’sitwazzjoni ta’ urġenza debitament ġustifikata għal raġunijiet eċċezzjonali ta’ sigurtà pubblika jew fil-każ ta’ theddida speċifika, sostanzjali u imminenti għall-ħajja jew għas-sikurezza fiżika ta’ persuni fiżiċi, l-awtoritajiet tal-infurzar tal-liġi jew l-awtoritajiet tal-protezzjoni ċivili jistgħu jqiegħdu fis-servizz sistema speċifika tal-IA b’riskju għoli mingħajr l-awtorizzazzjoni msemmija fil-paragrafu 1 dment li tali awtorizzazzjoni tintalab matul jew wara l-użu mingħajr dewmien żejjed. Jekk l-awtorizzazzjoni msemmija fil-paragrafu 1 tiġi rrifjutata, l-użu tas-sistema tal-IA b’riskju għoli għandu jitwaqqaf b’effett immedjat u r-riżultati u l-outputs kollha ta’ dan l-użu għandhom jiġu skartati minnufih.
3. Zezwolenie, o którym mowa w ust. 1, wydaje się wyłącznie wówczas, gdy organ nadzoru rynku stwierdzi, że system AI wysokiego ryzyka jest zgodny z wymogami ustanowionymi w sekcji 2. Organ nadzoru rynku informuje Komisję i pozostałe państwa członkowskie o zezwoleniach wydanych zgodnie z ust. 1 i 2. Obowiązek ten nie obejmuje wrażliwych danych operacyjnych dotyczących działań organów ścigania.
3. L-awtorizzazzjoni msemmija fil-paragrafu 1 għandha tinħareġ biss jekk l-awtorità tas-sorveljanza tas-suq tikkonkludi li s-sistema tal-IA b’riskju għoli tikkonforma mar-rekwiżiti tat-Taqsima 2. L-awtorità tas-sorveljanza tas-suq għandha tinforma lill-Kummissjoni u lill-Istati Membri l-oħra dwar kwalunkwe awtorizzazzjoni maħruġa skont il-paragrafi 1 u 2. Dan l-obbligu ma għandux ikopri data operazzjonali sensittiva marbuta mal-attivitajiet tal-awtoritajiet tal-infurzar tal-liġi.
4. Jeżeli w terminie 15 dni kalendarzowych od dnia otrzymania informacji, o której mowa w ust. 3, ani żadne państwo członkowskie, ani Komisja nie zgłoszą sprzeciwu dotyczącego zezwolenia wydanego przez organ nadzoru rynku państwa członkowskiego zgodnie z ust. 1, takie zezwolenie uznaje się za uzasadnione.
4. Jekk, fi żmien 15-il jum tal-kalendarju minn meta tasal l-informazzjoni msemmija fil-paragrafu 3, ma tkun saret l-ebda oġġezzjoni minn xi Stat Membru jew mill-Kummissjoni rigward awtorizzazzjoni maħruġa minn awtorità tas-sorveljanza tas-suq ta’ Stat Membru f’konformità mal-paragrafu 1, dik l-awtorizzazzjoni għandha titqies iġġustifikata.
5. Jeżeli w terminie 15 dni kalendarzowych od dnia otrzymania informacji, o której mowa w ust. 3, państwo członkowskie zgłosi sprzeciw dotyczący zezwolenia wydanego przez organ nadzoru rynku innego państwa członkowskiego lub w przypadku gdy Komisja uzna zezwolenie za sprzeczne z prawem Unii lub uzna za bezpodstawne dokonane przez państwo członkowskie stwierdzenie zgodności systemu, o czym mowa w ust. 3, Komisja niezwłocznie przystępuje do konsultacji z odpowiednim państwem członkowskim. W takim przypadku zasięga się opinii zainteresowanych operatorów i zapewnia się im możliwość przedstawienia ich stanowiska. Na tej podstawie Komisja podejmuje decyzję, czy dane zezwolenie jest uzasadnione. Komisja kieruje swoją decyzję do zainteresowanego państwa członkowskiego i odpowiednich operatorów.
5. Meta, fi żmien 15-il jum kalendarju minn meta tasal in-notifika msemmija fil-paragrafu 3, jitqajmu oġġezzjonijiet minn Stat Membru kontra awtorizzazzjoni maħruġa minn awtorità tas-sorveljanza tas-suq ta’ Stat Membru ieħor, jew meta l-Kummissjoni tqis li l-awtorizzazzjoni tmur kontra d-dritt tal-Unjoni jew il-konklużjoni tal-Istati Membri fir-rigward tal-konformità tas-sistema kif imsemmija fil-paragrafu 3 tkun bla bażi valida, il-Kummissjoni għandha, mingħajr dewmien, tidħol f’konsultazzjonijiet mal-Istat Membru rilevanti. L-operaturi kkonċernati għandhom jiġu kkonsultati u jkollhom il-possibbiltà li jippreżentaw il-fehmiet tagħhom. B’kunsiderazzjoni ta’ dan, il-Kummissjoni għandha tiddeċiedi jekk l-awtorizzazzjoni hix iġġustifikata jew le. Il-Kummissjoni għandha tindirizza d-deċiżjoni tagħha lill-Istat Membru kkonċernat u lill-operaturi rilevanti.
6. W przypadku gdy Komisja uzna zezwolenie za bezpodstawne, organ nadzoru rynku zainteresowanego państwa członkowskiego cofa je.
6. Meta l-Kummissjoni tqis li l-awtorizzazzjoni mhix iġġustifikata, din għandha tiġi rtirata mill-awtorità tas-sorveljanza tas-suq tal-Istat Membru kkonċernat.
7. W przypadku systemów AI wysokiego ryzyka powiązanych z produktami objętymi zakresem stosowania unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I sekcja A stosuje się wyłącznie odstępstwa od oceny zgodności ustanowione w tym unijnym prawodawstwie harmonizacyjnym.
7. Għas-sistemi tal-IA b’riskju għoli relatati ma’ prodotti koperti mil-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni elenkata fl-Anness I, it-Taqsima A, għandhom japplikaw biss id-derogi mill-valutazzjoni tal-konformità stabbiliti f’dik il-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni.