Úřední věstník
Evropské unie
CS
Uradni list
Evropske unije
SL
NAŘÍZENÍ EVROPSKÉHO PARLAMENTU A RADY (EU) 2024/1689
UREDBA (EU) 2024/1689 EVROPSKEGA PARLAMENTA IN SVETA
kterým se stanoví harmonizovaná pravidla pro umělou inteligenci a mění nařízení (ES) č. 300/2008, (EU) č. 167/2013, (EU) č. 168/2013, (EU) 2018/858, (EU) 2018/1139 a (EU) 2019/2144 a směrnice 2014/90/EU, (EU) 2016/797 a (EU) 2020/1828 (akt o umělé inteligenci)
o določitvi harmoniziranih pravil o umetni inteligenci in spremembi uredb (ES) št. 300/2008, (EU) št. 167/2013, (EU) št. 168/2013, (EU) 2018/858, (EU) 2018/1139 in (EU) 2019/2144 ter direktiv 2014/90/EU, (EU) 2016/797 in (EU) 2020/1828 (Akt o umetni inteligenci)
(Text s významem pro EHP)
EVROPSKÝ PARLAMENT A RADA EVROPSKÉ UNIE,
EVROPSKI PARLAMENT IN SVET EVROPSKE UNIJE STA –
s ohledem na Smlouvu o fungování Evropské unie, a zejména na články 16 a 114 této smlouvy,
ob upoštevanju Pogodbe o delovanju Evropske unije ter zlasti členov 16 in 114 Pogodbe,
s ohledem na návrh Evropské komise,
ob upoštevanju predloga Evropske komisije,
po postoupení návrhu legislativního aktu vnitrostátním parlamentům,
po posredovanju osnutka zakonodajnega akta nacionalnim parlamentom,
s ohledem na stanovisko Evropského hospodářského a sociálního výboru (1),
ob upoštevanju mnenja Evropskega ekonomsko-socialnega odbora (1),
s ohledem na stanovisko Evropské centrální banky (2),
ob upoštevanju mnenja Evropske centralne banke (2),
s ohledem na stanovisko Výboru regionů (3),
ob upoštevanju mnenja Odbora regij (3),
v souladu s řádným legislativním postupem (4),
v skladu z rednim zakonodajnim postopkom (4),
vzhledem k těmto důvodům:
ob upoštevanju naslednjega:
(1)
Účelem tohoto nařízení je zlepšit fungování vnitřního trhu stanovením jednotného právního rámce, zejména pro vývoj, uvádění na trh, uvádění do provozu a používání systémů umělé inteligence (dále jen „systémy AI“) v Unii v souladu s hodnotami Unie, podporovat zavádění důvěryhodné umělé inteligence (dále jen „AI“) zaměřené na člověka a zároveň zajistit vysokou úroveň ochrany zdraví, bezpečnosti a základních práv zakotvených v Listině základních práv Evropské unie (dále jen „Listina“), včetně demokracie, právního státu a ochrany životního prostředí, chránit před škodlivými účinky systémů AI v Unii, jakož i podporovat inovace. Toto nařízení zajišťuje volný přeshraniční pohyb zboží a služeb založených na AI, čímž brání členským státům ukládat omezení vývoje, uvádění na trh a používání systémů AI, pokud to není tímto nařízením výslovně povoleno.
(1)
Namen te uredbe je izboljšati delovanje notranjega trga z določitvijo enotnega pravnega okvira, predvsem za razvoj, dajanje na trg, dajanje v uporabo ter za uporabo umetnointeligenčnih sistemov (v nadaljnjem besedilu: sistemi UI) v Uniji, v skladu z vrednotami Unije, da bi spodbujali uvajanje na človeka osredotočene in zaupanja vredne umetne inteligence (UI) in hkrati zagotovili visoko raven varovanja zdravja, varnosti in temeljnih pravic, kot so določene v Listini Evropske unije o temeljnih pravicah (v nadaljnjem besedilu: Listina), vključno z demokracijo, pravno državo in varstvom okolja, za zaščito pred škodljivimi učinki sistemov UI v Uniji ter da bi podpirali inovacije. S to uredbo se zagotavlja prosti čezmejni pretok blaga in storitev, ki temeljijo na umetni inteligenci, s čimer se državam članicam preprečuje, da bi uvedle omejitve za razvoj, trženje in uporabo sistemov UI, razen če je to izrecno dovoljeno s to uredbo.
(2)
Toto nařízení by mělo být uplatňováno v souladu s hodnotami Unie zakotvenými v Listině, usnadňovat ochranu fyzických osob, podniků, demokracie, právního státu a životního prostředí a zároveň podporovat inovace a zaměstnanost a zajistit Unii vedoucí postavení při zavádění důvěryhodné AI.
(2)
To uredbo bi bilo treba uporabljati v skladu z vrednotami Unije, zapisanimi v Listini, kar bi olajšalo varstvo fizičnih oseb, podjetij, demokracije, pravne države in varstva okolja, hkrati pa spodbujalo inovacije in zaposlovanje ter Uniji zagotovilo vodilno vlogo pri uvajanju zaupanja vredne UI.
(3)
Systémy AI mohou být snadno zaváděny v celé řadě hospodářských odvětví a složek společnosti, a to i napříč hranicemi, a mohou být snadno v oběhu v celé Unii. Některé členské státy již zkoumají možnost přijetí vnitrostátních pravidel, která by zajišťovala, že AI bude důvěryhodná a bezpečná a že bude vyvíjena a používána v souladu s povinnostmi v oblasti základních práv. Rozdílné vnitrostátní předpisy mohou vést k roztříštěnosti vnitřního trhu a mohou snížit právní jistotu pro provozovatele, kteří systémy AI vyvíjejí, dovážejí nebo používají. Proto je třeba zajistit jednotnou a vysokou úroveň ochrany v celé Unii s cílem dosáhnout důvěryhodnosti AI a zároveň zabránit rozdílům, které jsou překážkou volného oběhu, inovací, zavádění a využívání systémů AI a souvisejících produktů a služeb na vnitřním trhu, a stanovit za tímto účelem jednotné povinnosti provozovatelů a zaručit jednotnou ochranu naléhavých důvodů obecného zájmu a práv osob na celém vnitřním trhu na základě článku 114 Smlouvy o fungování Evropské unie (dále jen „Smlouva o fungování EU“). V rozsahu, v němž toto nařízení obsahuje zvláštní pravidla ochrany fyzických osob v souvislosti se zpracováním osobních údajů, která se týkají omezení, pokud jde o používání systémů AI pro biometrickou identifikaci na dálku pro účely vymáhání práva, používání systémů AI k posouzení rizik fyzických osob pro účely vymáhání práva a používání systémů AI pro biometrickou kategorizaci pro účely vymáhání práva, je vhodné, aby se toto nařízení ve vztahu k těmto zvláštním pravidlům zakládalo na článku 16 Smlouvy o fungování EU. S ohledem na tato zvláštní pravidla a na použití článku 16 Smlouvy o fungování EU je vhodné provést konzultace s Evropským sborem pro ochranu osobních údajů.
(3)
Sisteme UI je mogoče zlahka uporabljati v številnih različnih gospodarskih in družbenih sektorjih, tudi čezmejno, in lahko enostavno krožijo po vsej Uniji. Nekatere države članice so že preučile možnost sprejetja nacionalnih predpisov, s katerimi bi zagotovile, da je UI zaupanja vredna in varna ter da se razvija in uporablja v skladu z obveznostmi glede temeljnih pravic. Različna nacionalna pravila lahko povzročijo razdrobljenost notranjega trga in zmanjšajo pravno varnost za operaterje, ki razvijajo, uvažajo ali uporabljajo sisteme UI. Zato bi bilo treba zagotoviti dosledno in visoko raven varstva po vsej Uniji, da bi dosegli zaupanja vredno UI in hkrati preprečili razlike, ki ovirajo prosti pretok, inovacije, uvajanje in uporabo sistemov UI ter z njimi povezanih proizvodov in storitev na notranjem trgu, in sicer z določitvijo enotnih obveznosti za operaterje ter zagotovitvijo enotnega varstva prevladujočih razlogov javnega interesa in pravic oseb na notranjem trgu na podlagi člena 114 Pogodbe o delovanju Evropske unije (PDEU). Kolikor ta uredba vključuje posebna pravila o varstvu posameznikov pri obdelavi osebnih podatkov v zvezi z omejitvami uporabe sistemov UI za biometrično identifikacijo na daljavo za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, uporabe sistemov UI za ocene tveganja fizičnih oseb za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ter uporabe sistemov UI za biometrično kategorizacijo za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, je primerno, da ta uredba, kar zadeva ta posebna pravila, temelji na členu 16 PDEU. Glede na ta posebna pravila in sklicevanje na člen 16 PDEU se je primerno posvetovati z Evropskim odborom za varstvo podatkov.
(4)
AI je rychle se vyvíjející skupina technologií, které se podílejí na široké škále hospodářských, environmentálních a společenských přínosů v celém spektru průmyslových odvětví a sociálních aktivit. Díky zlepšení predikcí, optimalizaci provozu, přidělování zdrojů a personalizaci digitálních řešení dostupných pro jednotlivce a organizace může používání AI poskytnout podnikům klíčové konkurenční výhody a podpořit sociálně a environmentálně prospěšné výsledky, například v oblasti zdravotnictví, zemědělství, bezpečnosti potravin, vzdělávání a odborné přípravy, sdělovacích prostředků, sportu, kultury, správy infrastruktury, energetiky, dopravy a logistiky, veřejných služeb, bezpečnosti, spravedlnosti, účinného využívání zdrojů a energetické účinnosti, monitorování životního prostředí, ochrany a obnovy biologické rozmanitosti a ekosystémů a zmírňování změny klimatu a přizpůsobování se této změně.
(4)
UI je hitro razvijajoča se skupina tehnologij, ki prispeva k številnim gospodarskim, okoljskim in družbenim koristim v celotnem spektru panog in družbenih dejavnosti. Uporaba UI lahko z izboljšanjem napovedi, optimizacijo delovanja in dodeljevanja virov ter po meri prilagojenimi digitalnimi rešitvami, ki so na voljo posameznikom in organizacijam, zagotavlja ključne konkurenčne prednosti za podjetja ter podpira družbeno in okoljsko koristne rezultate, na primer na področju zdravstvenega varstva, kmetijstva, varnosti hrane, izobraževanja in usposabljanja, medijev, športa, kulture, upravljanja infrastrukture, energije, prometa in logistike, javnih storitev, varnosti, pravosodja, učinkovite rabe virov in energije, okoljskega spremljanja, ohranjanja in obnovitve biotske raznovrstnosti in ekosistemov ter blažitve podnebnih sprememb in prilagajanja nanje.
(5)
AI může zároveň v závislosti na okolnostech týkajících se jejího konkrétního uplatňování, používání a úrovně technologického rozvoje vytvářet rizika a působit újmu veřejným zájmům a základním právům, které jsou chráněny právem Unie. Tato újma může být hmotná nebo nehmotná, včetně újmy fyzické, psychické, společenské nebo ekonomické.
(5)
Hkrati lahko UI – odvisno od okoliščin v zvezi z njenim posebnim namenom, uporabo in ravnjo tehnološkega razvoja – povzroča tveganja ter škodi javnim interesom in temeljnim pravicam, ki jih varuje pravo Unije. Ta škoda je lahko premoženjska ali nepremoženjska, vključno s fizično, psihično, družbeno ali ekonomsko škodo.
(6)
Vzhledem k velkému dopadu, který může mít AI na společnost, a jelikož je třeba budovat důvěru, je nezbytné, aby AI i její regulační rámec byly rozvíjeny v souladu s hodnotami Unie zakotvenými v článku 2 Smlouvy o Evropské unii (dále jen „Smlouva o EU“), základními právy a svobodami zakotvenými ve Smlouvách a v souladu s článkem 6 Smlouvy o EU v Listině. Základním předpokladem je, aby byla AI technologií zaměřenou na člověka. Měla by být nástrojem pro lidi, jehož konečným cílem je zvýšit kvalitu života lidí.
(6)
Glede na velik vpliv, ki ga lahko ima UI na družbo, in potrebo po vzpostavitvi zaupanja je bistveno, da se UI in njen regulativni okvir razvijata v skladu z vrednotami Unije iz člena 2 Pogodbe o Evropski uniji (PEU), temeljnimi pravicami in svoboščinami, ki so zapisane v Pogodbah, in, na podlagi člena 6 PEU, v Listini. Osnovni pogoj za UI bi moral biti, da je to tehnologija, osredotočena na človeka. Morala bi biti orodje za ljudi, končni cilj pa bi moral biti povečanje njihove blaginje.
(7)
V zájmu zajištění jednotné a vysoké úrovně ochrany veřejných zájmů, pokud jde o zdraví, bezpečnost a základní práva, by měla být pro vysoce rizikové systémy AI stanovena společná pravidla. Tato pravidla by měla být v souladu s Listinou, nediskriminační a v souladu se závazky Unie v oblasti mezinárodního obchodu. Měla by rovněž zohlednit evropské prohlášení o digitálních právech a zásadách pro digitální dekádu a Etické pokyny pro zajištění důvěryhodnosti UI vydané Expertní skupinou na vysoké úrovni pro umělou inteligenci (AI HLEG).
(7)
Da bi zagotovili dosledno in visoko raven zaščite javnih interesov v zvezi z zdravjem, varnostjo in temeljnimi pravicami, bi bilo treba določiti skupna pravila za visokotvegane sisteme UI. Ta pravila bi morala biti skladna z Listino, nediskriminatorna in v skladu z mednarodnimi trgovinskimi zavezami Unije. Treba bi bilo upoštevati tudi Evropsko deklaracijo o digitalnih pravicah in načelih za digitalno desetletje ter Etične smernice za zaupanja vredno umetno inteligenco strokovne skupine na visoki ravni za umetno inteligenco (AI HLEG).
(8)
Je proto nezbytné zavést právní rámec Unie, kterým se stanoví harmonizovaná pravidla pro AI, s cílem podpořit vývoj, používání a zavádění AI na vnitřním trhu, který by zároveň splňoval vysokou úroveň ochrany veřejných zájmů, jako je například zdraví a bezpečnost a ochrana základních práv, včetně demokracie, právního státu a ochrany životního prostředí, která jsou uznávána a chráněna právem Unie. K dosažení tohoto cíle by měla být stanovena pravidla, která budou regulovat uvádění určitých systémů AI na trh a do provozu, jakož i jejich používání, a tím zajišťovat bezproblémové fungování vnitřního trhu a umožňovat, aby tyto systémy měly prospěch ze zásady volného pohybu zboží a služeb. Uvedená pravidla by měla být jasná a spolehlivá, pokud jde o ochranu základních práv, měla by podporovat nová inovativní řešení a umožňovat evropský ekosystém veřejných a soukromých subjektů vytvářejících systémy AI v souladu s hodnotami Unie, jakož i využívat potenciál digitální transformace ve všech regionech Unie. Stanovením těchto pravidel, jakož i opatření na podporu inovací se zvláštním zaměřením na malé a střední podniky, včetně podniků začínajících, podporuje toto nařízení cíl, kterým je prosazování evropského přístupu k AI zaměřeného na člověka a čelná pozice Unie v celosvětovém kontextu, pokud jde o rozvoj bezpečné, důvěryhodné a etické AI, jak stanovila Evropská rada (5), a zajišťuje ochranu etických zásad, jak výslovně požadoval Evropský parlament (6).
(8)
Da bi spodbujali razvoj, uporabo in uvajanje UI na notranjem trgu, je torej potreben pravni okvir Unije, v katerem bodo določena harmonizirana pravila o umetni inteligenci in bo hkrati zagotovljena visoka raven zaščite javnih interesov, kot so zdravje in varnost ter varstvo temeljnih pravic, vključno z demokracijo, pravno državo in varstvom okolja, kot je priznano in zaščiteno s pravom Unije. Za dosego tega cilja bi bilo treba določiti pravila, s katerimi bo urejeno dajanje nekaterih sistemov UI na trg in v uporabo ter njihova uporaba, s čimer bo zagotovljeno nemoteno delovanje notranjega trga in bo omogočeno, da se v okviru teh sistemov izkoristi načelo prostega pretoka blaga in storitev. Ta pravila bi morala biti jasna in robustna glede varstva temeljnih pravic, morala bi podpirati nove inovativne rešitve in omogočati delovanje evropskega ekosistema javnih in zasebnih akterjev, ki ustvarjajo sisteme UI v skladu z vrednotami Unije, ter uresničevati potencial digitalne preobrazbe v vseh regijah Unije. Z določitvijo teh pravil in ukrepov v podporo inovacijam s posebnim poudarkom na malih in srednjih podjetjih (MSP), vključno s zagonskimi podjetji, ta uredba podpira cilj spodbujanja evropskega na človeka osredotočenega pristopa k umetni inteligenci in vodilnega položaja v svetu pri razvoju varne, zaupanja vredne in etične UI, kot je navedeno v sklepih Evropskega sveta (5), in zagotavlja zaščito etičnih načel v skladu z izrecno zahtevo Evropskega parlamenta (6).
(9)
Harmonizační pravidla Unie použitelná pro uvádění na trh, uvádění do provozu a používání vysoce rizikových systémů AI by měla být stanovena v souladu s nařízením Evropského parlamentu a Rady (ES) č. 765/2008 (7), rozhodnutím Evropského parlamentu a Rady č. 768/2008/ES (8) a nařízením Evropského parlamentu a Rady (EU) 2019/1020 (9) („nový legislativní rámec pro uvádění výrobků na trh“). Harmonizovaná pravidla stanovená v tomto nařízení by se měla vztahovat na všechna odvětví a v souladu s přístupem nového legislativního rámce by jimi nemělo být dotčeno stávající právo Unie, zejména v oblasti ochrany údajů, ochrany spotřebitele, základních práv, zaměstnanosti, ochrany pracovníků a bezpečnosti výrobků, které toto nařízení doplňuje. V důsledku toho zůstávají všechna práva a ochrana, které toto právo Unie stanoví pro spotřebitele a další osoby, na něž mohou mít systémy AI nepříznivý dopad, a to i pokud jde o náhradu možné škody podle směrnice Rady 85/374/EHS (10), nadále nedotčeny a plně použitelné. Kromě toho by tudíž v souvislosti se zaměstnaností a ochranou pracovníků nemělo být tímto nařízením dotčeno právo Unie v oblasti sociální politiky a vnitrostátní pracovní právo, a to v souladu s právem Unie, pokud jde o podmínky zaměstnávání a pracovní podmínky, včetně bezpečnosti a ochrany zdraví při práci a vztahu mezi zaměstnavateli a pracovníky. Tímto nařízením by rovněž neměl být dotčen výkon základních práv uznávaných členskými státy a na úrovni Unie, včetně práva na stávku nebo práva přijmout jiná opatření na základě zvláštních systémů členských států v oblasti pracovněprávních vztahů, jakož i právo sjednávat, uzavírat a vymáhat kolektivní smlouvy nebo vést kolektivní akce v souladu s vnitrostátním právem. Tímto nařízením by neměla být dotčena ustanovení, jejichž účelem je zlepšit pracovní podmínky při práci prostřednictvím platforem, stanovená ve směrnici Evropského parlamentu a Rady o zlepšení pracovních podmínek při práci prostřednictvím platforem. Kromě toho je cílem tohoto nařízení posílit účinnost těchto stávajících práv a ochrany, že stanoví zvláštní požadavky a povinnosti, mimo jiné pokud jde o transparentnost, technickou dokumentaci a vedení záznamů o systémech AI. Povinnosti uložené různým provozovatelům zapojeným do hodnotového řetězce AI podle tohoto nařízení by se navíc měly uplatňovat, aniž by bylo dotčeno vnitrostátní právo v souladu s právem Unie, jehož účinkem je omezení používání určitých systémů AI, pokud toto právo nespadá do oblasti působnosti tohoto nařízení nebo sleduje jiné legitimní cíle veřejného zájmu než ty, které sleduje toto nařízení. Tímto nařízením by například neměly být dotčeny vnitrostátní pracovní právo a právní předpisy na ochranu nezletilých osob, tedy osob mladších 18 let, s ohledem na obecnou připomínku UNCRC č. 25 (2021) o právech dětí v souvislosti s digitálním prostředím, pokud se netýkají konkrétně systémů AI a sledují jiné legitimní cíle veřejného zájmu.
(9)
Harmonizirana pravila, ki se uporabljajo za dajanje visokotveganih sistemov UI na trg ali v uporabo ter za njihovo uporabo, bi bilo treba določiti skladno z Uredbo (ES) št. 765/2008 Evropskega parlamenta in Sveta (7), Sklepom št. 768/2008/ES Evropskega parlamenta in Sveta (8) ter Uredbo (EU) 2019/1020 Evropskega parlamenta in Sveta (9) (v nadaljnjem besedilu: novi zakonodajni okvir). Harmonizirana pravila, določena v tej uredbi, bi bilo treba uporabljati v vseh sektorjih, hkrati pa v skladu z novim zakonodajnim okvirom ne bi smela posegati v veljavno pravo Unije, zlasti pravo o varstvu podatkov, varstvu potrošnikov, temeljnih pravicah, zaposlovanju in varstvu delavcev ter varnosti proizvodov, ki ga ta uredba dopolnjuje. Posledično ostanejo nespremenjeni in se v celoti uporabljajo vse pravice in pravna sredstva, ki jih takšno pravo Unije zagotavlja potrošnikom in drugim osebam, na katere bi lahko sistemi UI negativno vplivali, tudi v zvezi z nadomestilom morebitne škode na podlagi Direktive Sveta 85/374/EGS (10). Poleg tega ta uredba v okviru zaposlovanja in zaščite delavcev ne bi smela vplivati na pravo Unije o socialni politiki in nacionalno delovno pravo, ki je skladno s pravom Unije, v zvezi z zaposlovanjem in delovnimi pogoji, vključno z zdravjem in varnostjo pri delu ter razmerjem med delodajalci in delavci. Tudi ne bi smela vplivati na uveljavljanje temeljnih pravic, ki so priznane v državah članicah in na ravni Unije, vključno s pravico do stavke ali drugih ukrepov, zajetih v specifičnih sistemih odnosov med delodajalci in delojemalci v posameznih državah članicah, ter na pravico do pogajanj, sklepanja in izvrševanja kolektivnih pogodb ali do kolektivnih ukrepov v skladu z nacionalnim pravom. Ta uredba ne bi smela vplivati na določbe za izboljšanje delovnih pogojev pri platformnem delu iz direktive Evropskega parlamenta in Sveta o izboljšanju delovnih pogojev pri platformnem delu. Namen te uredbe je tudi okrepiti učinkovitost takih obstoječih pravic in pravnih sredstev z določitvijo posebnih zahtev in obveznosti, tudi glede preglednosti, tehnične dokumentacije in vodenja evidenc sistemov UI. Poleg tega bi bilo treba obveznosti, naložene različnim operaterjem, vključenim v verigo vrednosti UI na podlagi te uredbe, uporabljati brez poseganja v nacionalno pravo, ki je skladno s pravom Unije in katerega učinek je omejitev uporabe nekaterih sistemov UI, kadar tako pravo ne spada na področje uporabe te uredbe ali je namenjeno uresničevanju legitimnih ciljev v javnem interesu, ki niso cilji iz te uredbe. Ta uredba na primer ne bi smela vplivati na nacionalno delovno pravo in pravo o varstvu mladoletnikov, tj. oseb, mlajših od 18 let, ob upoštevanju Splošne pripombe št. 25 KZNOP (2021) o otrokovih pravicah v zvezi z digitalnim okoljem, če se to pravo ne nanaša posebej na sisteme UI in je namenjeno uresničevanju drugih legitimnih ciljev v javnem interesu.
(10)
Základní právo na ochranu osobních údajů je chráněno zejména nařízeními Evropského parlamentu a Rady (EU) 2016/679 (11) a (EU) 2018/1725 (12) a směrnicí Evropského parlamentu a Rady (EU) 2016/680 (13). Směrnice Evropského parlamentu a Rady 2002/58/ES (14) navíc chrání soukromý život a důvěrný charakter sdělení, mimo jiné stanovením podmínek pro uchovávání jakýchkoli osobních a neosobních údajů v koncových zařízeních a přístup k těmto údajům z takových zařízení. Uvedené právní akty Unie poskytují základ pro udržitelné a odpovědné zpracování údajů, včetně případů, kdy datové soubory zahrnují kombinaci osobních a neosobních údajů. Tímto nařízením není dotčeno uplatňování stávajícího práva Unie upravujícího zpracování osobních údajů, včetně úkolů a pravomocí nezávislých dozorových orgánů příslušných pro sledování dodržování těchto nástrojů. Tímto nařízením nejsou dotčeny povinnosti poskytovatelů systémů AI a zavádějících subjektů v jejich úloze správců nebo zpracovatelů údajů vyplývající z práva Unie nebo vnitrostátního práva o ochraně osobních údajů, pokud návrh, vývoj nebo používání systémů AI zahrnuje zpracování osobních údajů. Je rovněž vhodné vyjasnit, že subjekty údajů nadále požívají všech práv a záruk, které jim tyto právní předpisy Unie přiznávají, včetně práv souvisejících s výhradně automatizovaným individuálním rozhodováním, včetně profilování. Harmonizovaná pravidla pro uvádění na trh, uvádění do provozu a používání systémů AI stanovená v rámci tohoto nařízení by měla usnadnit účinné provádění a umožnit výkon práv subjektů údajů a dalších prostředků ochrany zaručených právními předpisy Unie v oblasti ochrany osobních údajů a dalších základních práv.
(10)
Temeljna pravica do varstva osebnih podatkov je zajamčena zlasti z uredbama (EU) 2016/679 (11) in (EU) 2018/1725 (12) Evropskega parlamenta in Sveta ter Direktivo (EU) 2016/680 Evropskega parlamenta in Sveta (13). Direktiva 2002/58/ES Evropskega parlamenta in Sveta (14) poleg tega varuje zasebno življenje in zaupnost komunikacij, vključno z zagotavljanjem pogojev za shranjevanje osebnih in neosebnih podatkov na terminalski opremi in za dostop do teh podatkov z nje. Navedeni pravni akti Unije so podlaga za vzdržno in odgovorno obdelavo podatkov, tudi kadar nabori podatkov vključujejo kombinacijo osebnih in neosebnih podatkov. Namen te uredbe ni vplivati na uporabo veljavnega prava Unije, ki ureja obdelavo osebnih podatkov, med drugim tudi ne na naloge in pooblastila neodvisnih nadzornih organov, pristojnih za spremljanje skladnosti s temi instrumenti. Uredba tudi ne vpliva na obveznosti ponudnikov in uvajalcev sistemov UI v njihovi vlogi upravljavcev ali obdelovalcev podatkov, ki izhaja iz prava Unije ali nacionalnega prava o varstvu osebnih podatkov, če zasnova, razvoj ali uporaba sistemov UI vključuje obdelavo osebnih podatkov. Prav tako je treba pojasniti, da posamezniki, na katere se nanašajo osebni podatki, še naprej uživajo vse pravice in jamstva, ki jim jih podeljuje tovrstno pravo Unije, tudi pravice, povezane izključno z avtomatiziranim sprejemanjem posameznih odločitev, vključno z oblikovanjem profilov. Harmonizirana pravila za dajanje sistemov UI na trg ali v uporabo ter za njihovo uporabo, ki so določena na podlagi te uredbe, bi morala olajšati učinkovito izvajanje in omogočiti uveljavljanje pravic posameznikov, na katere se nanašajo osebni podatki, in drugih pravnih sredstev, zagotovljenih na podlagi prava Unije o varstvu osebnih podatkov in drugih temeljnih pravic.
(11)
Tímto nařízením by neměla být dotčena ustanovení týkající se odpovědnosti poskytovatelů zprostředkovatelských služeb stanovená v nařízení Evropského parlamentu a Rady (EU) 2022/2065 (15).
(11)
Ta uredba ne bi smela posegati v določbe o odgovornosti ponudnikov posredniških storitev iz Uredbe (EU) 2022/2065 Evropskega parlamenta in Sveta (15).
(12)
Pojem „systém AI“ v tomto nařízení by měl být jasně definován a úzce sladěn s činností mezinárodních organizací zabývajících se AI, aby byla zajištěna právní jistota, aby bylo usnadněno sbližování pravidel na mezinárodní úrovni a široké přijetí a současně aby byla poskytnuta flexibilita umožňující přizpůsobit se rychlému technologickému vývoji v této oblasti. Tato definice by kromě toho měla být založena na klíčových vlastnostech systémů AI, které je odlišují od jednodušších tradičních softwarových systémů nebo programovacích přístupů, a neměla by se vztahovat na systémy, které jsou založeny na pravidlech vymezených výhradně fyzickými osobami k automatickému provádění operací. Jednou z klíčových vlastností systémů AI je jejich schopnost odvozování. Schopností odvozování se rozumí proces získávání výstupů, jako jsou predikce, obsah, doporučení nebo rozhodnutí, které mohou ovlivnit fyzické a virtuální prostředí, a schopnost systémů AI derivovat modely nebo algoritmy, nebo oboje, ze vstupů nebo dat. Mezi techniky, které umožňují odvozování při současném budování systému AI, patří přístupy strojového učení, které se učí z dat, jak dosáhnout určitých cílů, a přístupy založené na logice a poznatcích, které ze zakódovaných poznatků nebo symbolického znázornění odvozují úkol, který má být vyřešen. Schopnost odvozování systému AI přesahuje rámec základního zpracování údajů tím, že umožňuje učení, uvažování nebo modelování. Pojem „strojové“ odkazuje na skutečnost, že systémy AI fungují prostřednictvím strojů. Odkaz na explicitní nebo implicitní cíle zdůrazňuje, že systémy AI mohou fungovat na základě explicitně definovaných cílů nebo cílů implicitních. Cíle systému AI se mohou v konkrétním kontextu lišit od zamýšleného účelu systému AI. Pro účely tohoto nařízení by se prostředím měl rozumět kontext, v němž systémy AI fungují, zatímco výstupy generované systémem AI odrážejí různé funkce vykonávané systémy AI a zahrnují predikci, obsah, doporučení nebo rozhodnutí. Systémy AI jsou navrženy tak, aby fungovaly s různou úrovní samostatnosti, což znamená, že jejich činnost je alespoň do určité míry nezávislá na zapojení člověka a jsou při ní schopny alespoň do určité míry fungovat bez lidského zásahu. Přizpůsobivostí, kterou by systém AI mohl vykazovat po zavedení, se rozumí schopnost samoučení, která umožňuje, aby se systém během používání měnil. Systémy AI lze používat samostatně nebo jako komponent určitého produktu bez ohledu na to, zda je systém do tohoto produktu fyzicky zabudován (vestavěný systém), nebo zda napomáhá funkčnosti tohoto produktu, aniž by do něho byl zabudován (nevestavěný systém).
(12)
Pojem „sistem UI“ v tej uredbi bi moral biti jasno opredeljen in tesno usklajen z delom mednarodnih organizacij, ki se ukvarjajo z UI, da bi zagotovili pravno varnost, olajšali mednarodno zbliževanje in široko sprejemanje ter hkrati zagotovili prožnost, ki bo omogočala prilagajanje hitremu tehnološkemu razvoju na tem področju. Poleg tega bi morala opredelitev temeljiti na ključnih značilnostih sistemov UI, po katerih se razlikuje od enostavnejših tradicionalnih sistemov programske opreme ali programskih pristopov, in ne bi smela vključevati sistemov, ki temeljijo na pravilih, ki jih za samodejno izvajanje operacij opredelijo izključno fizične osebe. Ključna značilnost sistemov UI je njihova sposobnost sklepanja. Ta sposobnost sklepanja se nanaša na proces pridobivanja izhodnih podatkov, kot so napovedi, vsebina, priporočila ali odločitve, ki lahko vplivajo na fizično in virtualno okolje, ter na sposobnost sistemov UI, da izpeljejo modele ali algoritme ali oboje iz vhodnih vrednosti ali podatkov. Tehnike, ki omogočajo sklepanje pri vzpostavljanju sistema UI, vključujejo pristope strojnega učenja, ki se tega, kako doseči določene cilje, učijo iz podatkov, ter pristope, ki temeljijo na logiki in znanju ter izhajajo iz kodiranega znanja ali simbolične predstavitve naloge, ki jo je treba rešiti. Zmogljivost sistema UI za sklepanje presega osnovno obdelavo podatkov z omogočanjem učenja, prihajanja do zaključkov ali modeliranja. Izraz „temelječ na napravah“ se nanaša na dejstvo, da sisteme UI poganjajo stroji. Sklicevanje na eksplicitne ali implicitne cilje poudarja, da lahko sistemi UI delujejo v skladu z eksplicitnimi ali implicitnimi cilji. Cilji sistema UI se lahko v posebnih okoliščinah razlikujejo od predvidenega namena sistema UI. Za namene te uredbe bi bilo treba okolja razumeti kot kontekste, v katerih delujejo sistemi UI, medtem ko izhodni podatki, ki jih ustvari sistem UI, odražajo različne funkcije, ki jih opravljajo sistemi UI, in vključujejo napovedi, vsebine, priporočila ali odločitve. Sistemi UI so zasnovani tako, da delujejo z različnimi stopnjami avtonomije, kar pomeni, da so do neke mere neodvisni od človeškega sodelovanja in zmožni delovati brez človeškega posredovanja. Prilagodljivost, ki bi jo sistem UI lahko pokazal po uvedbi, se nanaša na sposobnosti samoučenja, ki omogočajo, da se sistem med uporabo spremeni. Sistemi UI se lahko uporabljajo samostojno ali kot komponenta določenega proizvoda, ne glede na to, ali je sistem fizično integriran v proizvod (vgrajen) ali služi funkcionalnosti proizvoda, ne da bi bil vanj integriran (nevgrajen).
(13)
Pojem „zavádějící subjekt“ uvedený v tomto nařízení by měl být vykládán jako jakákoli fyzická nebo právnická osoba, včetně veřejného orgánu, agentury nebo jiného subjektu, která v rámci své pravomoci používá systém AI, s výjimkou případů, kdy je tento systém AI používán při osobní neprofesionální činnosti. V závislosti na typu systému AI může používání systému ovlivňovat jiné osoby než zavádějící subjekt.
(13)
Pojem „uvajalec“ iz te uredbe bi bilo treba razlagati kot vsako fizično ali pravno osebo, vključno z javnim organom, agencijo ali drugim telesom, ki uporablja sistem UI pod svojo pristojnostjo, razen kadar se sistem UI uporablja v okviru osebne nepoklicne dejavnosti. Glede na vrsto sistema UI lahko uporaba sistema vpliva na osebe, ki niso uvajalec.
(14)
Pojem „biometrické údaje“ používaný v tomto nařízení by měl být vykládán s ohledem na pojem „biometrické údaje“ vymezený v čl. 4 bodu 14 nařízení (EU) 2016/679, čl. 3 bodu 18 nařízení (EU) 2018/1725 a čl. 3 bodu 13 směrnice (EU) 2016/680. Biometrické údaje mohou umožnit autentizaci, identifikaci či kategorizaci fyzických osob a rozpoznávání jejich emocí.
(14)
Pojem „biometrični podatki“, ki se uporablja v tej uredbi, bi bilo treba razlagati glede na pojem biometričnih podatkov, kot je opredeljen v členu 4, točka 14, Uredbe (EU) 2016/679, členu 3, točka 18, Uredbe (EU) 2018/1725 in členu 3, točka 13, Direktive (EU) 2016/680. Biometrični podatki lahko omogočijo avtentikacijo, identifikacijo ali kategorizacijo fizičnih oseb in prepoznavanje njihovih čustev.
(15)
Pojem „biometrická identifikace“ uvedený v tomto nařízení by měl být vymezen jako automatizované rozpoznání fyzických, fyziologických a behaviorálních lidských rysů, jako jsou obličej, pohyb očí, tvar těla, hlas, řeč, chůze, držení těla, srdeční frekvence, krevní tlak, zápach, stisk kláves, pro účely zjištění totožnosti jednotlivce porovnáním biometrických údajů dané osoby s uloženými biometrickými údaji jednotlivců v referenční databázi, a to bez ohledu na to, zda daný jedinec poskytl svůj souhlas, či nikoli. To nezahrnuje systémy AI určené k biometrickému ověřování, včetně autentizace, jejichž jediným účelem je potvrdit, zda je konkrétní fyzická osoba osobou, za niž se prohlašuje, a potvrdit totožnost fyzické osoby za jediným účelem, kterým je získání přístupu ke službě, odblokování zařízení nebo získání bezpečnostního přístupu k prostorám.
(15)
Pojem „biometrična identifikacija“ iz te uredbe bi bilo treba opredeliti kot avtomatizirano prepoznavanje fizičnih, fizioloških in vedenjskih človeških značilnosti, kot so obraz, gibanje oči, izrazi obraza, oblika telesa, glas, govor, hoja, drža, srčni utrip, krvni tlak, vonj in značilnosti tipkanja, za namene preverjanja identitete posameznika s primerjavo biometričnih podatkov tega posameznika s shranjenimi biometričnimi podatki posameznikov v referenčni podatkovni zbirki ne glede na to, ali je posameznik v to privolil ali ne. To izključuje sisteme UI za biometrično preverjanje, tudi avtentikacijo, katerih edini namen je potrditi, da je določena fizična oseba res ta, za katero se predstavlja, in potrditi identiteto fizične osebe izključno z namenom dostopa do storitve, odklepanja naprave ali varnostnega dostopa do prostorov.
(16)
Pojmem „biometrická kategorizace“ uvedeným v tomto nařízení by se mělo rozumět zařazení fyzických osob do zvláštních kategorií na základě jejich biometrických údajů. Tyto zvláštní kategorie se mohou týkat aspektů, jako je pohlaví, věk, barva vlasů, barva očí, tetování, behaviorální nebo osobnostní rysy, jazyk, náboženské vyznání, příslušnost k národnostní menšině, sexuální nebo politická orientace. To nezahrnuje systémy biometrické kategorizace, které jsou čistě vedlejším prvkem neoddělitelně spjatým s jinou obchodní službou, což znamená, že tento prvek nelze z objektivních technických důvodů použít bez hlavní služby a začlenění tohoto prvku nebo funkce není prostředkem k obcházení použitelnosti pravidel stanovených v tomto nařízení. Takovým vedlejším prvkem by mohly být například filtry kategorizující rysy obličeje nebo těla používané na on-line tržištích, neboť je lze použít pouze ve vztahu k hlavní službě, která spočívá v prodeji výrobku, přičemž spotřebiteli umožní zobrazit si náhled na výrobek na sobě samém a pomůže mu rozhodnout se o nákupu. Filtry používané v rámci služeb online sociálních sítí, které kategorizují rysy obličeje nebo těla tak, aby uživatelé mohli doplňovat nebo upravovat obrázky nebo videa, by rovněž mohly být považovány za vedlejší prvek, neboť takový filtr nelze použít bez hlavní služby sociální sítě spočívající ve sdílení obsahu online.
(16)
Pojem „biometrična kategorizacija“ iz te uredbe bi bilo treba opredeliti kot razvrstitev fizičnih oseb v posebne kategorije na podlagi njihovih biometričnih podatkov. Takšne posebne kategorije se lahko nanašajo na vidike, kot so spol, starost, barva las, barva oči, tetovaže, vedenjske ali osebnostne lastnosti, jezik, vera, pripadnost narodnostni manjšini, spolna ali politična usmerjenost. To ne vključuje sistemov za biometrično kategorizacijo, ki so izključno pomožni element, neločljivo povezan z drugo komercialno storitvijo, kar pomeni, da tega elementa iz objektivnih tehničnih razlogov ni mogoče uporabiti brez glavne storitve, njegova vključitev ali funkcionalnost pa ni sredstvo za izogibanje uporabi pravil iz te uredbe. Na primer, filtri za kategorizacijo obraznih ali telesnih značilnosti, ki se uporabljajo na spletnih tržnicah, bi lahko bili takšen pomožni element, saj se lahko uporabljajo le v zvezi z glavno storitvijo, ki je prodaja izdelka na način, da se potrošniku omogoči, da si ogleda prikaz izdelka sam, in se mu pomaga pri sprejemanju odločitve o nakupu. Filtre, ki se uporabljajo na spletnih storitvah družbenih omrežij in s katerimi se kategorizirajo obrazne funkcije ali funkcije telesa, da lahko uporabniki dodajajo ali spreminjajo slike ali videoposnetke, bi prav tako lahko šteli za pomožno funkcijo, saj takega filtra ni mogoče uporabljati brez glavne storitve, tj. storitev družbenih omrežij, ki vključuje izmenjavo vsebin na spletu.
(17)
Pojem „systém biometrické identifikace na dálku“ uvedený v tomto nařízení by měl být definován funkčně jako systém AI určený k identifikaci fyzických osob, a to obvykle na dálku, bez jejich aktivního zapojení prostřednictvím porovnání biometrických údajů dané osoby s biometrickými údaji obsaženými v referenční databázi, bez ohledu na konkrétní technologii, procesy nebo typy použitých biometrických údajů. Tyto systémy biometrické identifikace na dálku se obvykle používají ke snímání vícero osob nebo jejich chování současně, s cílem významně usnadnit identifikaci osob bez jejich aktivního zapojení. To nezahrnuje systémy AI určené k biometrickému ověřování, včetně autentizace, jejichž jediným účelem je potvrdit, zda je konkrétní fyzická osoba osobou, za niž se prohlašuje, a potvrdit totožnost fyzické osoby za jediným účelem, kterým je získání přístupu ke službě, odblokování zařízení nebo získání bezpečnostního přístupu k prostorám. Uvedené vyloučení je odůvodněno skutečností, že tyto systémy budou mít ve srovnání se systémy biometrické identifikace na dálku, které mohou být použity ke zpracování biometrických údajů velkého počtu osob bez jejich aktivního zapojení, pravděpodobně menší dopad na základní práva fyzických osob. V případě systémů provádějících identifikaci v reálném čase probíhá jak zaznamenání biometrických údajů, tak porovnání a identifikace okamžitě, téměř okamžitě nebo v každém případě bez významného zpoždění. V tomto ohledu by neměl existovat žádný prostor pro obcházení pravidel tohoto nařízení o používání dotčených systémů AI v reálném čase stanovením menších zpoždění. Systémy fungující v reálném čase zahrnují použití materiálu „živě“ nebo jen s malým časovým posunem, jako jsou například videozáznamy generované kamerou nebo jiným zařízením s podobnými funkcemi. Naproti tomu v případě systémů, ve kterých identifikace probíhá „následně,“ dochází k porovnání a identifikaci zachycených údajů až se značným zpožděním. Jedná se o materiály, jako jsou například fotografie nebo videozáznamy generované kamerami s uzavřeným televizním okruhem nebo soukromými zařízeními, které byly vytvořeny před použitím tohoto systému ve vztahu k dotčeným fyzickým osobám.
(17)
Pojem „sistem za biometrično identifikacijo na daljavo“ iz te uredbe bi bilo treba opredeliti funkcionalno kot sistem UI, namenjen identifikaciji fizičnih oseb brez njihovega dejavnega sodelovanja, običajno na daljavo, s primerjavo biometričnih podatkov osebe z biometričnimi podatki iz referenčne podatkovne zbirke, ne glede na uporabljeno tehnologijo, procese ali vrste biometričnih podatkov. Takšni sistemi za biometrično identifikacijo na daljavo se običajno uporabljajo za hkratno zaznavanje več oseb ali njihovega vedenja, da se bistveno olajša identifikacija fizičnih oseb brez njihovega dejavnega sodelovanja. To izključuje sisteme UI za biometrično preverjanje, tudi avtentikacijo, katerih edini namen je potrditi, da je določena fizična oseba res ta, za katero se predstavlja, in potrditi identiteto fizične osebe izključno z namenom dostopa do storitve, odklepanja naprave ali varnostnega dostopa do prostorov. Ta izključitev je utemeljena z dejstvom, da bodo imeli taki sistemi verjetno manjši vpliv na temeljne pravice fizičnih oseb v primerjavi s sistemi za biometrično identifikacijo na daljavo, ki se lahko uporabljajo za obdelavo biometričnih podatkov velikega števila oseb brez njihovega dejavnega sodelovanja. Pri sistemih „v realnem času“ se zajemanje biometričnih podatkov, primerjava in identifikacija izvedejo takoj ali skoraj takoj, v vsakem primeru pa brez večje zamude. V zvezi s tem ne bi smelo biti prostora za izogibanje pravilom te uredbe o uporabi zadevnih sistemov UI „v realnem času“, saj je predvidena možnost manjših zamud. Sistemi „v realnem času“ vključujejo uporabo gradiva „v živo“ ali „skoraj v živo“, kot je videoposnetek, ki ga ustvari kamera ali druga naprava s podobno funkcionalnostjo. Pri „naknadnih“ sistemih so bili biometrični podatki že zajeti, primerjava in identifikacija pa se izvedeta šele po daljšem času. To vključuje gradivo, kot so slike ali videoposnetki, ki jih ustvarjajo kamere CCTV ali zasebne naprave, ki je bilo ustvarjeno pred uporabo sistema v zvezi z zadevnimi fizičnimi osebami.
(18)
Pojem „systém rozpoznávání emocí“ uvedený v tomto nařízení by měl být vymezen jako systém AI pro účely zjišťování nebo odvozování emocí nebo záměrů fyzických osob na základě jejich biometrických údajů. Tento pojem odkazuje na emoce nebo záměry, jako je štěstí, smutek, hněv, překvapení, znechucení, pocit trapnosti, rozrušení, stud, opovržení, spokojenost a pobavenost. Nezahrnuje fyzické stavy, jako je bolest nebo únava, včetně například systémů používaných při zjišťování stavu únavy profesionálních pilotů nebo řidičů za účelem předcházení nehodám. Nezahrnuje ani pouhé zjištění snadno viditelných výrazů, gest nebo pohybů, pokud neslouží k zjišťování nebo odvozování emocí. Uvedenými výrazy mohou být základní výrazy obličeje, jako je mračení se nebo úsměv, nebo gesta, jako je pohyb rukou, paží nebo hlavy, nebo charakteristiky hlasu daného člověka, jako je zvýšený hlas nebo šepot.
(18)
Pojem „sistem za prepoznavanje čustev“ iz te uredbe bi bilo treba opredeliti kot sistem UI za prepoznavanje čustev ali namer ali za sklepanje o čustvih ali namerah fizičnih oseb na podlagi njihovih biometričnih podatkov. Pojem se nanaša na čustva ali namere, kot so sreča, žalost, jeza, presenečenje, ogorčenje, zadrega, navdušenje, osramočenost, zaničevanje, zadovoljstvo in zabavanje. Ne vključuje fizičnih stanj, kot sta bolečina ali utrujenost, na primer vključno s sistemi, ki se uporabljajo za odkrivanje stanja utrujenosti poklicnih pilotov ali voznikov za namene preprečevanja nesreč. To tudi ne vključuje zgolj odkrivanja lahko vidnih izrazov, gest ali gibov, razen če se uporabljajo za prepoznavanje čustev ali sklepanje o njih. Ti izrazi so lahko osnovni obrazni izrazi, kot je namrščenost ali nasmeh, ali geste, kot je premikanje dlani, rok ali glave, ali značilnosti glasu osebe, kot je povzdignjen glas ali šepetanje.
(19)
Pro účely tohoto nařízení by se pod pojmem „veřejně přístupný prostor“ měl rozumět jakýkoli fyzický prostor, který je přístupný neurčenému počtu fyzických osob, bez ohledu na to, zda je daný prostor v soukromém, nebo veřejném vlastnictví, bez ohledu na činnost, pro kterou může být prostor využíván, jako je obchodní činnost, například obchody, restaurace, kavárny; služby, například banky, profesní činnosti, pohostinství; sport, například plavecké bazény, tělocvičny, stadiony; doprava, například zastávky autobusu a metra a železniční nádraží, letiště, dopravní prostředky; zábava, například kina, divadla, muzea, koncertní a konferenční haly nebo volný čas či jiné, například veřejné komunikace a náměstí, parky, lesy, hřiště. Prostor by měl být klasifikován jako veřejně přístupný i v případě, že přístup podléhá bez ohledu na potenciální kapacitu nebo bezpečnostní omezení určitým předem stanoveným podmínkám, které mohou být splněny neurčeným počtem osob, jako je nákup jízdenky nebo přepravního dokladu, předchozí registrace nebo dosažení určitého věku. Prostor by naopak neměl být považován za veřejně přístupný, pokud je přístup omezen na konkrétní a vymezené fyzické osoby buď prostřednictvím práva Unie, nebo vnitrostátního práva přímo souvisejícího s veřejnou ochranou a bezpečností, nebo prostřednictvím jasného projevu vůle osobou, která má v daném prostoru příslušnou pravomoc. Samotná faktická možnost přístupu (jako jsou odemčené dveře nebo otevřená brána v plotu) neznamená, že prostor je veřejně přístupný, existují-li indikace nebo okolnosti naznačující opak, jako jsou značky zakazující nebo omezující přístup. Prostory společností a továren, jakož i kanceláře a pracoviště, do nichž mají mít přístup pouze příslušní zaměstnanci a poskytovatelé služeb, jsou prostory, které nejsou veřejně přístupné. Veřejně přístupné prostory by neměly zahrnovat věznice ani stanoviště hraniční kontroly. Některé další prostory mohou zahrnovat jak veřejně nepřístupné, tak veřejně přístupné prostory, jako je hala soukromé obytné budovy, která je nezbytná pro přístup do lékařské ordinace, anebo letiště. Tento pojem nezahrnuje ani on-line prostory, protože se nejedná o prostory fyzické. To, zda je daný prostor přístupný veřejnosti, by však mělo být určováno případ od případu s ohledem na zvláštnosti dané konkrétní situace.
(19)
Za namene te uredbe bi bilo treba pojem javno dostopnega prostora razumeti kot vsak fizični prostor, ki je dostopen nedoločenemu številu fizičnih oseb, ne glede na to, ali je ta prostor v zasebni ali javni lasti, in ne glede na dejavnost, za katero se ta prostor uporablja, denimo za komercialno, na primer trgovine, restavracije, kavarne; storitveno, na primer banke, poklicne dejavnosti, gostinske ali nastanitvene dejavnosti; športno, na primer bazeni, telovadnice, stadioni; prevozno, na primer avtobusne postaje, postaje podzemne železnice in železniške postaje, letališča, prevozna sredstva; razvedrilno, na primer kinematografi, gledališča, muzeji, koncertne in konferenčne dvorane; prostočasno ali drugo dejavnost, na primer javne ceste in trgi, parki, gozdovi, igrišča. Prostor bi bilo treba tudi razvrstiti kot javno dostopen, če za dostop ne glede na morebitne omejitve zmogljivosti ali varnostne omejitve veljajo nekateri vnaprej določeni pogoji, ki jih lahko izpolni nedoločeno število oseb, kot je nakup vstopnice ali vozovnice, predhodna registracija ali določena starost. Nasprotno pa se prostor ne bi smel šteti za javno dostopnega, če je dostop omejen na določene in opredeljene fizične osebe bodisi na podlagi prava Unije bodisi na podlagi nacionalnega prava, ki se neposredno nanaša na javno varnost ali varovanje, ali če se oseba, ki ima za ta prostor ustrezna pooblastila, glede tega jasno opredeli. Dejanska možnost samega dostopa, kot so odklenjena vrata, odprta vrata v ograji, ne pomeni, da je prostor javno dostopen, če obstajajo znaki ali okoliščine, ki kažejo na nasprotno, kot so znaki, ki prepovedujejo ali omejujejo dostop. Prostori podjetij in tovarn ter pisarne in delovni prostori, do katerih naj bi dostopali samo ustrezni zaposleni in ponudniki storitev, so prostori, ki niso javno dostopni. Javno dostopni prostori ne bi smeli vključevati zaporov ali območij mejne kontrole. Nekateri drugi prostori lahko zajemajo tako javno dostopne kot javno nedostopne prostore, kot je hodnik ali veža zasebne stanovanjske zgradbe, prek katere se dostopa do zdravniške pisarne, ali letališče. Spletni prostori niso zajeti, saj niso fizični prostori. Ali je določen prostor dostopen javnosti ali ne, pa je treba ugotoviti za vsak primer posebej, ob upoštevanju posebnosti posamezne dane situacije.
(20)
Aby bylo možné dosáhnout co největších přínosů systémů AI a zároveň chránit základní práva, zdraví a bezpečnost a umožnit demokratickou kontrolu, měli by poskytovatelé, zavádějící subjekty a dotčené osoby získat v tomto ohledu prostřednictvím gramotnosti v oblasti AI nezbytné povědomí, které jim umožní činit ohledně systémů AI informovaná rozhodnutí. Povědomí o těchto otázkách se může lišit s ohledem na příslušný kontext a může obnášet pochopení správného uplatňování technických prvků během fáze vývoje systému AI, opatření, která mají být uplatňována během jeho používání, vhodné způsoby výkladu výstupů systému AI a v případě dotčených osob poznatky nezbytné k pochopení toho, jak na ně budou mít rozhodnutí přijatá s pomocí AI dopad. V souvislosti s uplatňováním tohoto nařízení by prostřednictvím gramotnosti v oblasti AI měli mít všichni příslušní aktéři v hodnotovém řetězci AI poznatky potřebné k zajištění náležitého dodržování ustanovení tohoto nařízení a jeho řádného prosazování. Kromě toho by široké provádění opatření týkajících se gramotnosti v oblasti AI a zavedení vhodných následných opatření mohlo přispět ke zlepšení pracovních podmínek a v konečném důsledku podpořit konsolidaci a inovaci v oblasti důvěryhodné AI v Unii. Evropská rada pro umělou inteligenci (dále jen „rada“) by měla podpořit Komisi s cílem prosazovat nástroje gramotnosti v oblasti AI, informovanost veřejnosti a pochopení přínosů, rizik, záruk, práv a povinností, jež s používáním systémů AI souvisejí. Ve spolupráci s příslušnými zúčastněnými stranami by Komise a členské státy měly usnadnit vypracování dobrovolných kodexů chování pro zvýšení gramotnosti v oblasti AI, pokud jde o osoby, které se zabývají vývojem, provozem a používáním AI.
(20)
Da bi dosegli največje koristi sistemov UI in hkrati zaščitili temeljne pravice, zdravje in varnost ter omogočili demokratični nadzor, bi morala pismenost na področju UI ponudnikom, uvajalcem in osebam, na katere vpliva sistem UI, omogočiti razumevanje potrebnih pojmov za sprejemanje informiranih odločitev v zvezi s sistemi UI. Ti pojmi se lahko razlikujejo glede na zadevni kontekst in lahko vključujejo razumevanje pravilne uporabe tehničnih elementov v razvojni fazi sistema UI, ukrepe, ki jih je treba uporabiti med njegovo uporabo, ustrezne načine za razlago izhodnih podatkov sistema UI in, v primeru oseb, na katere vpliva sistem UI, znanje, potrebno za razumevanje, kako bodo odločitve, sprejete s pomočjo UI vplivale nanje. V okviru uporabe te uredbe bi morala pismenost na področju UI vsem zadevnim akterjem v verigi vrednosti UI zagotoviti vpoglede, potrebne za zagotovitev ustrezne skladnosti s to uredbo in njenega pravilnega izvrševanja. Poleg tega bi lahko široko izvajanje ukrepov za pismenost na področju UI in uvedba ustreznih nadaljnjih ukrepov prispevala k izboljšanju delovnih pogojev ter nazadnje podprla konsolidacijo in inovacijsko pot zaupanja vredne UI v Uniji. Evropski odbor za umetno inteligenco (v nadaljnjem besedilu: Odbor) bi moral podpirati Komisijo pri spodbujanju orodij za pismenost na področju UI, ozaveščenosti javnosti in razumevanja koristi, tveganj, zaščitnih ukrepov, pravic in obveznosti v zvezi z uporabo sistemov UI. Komisija in države članice bi morale v sodelovanju z ustreznimi deležniki olajšati pripravo prostovoljnih kodeksov ravnanja za izboljšanje pismenosti na področju UI med osebami, ki se ukvarjajo z razvojem, delovanjem in uporabo UI.
(21)
V zájmu zajištění rovných podmínek a účinné ochrany práv a svobod jednotlivců v celé Unii by se pravidla stanovená tímto nařízením měla vztahovat na poskytovatele systémů AI nediskriminačním způsobem bez ohledu na to, zda jsou usazeni v Unii, nebo ve třetí zemi, a na subjekty zavádějící systémy AI usazené v Unii.
(21)
Za zagotovitev enakih konkurenčnih pogojev ter učinkovitega varstva pravic in svoboščin posameznikov po vsej Uniji bi se morala pravila iz te uredbe nediskriminatorno uporabljati za ponudnike sistemov UI, ne glede na to, ali imajo sedež v Uniji ali v tretji državi, in za uvajalce sistemov UI s sedežem v Uniji.
(22)
Určité systémy AI by s ohledem na svou digitální povahu měly spadat do oblasti působnosti tohoto nařízení i tehdy, pokud nejsou uvedeny na trh nebo do provozu v Unii nebo pokud nejsou používány v Unii. Jedná se například o případ, kdy provozovatel usazený v Unii smluvně zadává určité služby provozovateli usazenému ve třetí zemi v souvislosti s činností, kterou má provádět systém AI, jejž by bylo možno kvalifikovat jako vysoce rizikový. Za těchto okolností by systém AI, který provozovatel používá ve třetí zemi, mohl zpracovávat údaje zákonně shromážděné v Unii a přesunuté z Unie a poskytovat zadávajícímu provozovateli v Unii výstup z tohoto systému AI vyplývající z uvedeného zpracování, aniž by byl tento systém AI uveden na trh nebo do provozu v Unii nebo v ní byl používán. Aby se předešlo obcházení tohoto nařízení a aby byla zajištěna účinná ochrana fyzických osob nacházejících se v Unii, mělo by se toto nařízení vztahovat také na poskytovatele a subjekty zavádějící systémy AI, kteří jsou usazeni ve třetí zemi, pokud jsou výstupy vytvořené těmito systémy zamýšleny k používání v Unii. S ohledem na již existující ujednání a na zvláštní potřeby budoucí spolupráce se zahraničními partnery, s nimiž probíhá výměna informací a důkazů, by se však toto nařízení nemělo vztahovat na veřejné orgány třetí země a na mezinárodní organizace, pokud jednají v rámci spolupráce nebo mezinárodních dohod uzavřených na unijní nebo vnitrostátní úrovni za účelem spolupráce v oblasti vymáhání práva a justiční spolupráce s Unií nebo členskými státy, pokud daná třetí země či mezinárodní organizace poskytne přiměřené záruky, pokud jde o ochranu základních práv a svobod fyzických osob. V příslušných případech se může jednat o činnosti subjektů pověřených třetími zeměmi prováděním zvláštních úkolů na podporu této spolupráce v oblasti vymáhání práva a justiční spolupráce. Tyto rámce pro spolupráci či dohody byly uzavřeny dvoustranně mezi členskými státy a třetími zeměmi nebo mezi Evropskou unií, Europolem a dalšími agenturami Unie a třetími zeměmi a mezinárodními organizacemi. Orgány příslušné pro dohled nad donucovacími a justičními orgány podle tohoto nařízení by měly posoudit, zda tyto rámce pro spolupráci nebo mezinárodní dohody obsahují přiměřené záruky, pokud jde o ochranu základních práv a svobod fyzických osob. Přijímající vnitrostátní orgány a orgány, instituce a jiné subjekty Unie, které tyto výstupy v Unii využívají, jsou i nadále odpovědné za zajištění toho, aby jejich používání bylo v souladu s právem Unie. Při revizi těchto mezinárodních dohod nebo při uzavírání nových dohod v budoucnu by smluvní strany měly vyvinout maximální úsilí, aby tyto dohody uvedly do souladu s požadavky tohoto nařízení.
(22)
Zaradi svoje digitalne narave bi morali nekateri sistemi UI spadati na področje uporabe te uredbe, tudi če niso dani na trg ali v uporabo oziroma se ne uporabljajo v Uniji. To velja na primer za operaterja s sedežem v Uniji, ki določene storitve naroča pri operaterju s sedežem v tretji državi v zvezi z dejavnostjo, ki jo bo izvajal sistem UI, ki bi bil opredeljen kot visokotvegani sistem. V teh okoliščinah bi lahko sistem UI, ki ga operater uporablja v tretji državi, obdeloval podatke, ki se zakonito zbirajo v Uniji in prenašajo iz nje, ter naročniku v Uniji zagotovil izhodne podatke navedenega sistema UI, ki izhajajo iz te obdelave, ne da bi bil ta sistem UI dan na trg ali v uporabo oziroma bi se uporabljal v Uniji. Da bi preprečili izogibanje določbam te uredbe in zagotovili učinkovito varstvo fizičnih oseb v Uniji, bi se morala ta uredba uporabljati tudi za ponudnike in uvajalce sistemov UI s sedežem v tretji državi, če so izhodni podatki, ki jih ti sistemi ustvarijo, namenjeni uporabi v Uniji. Kljub temu pa se zaradi upoštevanja obstoječih ureditev in posebnih potreb po prihodnjem sodelovanju s tujimi partnerji, s katerimi se izmenjujejo informacije in dokazi, ta uredba ne bi smela uporabljati za javne organe tretje države in mednarodne organizacije, kadar delujejo v okviru sodelovanja ali mednarodnih sporazumov, sklenjenih na ravni Unije ali nacionalni ravni za sodelovanje na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ter pravosodnega sodelovanja z Unijo ali državami članicami, pod pogojem, da zadevna tretja država ali mednarodne organizacije zagotovijo ustrezne zaščitne ukrepe v zvezi z varstvom temeljnih pravic in svoboščin posameznikov. To lahko po potrebi zajema dejavnosti subjektov, ki so jim tretje države zaupale izvajanje posebnih nalog v podporo takemu sodelovanju na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ter pri pravosodnem sodelovanju. Takšni okviri za sodelovanje ali sporazumi so bili vzpostavljeni dvostransko med državami članicami in tretjimi državami ali med Evropsko unijo, Europolom in drugimi agencijami Unije ter tretjimi državami in mednarodnimi organizacijami. Organi, pristojni za nadzor organov za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj ter pravosodnih organov v skladu s to uredbo, bi morali oceniti, ali navedeni okviri za sodelovanje ali mednarodni sporazumi vključujejo ustrezne zaščitne ukrepe v zvezi z varstvom temeljnih pravic in svoboščin posameznikov. Nacionalni organi prejemniki ter institucije, organi, uradi in agencije Unije, ki uporabljajo take izhodne podatke v Uniji, so še naprej odgovorni za zagotavljanje, da je njihova uporaba skladna s pravom Unije. Ko se ti mednarodni sporazumi revidirajo ali se v prihodnosti sklenejo novi, bi si morale pogodbenice kar najbolj prizadevati za njihovo uskladitev z zahtevami iz te uredbe.
(23)
Toto nařízení by se mělo vztahovat také na orgány, instituce a jiné subjekty Unie, pokud jednají jako poskytovatel systému AI nebo subjekt zavádějící tento systém.
(23)
To uredbo bilo treba uporabljati tudi za institucije, organe, urade in agencije Unije, kadar delujejo kot ponudniki ali uvajalci sistema UI.
(24)
Pokud, a v míře v jaké jsou systémy AI uvedeny na trh nebo do provozu nebo jsou používány se změnami těchto systémů nebo bez nich pro vojenské nebo obranné účely nebo pro účely národní bezpečnosti, měly by být z oblasti působnosti tohoto nařízení vyloučeny bez ohledu na to, jaký typ subjektu tyto činnosti provádí, například zda se jedná o veřejný, nebo soukromý subjekt. Pokud jde o vojenské a obranné účely, je toto vyloučení odůvodněno jak čl. 4 odst. 2 Smlouvy o Evropské unii, tak specifiky obranné politiky členských států a společné obranné politiky Unie, na něž se vztahuje hlava V kapitola 2 Smlouvy o Evropské unii a jež podléhají mezinárodnímu právu veřejnému, což je pak vhodnější právní rámec pro regulaci systémů AI v kontextu použití smrticí síly a jiných systémů AI v souvislosti s vojenskými a obrannými činnostmi. Pokud jde o účely národní bezpečnosti, je vyloučení odůvodněno jak skutečností, že národní bezpečnost zůstává v souladu s čl. 4 odst. 2 Smlouvy o Evropské unii výhradní odpovědností členských států, tak zvláštní povahou a operativními potřebami činností v oblasti národní bezpečnosti a zvláštními vnitrostátními pravidly použitelnými na tyto činnosti. Pokud je však systém AI vyvinutý, uvedený na trh nebo do provozu nebo používaný pro vojenské nebo obranné účely nebo pro účely národní bezpečnosti používán dočasně nebo trvale pro jiné účely, například pro civilní nebo humanitární účely, pro účely vymáhání práva nebo pro účely veřejné bezpečnosti, do oblasti působnosti tohoto nařízení by spadal. V takovém případě by subjekt, který systém AI používá pro jiné než vojenské nebo obranné účely nebo účely národní bezpečnosti, měl zajistit soulad systému AI s tímto nařízením, pokud systém dosud v souladu s tímto nařízením není. Systémy AI uváděné na trh nebo do provozu pro vyloučené účely, tedy vojenské nebo obranné účely nebo účely národní bezpečnosti, a jeden nebo více účelů, které vyloučeny nejsou, jako jsou civilní účely či vymáhání práva, do oblasti působnosti tohoto nařízení spadají a poskytovatelé těchto systémů by měli zajistit soulad s tímto nařízením. V těchto případech by skutečností, že systém AI může spadat do oblasti působnosti tohoto nařízení, neměla být dotčena možnost, aby subjekty provádějící činnosti v oblasti národní bezpečnosti nebo obranné a vojenské činnosti, bez ohledu na typ subjektu, který tyto činnosti provádí, používaly systémy AI pro účely národní bezpečnosti nebo vojenské a obranné účely, jejichž použití je z oblasti působnosti tohoto nařízení vyloučeno. Systém AI uváděný na trh pro civilní účely nebo pro účely vymáhání práva, který se používá se změnami nebo bez nich pro vojenské nebo obranné účely nebo pro účely národní bezpečnosti, by do oblasti působnosti tohoto nařízení spadat neměl, a to bez ohledu na typ subjektu, který tyto činnosti provádí.
(24)
Če in kolikor so sistemi UI s spremembami ali brez njih dani na trg ali v uporabo oziroma se uporabljajo za vojaške ali obrambne namene ali namene nacionalne varnostni, bi morali biti izključeni iz področja uporabe te uredbe ne glede na to, katera vrsta subjekta izvaja te dejavnosti, tj. ali gre za javni ali zasebni subjekt. Kar zadeva vojaške in obrambne namene, je taka izključitev utemeljena tako s členom 4(2) PEU kot tudi s posebnostmi obrambne politike držav članic in skupne obrambne politike Unije iz naslova V, poglavje 2, PEU, za katere velja mednarodno javno pravo, ki je zato ustreznejši pravni okvir za ureditev sistemov UI v kontekstu uporabe smrtonosne sile in drugih sistemov UI v kontekstu vojaških in obrambnih dejavnosti. Kar zadeva namene nacionalne varnosti, izključitev upravičuje tako dejstvo, da nacionalna varnost ostaja v izključni pristojnosti držav članic v skladu s členom 4(2) PEU, kot tudi posebna narava in operativne potrebe dejavnosti nacionalne varnosti ter posebna nacionalna pravila, ki se za te dejavnosti uporabljajo. Če pa se sistem UI, ki je bil razvit, dan na trg ali v uporabo oziroma se uporablja v vojaške ali obrambne namene ali namene nacionalne varnosti, začasno ali stalno uporablja za druge namene (na primer civilne ali humanitarne namene, namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ali namene javne varnosti), bi tak sistem spadal na področje uporabe te uredbe. V tem primeru bi moral subjekt, ki sistem UI uporablja za namene, ki niso vojaški ali obrambni nameni ali nameni nacionalne varnosti, zagotoviti skladnost sistema UI s to uredbo, razen če je sistem že skladen s to uredbo. Sistemi UI, ki so dani na trg ali v uporabo za izključene namene, tj. vojaške, obrambne namene ali namene nacionalne varnosti, in enega ali več neizključenih namenov, kot so civilni nameni ali nameni preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, spadajo na področje uporabe te uredbe, njihovi ponudniki pa bi morali zagotoviti skladnost s to uredbo. V teh primerih dejstvo, da sistem UI lahko spada na področje uporabe te uredbe, ne bi smelo vplivati na možnost subjektov, ki izvajajo nacionalne varnostne, obrambne in vojaške dejavnosti (ne glede na vrsto teh subjektov), da uporabljajo sisteme UI za namene nacionalne varnosti, vojaške in obrambne namene, katerih uporaba je izključena iz področja uporabe te uredbe. Sistem UI, dan na trg za civilne namene ali namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, ki se uporablja s spremembami ali brez njih za vojaške in obrambne namene ali namene nacionalne varnosti, ne bi smel spadati na področje uporabe te uredbe, ne glede na vrsto subjekta, ki izvaja te dejavnosti.
(25)
Toto nařízení by mělo podporovat inovace, respektovat svobodu vědy a nemělo by narušovat činnosti v oblasti výzkumu a vývoje. Je proto nezbytné vyloučit z jeho oblasti působnosti systémy a modely AI, které byly speciálně vyvinuty a uvedeny do provozu výhradně za účelem vědeckého výzkumu a vývoje. Kromě toho je nezbytné zajistit, aby toto nařízení nemělo žádný jiný vliv na činnost v oblasti vědeckého výzkumu a vývoje systémů AI před jejich uvedením na trh nebo do provozu. Pokud jde o činnost v oblasti výzkumu, testování a vývoje zaměřenou na produkty a týkající se systémů nebo modelů AI, ustanovení tohoto nařízení by se rovněž neměla použít před uvedením těchto systémů a modelů do provozu nebo na trh. Tímto vyloučením není dotčena povinnost dodržovat toto nařízení, pokud je systém AI spadající do oblasti působnosti tohoto nařízení uveden na trh nebo do provozu jako výsledek této výzkumné a vývojové činnosti, ani uplatňování ustanovení o regulačních sandboxech pro AI a testování v reálných podmínkách. Aniž je dotčeno vyloučení, pokud jde o systémy AI speciálně vyvinuté a uvedené do provozu výhradně za účelem vědeckého výzkumu a vývoje, měla by se ustanovení tohoto nařízení i nadále vztahovat rovněž na jakýkoli jiný systém AI, který může být použit k provádění jakékoli výzkumné a vývojové činnosti. Za všech okolností by měla být veškerá výzkumná a vývojová činnost prováděna v souladu s uznávanými etickými a profesními normami vědeckého výzkumu a v souladu s platným právem Unie.
(25)
S to uredbo bi bilo treba podpirati inovacije in spoštovati svobodo znanosti ter z njo ne bi smeli ogrožati raziskovalnih in razvojnih dejavnosti. Zato je treba iz njenega področja uporabe izključiti sisteme in modele UI, ki so bili posebej razviti in dani v uporabo izključno za znanstvene raziskave in razvoj. Poleg tega je treba zagotoviti, da ta uredba ne vpliva kako drugače na znanstvene raziskave in razvoj sistemov ali modelov UI, preden se dajo na trg ali v uporabo. Tudi kar zadeva v proizvode usmerjene raziskave, testiranje in razvoj sistemov ali modelov UI, se določbe te uredbe ne bi smele uporabljati pred dajanjem teh sistemov in modelov v uporabo ali na trg. Ta izključitev pa ne posega v obveznost skladnosti s to uredbo, če je sistem UI, ki spada na področje uporabe te uredbe, dan na trg ali v uporabo kot rezultat take raziskovalne in razvojne dejavnosti, ter v uporabo določb o regulativnih peskovnikih za UI in testiranju v realnih razmerah. Poleg tega bi morale brez poseganja v izključitev sistemov UI, ki so posebej razviti in dani v uporabo izključno za namene znanstvenih raziskav in razvoja, za vse druge sisteme UI, ki se lahko uporabljajo za izvajanje kakršnih koli raziskovalnih in razvojnih dejavnosti, še naprej veljati določbe te uredbe. V vsakem primeru bi bilo treba vsakršno raziskovalno in razvojno dejavnost izvajati v skladu s priznanimi etičnimi in strokovnimi standardi za znanstvene raziskave ter v skladu z veljavnim pravom Unije.
(26)
Aby bylo možné zavést přiměřený a účinný soubor závazných pravidel pro systémy AI, měl by být dodržován jasně definovaný přístup založený na posouzení rizik. Tento přístup by měl přizpůsobit typ a obsah těchto pravidel intenzitě a rozsahu rizik, která mohou systémy AI vytvářet. Je proto nezbytné zakázat některé nepřijatelné postupy v oblasti AI a stanovit požadavky na vysoce rizikové systémy AI a povinnosti příslušných provozovatelů, jakož i povinnosti transparentnosti pro určité systémy AI.
(26)
Za uvedbo sorazmernega in učinkovitega sklopa zavezujočih pravil za sisteme UI bi bilo treba upoštevati jasno opredeljen pristop, ki temelji na tveganju. Ta pristop bi moral vrsto in vsebino takih pravil prilagoditi intenzivnosti in obsegu tveganj, ki jih lahko ustvarijo sistemi UI. Zato je treba prepovedati nekatere nesprejemljive prakse UI, določiti zahteve za visokotvegane sisteme UI in obveznosti za zadevne operaterje ter določiti obveznosti glede preglednosti za nekatere sisteme UI.
(27)
Ačkoli přístup založený na posouzení rizik je základem pro přiměřený a účinný soubor závazných pravidel, je důležité připomenout Etické pokyny pro zajištění důvěryhodnosti UI z roku 2019, které vypracovala nezávislá Expertní skupina na vysoké úrovni pro AI jmenovaná Komisí. V těchto pokynech vypracovala uvedená skupina sedm nezávazných etických zásad týkajících se AI, které mají pomoci zajistit, aby byla AI důvěryhodná a vyhovovala požadavkům etiky. Předmětných sedm zásad obsahuje lidský faktor a dohled; technickou spolehlivost a bezpečnost; ochranu soukromí a správu dat; transparentnost; rozmanitost, nediskriminaci a spravedlnost; dobré sociální a environmentální podmínky; odpovědnost. Aniž jsou dotčeny právně závazné požadavky tohoto nařízení a jakékoli jiné použitelné právo předpisů Unie, přispívají uvedené pokyny k navrhování soudržné, důvěryhodné AI zaměřené na člověka v souladu s Listinou a s hodnotami, na nichž je Unie založena. Podle pokynů skupiny AI HLEG lidský faktor a dohled spočívá v tom, že systémy AI jsou vyvíjeny a používány jako nástroj, který slouží lidem, respektuje lidskou důstojnost a osobní autonomii a který funguje způsobem, jenž může být řádně ovládán a kontrolován člověkem. Technická spolehlivost a bezpečnost znamená, že systémy AI jsou vyvíjeny a používány takovým způsobem, jenž zajistí jejich spolehlivost v případě problémů a odolnost vůči pokusům změnit jejich použití nebo výkonnost tak, aby bylo umožněno protiprávní použití třetími stranami, a jímž je minimalizována neúmyslná újma. Ochranou soukromí a správou dat se rozumí, že systémy AI jsou vyvíjeny a používány v souladu s pravidly pro ochranu soukromí a osobních údajů při současném zpracovávání údajů, které splňují vysoké standardy kvality a integrity. Transparentností se rozumí, že systémy AI jsou vyvíjeny a používány tak, aby umožňovaly patřičnou sledovatelnost a vysvětlitelnost, aby lidé byli informováni o tom, že komunikují nebo interagují se systémem AI, a aby zavádějící subjekty byly řádně informovány o schopnostech a omezeních daného systému AI a dotčené osoby o svých právech. Rozmanitostí, zákazem diskriminace a spravedlností se rozumí, že systémy AI jsou vyvíjeny a používány tak, aby zahrnovaly nejrůznější aktéry a podporovaly rovný přístup, genderovou rovnost a kulturní rozmanitost a zároveň bránily diskriminačním dopadům a nespravedlivé zaujatosti, které jsou podle práva Unie a členských států zakázány. Dobrými sociálními a environmentálními podmínkami se rozumí, že systémy AI jsou vyvíjeny a používány udržitelným způsobem šetrným k životnímu prostředí, jakož i ve prospěch všech lidí při současném sledování a posuzování dlouhodobých dopadů na jednotlivce, společnost a demokracii. Uplatňování těchto zásad by se mělo pokud možno promítnout v rámci navrhování a používání modelů AI. V každém případě by měly sloužit jako základ pro vypracování kodexů chování podle tohoto nařízení. Všechny zúčastněné strany, včetně průmyslu, akademické obce, občanské společnosti a normalizačních organizací, se vyzývají, aby uvedené etické zásady ve vhodných případech zohledňovaly při vypracovávání dobrovolných osvědčených postupů a norem.
(27)
Čeprav je pristop, ki temelji na tveganju, podlaga za sorazmeren in učinkovit sklop zavezujočih pravil, je pomembno opozoriti na Etične smernice za zaupanja vredno umetno inteligenco iz leta 2019, ki jih je razvila neodvisna strokovna skupina na visoki ravni za umetno inteligenco (AI HLEG), ki jo je imenovala Komisija. V teh smernicah je AI HLEG razvila sedem nezavezujočih etičnih načel za UI, ki naj bi pomagala zagotoviti, da je UI zaupanja vredna in etično zanesljiva. Teh sedem načel vključuje človeško delovanje in nadzor, tehnično robustnost in varnost, zasebnost in upravljanje podatkov, preglednost, raznolikost, nediskriminacijo in pravičnost ter družbeno in okoljsko blaginjo in odgovornost. Brez poseganja v pravno zavezujoče zahteve te uredbe in katerega koli drugega veljavnega prava Unije te smernice prispevajo k oblikovanju skladne, zaupanja vredne in na človeka osredotočene UI v skladu z Listino in vrednotami, na katerih temelji Unija. V skladu s smernicami AI HLEG človeško delovanje in nadzor pomeni, da se sistemi UI razvijajo in uporabljajo kot orodje, ki služi ljudem, spoštuje človeško dostojanstvo in osebno avtonomijo ter deluje tako, da ga ljudje lahko ustrezno upravljajo in nadzorujejo. Tehnična robustnost in varnost pomeni, da se sistemi UI razvijajo in uporabljajo na način, ki omogoča robustnost v primeru težav in odpornost proti poskusom spremembe uporabe ali učinkovitosti sistema UI, ki bi lahko tretjim osebam omogočila nezakonito uporabo, in čim bolj zmanjša nenamerno škodo. Zasebnost in upravljanje podatkov pomeni, da se sistemi UI razvijajo in uporabljajo v skladu s pravili o zasebnosti in varstvu podatkov, hkrati pa obdelujejo podatke, ki izpolnjujejo visoke standarde v smislu kakovosti in celovitosti. Preglednost pomeni, da se sistemi UI razvijajo in uporabljajo na način, ki omogoča ustrezno sledljivost in razložljivost, obenem pa so ljudje seznanjeni s tem, da komunicirajo ali da so v stiku s sistemom UI, uvajalci so ustrezno obveščeni o zmogljivostih in omejitvah zadevnega sistema UI, osebe, na katere vpliva sistem UI, pa o svojih pravicah. Raznolikost, nediskriminacija in pravičnost pomeni, da se sistemi UI razvijajo in uporabljajo na način, ki vključuje različne akterje in spodbuja enakopraven dostop, enakost spolov in kulturno raznolikost, hkrati pa se preprečujejo diskriminatorni učinki in nepravični predsodki, ki jih pravo Unije ali držav članic prepoveduje. Družbena in okoljska blaginja pomeni, da se sistemi UI razvijajo in uporabljajo na trajnosten in okolju prijazen način ter v korist vseh ljudi, hkrati pa se spremljajo in ocenjujejo dolgoročni vplivi na posameznika, družbo in demokracijo. Ta načela bi bilo treba uporabljati tudi pri zasnovi in uporabi modelov UI, kadar je mogoče. V vsakem primeru bi morala biti podlaga za pripravo kodeksov ravnanja na podlagi te uredbe. Vsi deležniki, vključno z industrijo, akademskimi krogi, civilno družbo in organizacijami za standardizacijo, naj ustrezno upoštevajo etična načela za razvoj prostovoljnih najboljših praks in standardov.
(28)
Přestože využívání AI přináší celou řadu výhod, AI může být i zneužita a stát se zdrojem nových a výkonných nástrojů umožňujících praktiky spočívající v manipulaci, vykořisťování a sociální kontrole. Tyto praktiky jsou mimořádně škodlivé a nekalé a měly by být zakázány, neboť jsou v rozporu s hodnotami Unie, jimiž je úcta k lidské důstojnosti, svoboda, rovnost, demokracie a právní stát, a se základními právy zakotvenými v Listině, včetně práva na zákaz diskriminace, na ochranu údajů a soukromí a práv dítěte.
(28)
Poleg številnih koristnih uporab UI jo je mogoče tudi zlorabiti, tako da bi nastala nova in močna orodja za prakse manipulacije, izkoriščanja in družbenega nadzora. Take prakse so še posebej škodljive in zlonamerne in bi jih bilo treba prepovedati, ker so v nasprotju z vrednotami Unije glede spoštovanja človekovega dostojanstva, svobode, enakosti, demokracije in pravne države ter temeljnimi pravicami, določenimi v Listini, vključno s pravico do nediskriminacije, varstva podatkov in zasebnosti ter pravicami otroka.
(29)
Manipulativní techniky založené na AI lze použít k přesvědčování osob k nežádoucímu chování nebo k jejich klamání tím, že je podněcují k přijímání rozhodnutí tak, že je podkopávána a narušována jejich autonomie, rozhodování a svobodná volba. Uvádění na trh nebo do provozu nebo používání určitých systémů AI s cílem podstatně ovlivnit lidské chování nebo s takovým účinkem, kdy je pravděpodobné, že bude dotčeným osobám způsobena značná újma, zejména pokud jde o dostatečně významné nepříznivé dopady na fyzické či psychické zdraví nebo finanční zájmy, je obzvláště nebezpečné, a proto by mělo být zakázáno. Tyto systémy AI využívají podprahové signály, jako jsou zvukové a obrazové stimuly a videostimuly, které člověk není schopen vnímat, neboť jsou mimo rámec lidského vnímání, nebo jiné manipulativní nebo klamavé techniky, které narušují nebo oslabují autonomii, schopnost rozhodování nebo svobodnou volbu člověka tak, že tento vliv vědomě nezaznamená, nebo pokud si jej uvědomí, přesto se nechá oklamat nebo není schopen tyto techniky ovlivnit nebo jim odolat. To by mohlo být usnadněno například rozhraními stroj–mozek nebo virtuální realitou, neboť umožňují větší kontrolu nad tím, jakým stimulům je jedinec vystaven, pokud mohou tyto stimuly značnou měrou a výrazně škodlivým způsobem narušit jejich chování. Systémy AI mohou kromě toho zneužívat zranitelnost jednotlivců či určité skupiny osob i jiným způsobem, z důvodu jejich věku, zdravotního postižení ve smyslu směrnice Evropského parlamentu a Rady (EU) 2019/882 (16) nebo zvláštní sociální nebo ekonomické situace, v jejímž důsledku mohou být tyto osoby, jako jsou osoby žijící v extrémní chudobě nebo etnické nebo náboženské menšiny, více zranitelné vůči zneužívání. Tyto systémy mohou být uváděny na trh nebo do provozu nebo používány s cílem podstatně ovlivnit chování určitého jednotlivce nebo s takovým účinkem, a to takovým způsobem, že je dotčenému jednotlivci nebo jiné osobě nebo skupinám osob způsobena značná újma nebo lze takovou újmu důvodně předpokládat, přičemž se může jednat i o újmy, které v průběhu času kumulují; proto by měly být tyto systémy zakázány. Může se stát, že úmysl ovlivnit chování není možné předpokládat, pokud je takovéto ovlivnění způsobeno faktory mimo systém AI, které jsou mimo kontrolu poskytovatele nebo zavádějícího subjektu, konkrétně pokud jde o faktory, které nemusí být rozumně předvídatelné, a tudíž je poskytovatel nebo subjekt zavádějící systém AI nemohou zmírnit. V každém případě nemusí mít poskytovatel nebo zavádějící subjekt v úmyslu způsobit značnou újmu, pokud tato újma vyplývá z manipulativních nebo vykořisťujících praktik založených na AI. Zákazy těchto praktik AI se doplňují ustanovení obsažená ve směrnici Evropského parlamentu a Rady 2005/29/ES (17), zejména pokud jde o to, že nekalé obchodní praktiky vedoucí k hospodářské nebo finanční újmě pro spotřebitele jsou zakázány za všech okolností bez ohledu na to, zda jsou zavedeny prostřednictvím systémů AI, nebo jinak. Zákazy manipulativních a vykořisťujících praktik stanovené v tomto nařízení by neměly mít vliv na zákonné postupy v souvislosti s lékařskou péčí, jako je psychologická léčba duševní nemoci nebo tělesná rehabilitace, jsou-li tyto praktiky prováděny v souladu s platným právem a lékařskými normami, například pokud jde o výslovný souhlas osob nebo jejich právních zástupců. Kromě toho by za škodlivé manipulativní praktiky založené na AI neměly být samy o sobě považovány běžné a legitimní obchodní praktiky, například v oblasti reklamy, které jsou v souladu s platným právem.
(29)
Z UI omogočene manipulativne tehnike se lahko uporabljajo za napeljevanje oseb k neželenemu vedenju ali za njihovo zavajanje, tako da se jih spodbuja k odločitvam na način, ki spodkopava in ovira njihovo avtonomijo, odločanje in svobodno izbiro. Dajanje na trg, dajanje v uporabo ali uporaba nekaterih sistemov UI s ciljem ali učinkom bistvenega izkrivljanja človeškega vedenja, pri čemer je verjetno, da bo nastala znatna škoda, zlasti z dovolj pomembnimi škodljivimi učinki na telesno ali duševno zdravje ali finančne interese, je še posebej nevarno oziroma nevarna in bi ga oziroma jo bilo zato treba prepovedati. Takšni sistemi UI uporabljajo subliminalne komponente, kot so zvočni, slikovni ali video dražljaji, ki jih osebe ne morejo zaznati, ker ti dražljaji presegajo človekovo dojemanje, ali druge manipulativne ali zavajajoče tehnike, ki spodkopavajo ali ovirajo posameznikovo avtonomijo, odločanje ali svobodno izbiro na načine, da se ljudje ne zavedajo teh tehnik ali pa, kadar se jih zavedajo, so kljub temu lahko zavedeni ali jih ne morejo nadzorovati ali se jim upreti. To bi bilo na primer mogoče olajšati z vmesniki stroj-možgani ali virtualno resničnostjo, saj omogočajo višjo stopnjo nadzora nad tem, kateri dražljaji so predstavljeni osebam, če lahko bistveno izkrivljajo njihovo vedenje na znatno škodljiv način. Sistemi UI lahko tudi sicer izkoriščajo šibke točke določene osebe ali skupine oseb zaradi njihove starosti, invalidnosti v smislu Direktive (EU) 2019/882 Evropskega parlamenta in Sveta (16) ali posebnih socialnih ali gospodarskih razmer, zaradi katerih so te osebe verjetno bolj izpostavljene izkoriščanju, na primer osebe, ki živijo v skrajni revščini, ter etnične ali verske manjšine. Takšni sistemi UI se lahko dajo na trg ali v uporabo oziroma se uporabljajo s ciljem ali učinkom bistvenega izkrivljanja vedenja osebe, in sicer na način, ki tej ali drugi osebi ali skupinam oseb povzroči znatno škodo, vključno s škodo, ki se lahko sčasoma nakopiči, ali za katerega obstaja razumna verjetnost, da jo bo povzročil, zato bi morali biti prepovedani. Morda ni mogoče domnevati, da obstaja namen izkrivljanja vedenja, kadar je izkrivljanje posledica dejavnikov zunaj sistema UI, na katere ponudnik ali uvajalec ne more vplivati, in sicer dejavnikov, ki jih ni mogoče razumno predvideti in jih zato ponudnik ali uvajalec sistema UI ne more zmanjšati. V vsakem primeru ni potrebno, da ima ponudnik ali uvajalec namen povzročiti znatno škodo, če takšna škoda izhaja iz manipulativnih ali izkoriščevalskih praks, ki jih omogoča UI. Prepovedi takih praks UI dopolnjujejo določbe Direktive 2005/29/ES Evropskega parlamenta in Sveta (17), zlasti v smislu, da so nepoštene poslovne prakse, ki potrošnikom povzročajo gospodarsko ali finančno škodo, prepovedane v vseh okoliščinah, ne glede na to, ali se izvajajo prek sistemov UI ali kako drugače. Prepoved manipulativnih in izkoriščevalskih praks iz te uredbe ne bi smela vplivati na zakonite prakse v okviru zdravljenja, kot je psihološko zdravljenje duševne bolezni ali telesna rehabilitacija, kadar se te prakse izvajajo v skladu z veljavnimi pravnimi medicinskimi standardi in zakonodajo, kot na primer izrecna privolitev posameznikov ali njihovih zakonitih zastopnikov. Poleg tega se običajne in zakonite poslovne prakse, na primer na področju oglaševanja, ki so v skladu z veljavnim pravom, same po sebi ne bi smele šteti za škodljive manipulativne z UI omogočene prakse.
(30)
Měly by být zakázány systémy biometrické kategorizace, které jsou založeny na biometrických údajích fyzických osob, jako je obličej nebo otisky prstů jednotlivců, za účelem odvozování či vyvozování politických názorů jednotlivců, členství v odborových organizacích, náboženského nebo filozofického přesvědčení, rasy, sexuálního života nebo sexuální orientace. Tento zákaz by se neměl vztahovat na zákonné označování, filtrování nebo kategorizaci souborů biometrických údajů získaných v souladu s právem Unie nebo vnitrostátním právem na základě biometrických údajů, jako je třídění zobrazení podle barvy vlasů nebo očí, které lze použít například v oblasti vymáhání práva.
(30)
Prepovedati bi bilo treba sisteme za biometrično kategorizacijo, ki temeljijo na biometričnih podatkih fizičnih oseb, kot so obraz ali prstni odtisi posameznika, za sklepanje ali ugotavljanje o političnem prepričanju posameznika, članstvu v sindikatu, verskem ali filozofskem prepričanju, rasi, spolnem življenju ali spolni usmerjenosti. Ta prepoved ne bi smela zajemati zakonitega označevanja, filtriranja ali kategorizacije naborov biometričnih podatkov, pridobljenih v skladu s pravom Unije ali nacionalnim pravom na podlagi biometričnih podatkov, kot je razvrščanje slik glede na barvo las ali oči, ki se lahko na primer uporabljajo na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj.
(31)
Systémy AI umožňující hodnocení sociálního kreditu fyzických osob ze strany veřejných či soukromých aktérů mohou vést k diskriminačním výsledkům a k vyloučení určitých skupin. Mohou porušovat právo na důstojnost a zákaz diskriminace a hodnoty rovnosti a spravedlnosti. Tyto systémy AI hodnotí nebo klasifikují fyzické osoby nebo skupiny fyzických osob na základě vícedatových bodů týkajících se jejich sociálního chování v různých kontextech nebo známých, odvozených či předvídaných osobních či osobnostních vlastností v průběhu určitého časového období. Sociální kredit získaný na základě těchto systémů AI může vést ke znevýhodňujícímu nebo nepříznivému zacházení s fyzickými osobami nebo s celými skupinami fyzických osob v sociálních kontextech nesouvisejících s kontextem, ve kterém byly dané údaje původně vytvořeny nebo shromážděny, případně ke znevýhodňujícímu zacházení, které je nepřiměřené nebo neodůvodněné s ohledem na závažnost jejich sociálního chování. Systémy AI, které tyto nepřijatelné postupy hodnocení zahrnují a vedou k takovým znevýhodňujícím nebo nepříznivým výsledkům, by proto měly být zakázány. Tímto zákazem by neměly být dotčeny zákonné postupy posuzování fyzických osob prováděné za zvláštním účelem v souladu s unijním či vnitrostátním právem.
(31)
Sistemi UI, ki zagotavljajo družbeno točkovanje fizičnih oseb s strani javnih ali zasebnih akterjev, lahko vodijo do diskriminatornih rezultatov in izključitve nekaterih skupin. Lahko kršijo pravico do dostojanstva in nediskriminacije ter vrednote enakosti in pravičnosti. Takšni sistemi UI ocenjujejo ali razvrščajo fizične osebe ali skupine fizičnih oseb na podlagi več podatkovnih točk, povezanih z njihovim družbenim vedenjem v več kontekstih ali znanih, predpostavljenih ali predvidenih osebnih ali osebnostnih značilnostih v določenih časovnih obdobjih. Število družbenih točk, dodeljenih s strani takih sistemov UI, lahko vodi do škodljivega ali neugodnega obravnavanja fizičnih oseb ali celotnih skupin le-teh v družbenih kontekstih, ki niso povezani s kontekstom, v katerem so bili podatki prvotno ustvarjeni ali zbrani, ali do škodljivega obravnavanja, ki je nesorazmerno ali neupravičeno glede na resnost njihovega družbenega vedenja. Sisteme UI, ki vključujejo take nesprejemljive prakse točkovanja in povzročajo takšne škodljive ali neugodne rezultate, bi bilo zato treba prepovedati. Ta prepoved ne bi smela vplivati na zakonite prakse ocenjevanja fizičnih oseb, ki se izvajajo za poseben namen v skladu s pravom Unije in nacionalnim pravom.
(32)
Využívání systémů AI pro biometrickou identifikaci fyzických osob na dálku „v reálném čase“ ve veřejně přístupných prostorech pro účely vymáhání práva obzvláště zasahuje do práv a svobod dotčených osob, neboť může ovlivnit soukromý život velké části populace, vyvolávat pocit neustálého sledování a nepřímo odrazovat od využívání svobody shromažďování a dalších základních práv. Technické nepřesnosti systémů AI určených pro biometrickou identifikaci fyzických osob na dálku mohou vést ke zkresleným výsledkům a mít diskriminační účinky. Tyto případné zkreslené výsledky a diskriminační účinky jsou obzvláště relevantní, pokud jde o věk, etnickou příslušnost, rasu, pohlaví nebo zdravotní postižení. Bezprostřednost dopadu a omezené možnosti dalších kontrol nebo oprav v souvislosti s používáním těchto systémů fungujících v reálném čase s sebou navíc nesou zvýšené riziko z hlediska práv a svobod osob, kterých se týkají činnosti v oblasti vymáhání práva nebo jsou jimi dotčeny.
(32)
Uporaba sistemov UI za biometrično identifikacijo fizičnih oseb na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj je posebej hudo poseganje v pravice in svoboščine zadevnih oseb, kolikor lahko vpliva na zasebno življenje velikega dela prebivalstva, vzbuja občutek stalnega nadzora ter posredno odvrača od uresničevanja svobode zbiranja in drugih temeljnih pravic. Tehnične netočnosti sistemov UI, namenjenih za biometrično identifikacijo fizičnih oseb na daljavo, lahko vodijo do pristranskih rezultatov in diskriminatornih učinkov. Takšni možni pristranski rezultati in diskriminatorni učinki so zlasti pomembni glede na starost, etnično pripadnost, raso, spol ali invalidnost. Poleg tega se zaradi takojšnjega učinka in omejenih možnosti za nadaljnja preverjanja ali popravke v zvezi z uporabo takih sistemov, ki delujejo v realnem času, povečujejo tveganja za pravice in svoboščine zadevnih oseb v okviru dejavnosti preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ali zaradi vpliva teh dejavnosti nanje.
(33)
Používání těchto systémů pro účely vymáhání práva by proto mělo být zakázáno s výjimkou taxativně vyjmenovaných a úzce definovaných situací, kdy je toto použití nezbytně nutné k dosažení významného veřejného zájmu, jehož význam převažuje nad uvedenými riziky. Tyto situace zahrnují hledání určitých obětí trestných činů, včetně pohřešovaných osob, některé případy ohrožení života nebo fyzické bezpečnosti fyzických osob nebo hrozby teroristického útoku a lokalizaci nebo identifikaci pachatelů nebo osob podezřelých ze spáchání trestných činů uvedených v příloze tohoto nařízení, pokud lze za tyto trestné činy uložit v dotčeném členském státě trest odnětí svobody s horní hranicí v délce nejméně čtyři roky nebo ochranné opatření spojené se zbavením osobní svobody ve stejné délce v souladu s právem tohoto členského státu. Tato hranice pro trest odnětí svobody nebo ochranné opatření spojené se zbavením osobní svobody v souladu s vnitrostátním právem přispívá k zajištění toho, že použití systémů biometrické identifikace na dálku v reálném čase bude možno potenciálně odůvodnit jen dostatečnou závažností daného trestného činu. Kromě toho je seznam trestných činů uvedený v příloze tohoto nařízení založen na seznamu 32 trestných činů uvedených v rámcovém rozhodnutí Rady 2002/584/SVV (18), přičemž je zohledněna skutečnost, že některé z těchto trestných činů budou v praxi pravděpodobně relevantnější než jiné v tom smyslu, že nezbytnost a přiměřenost využívání biometrické identifikace na dálku v reálném čase může být pravděpodobně velmi různorodá jak z hlediska praktické snahy o lokalizaci či identifikaci pachatelů jednotlivých trestných činů uvedených na seznamu nebo osob podezřelých z jejich spáchání, tak s ohledem na pravděpodobné rozdíly v závažnosti, pravděpodobnosti a rozsahu způsobené újmy nebo možných negativních důsledků. Bezprostřední ohrožení života nebo fyzické bezpečnosti fyzických osob by mohlo být rovněž důsledkem vážného narušení kritické infrastruktury ve smyslu čl. 2 bodu 4 směrnice Evropského parlamentu a Rady (EU) 2022/2557 (19), pokud by narušení nebo zničení této kritické infrastruktury vedlo k bezprostřednímu ohrožení života nebo fyzické bezpečnosti určité osoby, a to i v důsledku vážného narušení poskytování základních dodávek obyvatelstvu nebo výkonu základních funkcí státu. Kromě toho by toto nařízení mělo zachovat schopnost donucovacích orgánů, orgánů odpovědných za ochranu hranic, imigračních nebo azylových orgánů provádět kontroly totožnosti za přítomnosti dotčené osoby v souladu s podmínkami stanovenými pro tyto kontroly v právu Unie a vnitrostátním právu. Donucovací orgány, orgány odpovědné za ochranu hranic, imigrační nebo azylové orgány by zejména měly mít možnost používat informační systémy v souladu s právem Unie nebo vnitrostátním právem k identifikaci osob, které během kontroly totožnosti buď odmítnou být identifikovány, nebo nejsou schopny uvést či prokázat svou totožnost, aniž by tyto orgány byly podle tohoto nařízení povinny získat předchozí povolení. Může se jednat například o osobu zapojenou do trestného činu, která není ochotna nebo z důvodu nehody nebo zdravotního stavu schopna sdělit svou totožnost donucovacím orgánům.
(33)
Zato bi bilo treba prepovedati uporabo teh sistemov za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, razen v izrecno naštetih in ozko opredeljenih primerih, ko je uporaba nujno potrebna za dosego pomembnega javnega interesa, katerega pomen prevlada nad tveganji. Gre na primer za iskanje nekaterih žrtev kaznivih dejanj, vključno s pogrešanimi osebami, nekatere nevarnosti za življenje ali fizično varnost oseb ali varnost pred terorističnim napadom ter lokalizacijo ali identifikacijo storilcev ali osumljencev kaznivih dejanj, navedenih v prilogi k tej uredbi, kadar je za ta kazniva dejanja v zadevni državi članici predpisana zgornja meja zaporne kazni ali ukrepa, vezanega na odvzem prostosti, najmanj štiri leta in so v pravu te države članice opredeljena. Tak prag za zaporno kazen ali ukrep, vezan na odvzem prostosti, v skladu z nacionalnim pravom prispeva k zagotavljanju, da je kaznivo dejanje dovolj hudo, da bi lahko upravičilo uporabo sistemov za biometrično identifikacijo na daljavo v realnem času. Poleg tega seznam kaznivih dejanj iz priloge k tej uredbi temelji na 32 kaznivih dejanjih, naštetih v Okvirnem sklepu Sveta 2002/584/PNZ (18), ob upoštevanju, da so nekatera od teh kaznivih dejanj v praksi verjetno pomembnejša od drugih, saj bi bila lahko uporaba biometrične identifikacije na daljavo v realnem času predvidoma potrebna in sorazmerna v zelo različnem obsegu za praktično izvajanje lokalizacije ali identifikacije storilca ali osumljenca različnih navedenih kaznivih dejanj ter ob upoštevanju verjetnih razlik v resnosti, verjetnosti in obsegu škode ali morebitnih negativnih posledic. Neposredna grožnja za življenje ali fizično varnost fizičnih oseb bi tudi lahko bila posledica resne motnje v kritični infrastrukturi, kot je opredeljena v členu 2, točka 4, Direktive (EU) 2022/2557 Evropskega parlamenta in Sveta (19), kadar bi okvara ali uničenje take kritične infrastrukture povzročilo neposredno grožnjo za življenje ali fizično varnost osebe, med drugim tako, da bi močno škodilo zagotavljanju osnovne oskrbe prebivalstvu ali izvajanju temeljne funkcije države. Poleg tega bi morala ta uredba organom za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, organom mejne kontrole, organom, pristojnim za priseljevanje, ali azilnim organom še naprej omogočati izvajanje ugotavljanja identitete v prisotnosti zadevne osebe v skladu s pogoji, ki so za tako ugotavljanje določeni v pravu Unije in nacionalnem pravu. Predvsem bi morali imeti organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, organi mejne kontrole, organi, pristojni za priseljevanje, ali azilni organi možnost, da za identifikacijo oseb, ki med ugotavljanjem identitete tako ugotavljanje zavrnejo ali ne morejo navesti ali dokazati svoje identitete, uporabijo informacijske sisteme v skladu s pravom Unije ali nacionalnim pravom, ne da bi morali v skladu s to uredbo pridobiti predhodno dovoljenje. To bi bila lahko na primer oseba, vpletena v kaznivo dejanje, ki organom za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj ni pripravljena ali zaradi nesreče ali zdravstvenega stanja ne more razkriti svoje identitete.
(34)
Aby bylo zajištěno odpovědné a přiměřené používání těchto systémů, je rovněž důležité stanovit, že v každé z těchto taxativně vyjmenovaných a úzce definovaných situací je třeba zohlednit určité prvky, zejména pokud jde o povahu situace, která vedla k žádosti, o důsledky užití těchto systémů pro práva a svobody všech dotčených osob a o záruky a podmínky zajištěné při tomto použití. Kromě toho by používání systémů biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech pro účely vymáhání práva mělo být nasazeno pouze k potvrzení totožnosti konkrétně cílené fyzické osoby a mělo by být omezeno na to, co je nezbytně nutné, pokud jde o dobu, jakož i zeměpisný a osobní rozsah, zejména s ohledem na důkazy nebo údaje týkající se daných hrozeb, obětí nebo pachatele. Používání systému biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech by mělo být povoleno pouze v případě, že příslušný donucovací orgán dokončil posouzení dopadů na základní práva, a nestanoví-li toto nařízení jinak, zaregistroval systém v databázi podle tohoto nařízení. Pro každý případ použití v každé z výše uvedených situací by mělo být vhodné využití referenční databáze osob.
(34)
Za zagotovitev odgovorne in sorazmerne uporabe teh sistemov je pomembno tudi določiti, da bi bilo treba v vsakem od teh izrecno naštetih in ozko opredeljenih primerov upoštevati nekatere elemente, predvsem glede narave razmer, zaradi katerih je bila zahteva vložena, ter posledic uporabe za pravice in svoboščine vseh zadevnih oseb ter zaščitnih ukrepov in pogojev, predvidenih z uporabo. Poleg tega bi bilo treba uporabo sistemov za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj uporabljati le za potrditev identitete specifično ciljnega posameznika in bi morala biti omejena na to, kar je nujno potrebno za časovno obdobje ter geografsko in osebno področje uporabe, pri čemer je treba upoštevati zlasti dokaze ali znake v zvezi z grožnjami, žrtvami ali storilcem. Uporaba sistema za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih se dovoli le, če je ustrezni organ za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj opravil oceno učinka na temeljne pravice in, če v tej uredbi ni določeno drugače, sistem registriral v podatkovni zbirki, kot je določeno v tej uredbi. Referenčna podatkovna zbirka o osebah bi morala biti primerna za vsak primer uporabe v vsakem od navedenih primerov.
(35)
Každé použití systému biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech pro účely vymáhání práva by mělo podléhat výslovnému a konkrétnímu povolení justičního orgánu nebo nezávislého správního orgánu členského státu, jehož rozhodnutí je závazné. Toto povolení by mělo být v zásadě získáno před použitím systému AI za účelem identifikace určité osoby nebo osob. Výjimky z tohoto pravidla by měly být povoleny v řádně odůvodněných situacích z důvodu naléhavosti, tedy v situacích, kdy je potřeba použít dotčené systémy tak naléhavá, že je fakticky a objektivně nemožné získat povolení před zahájením tohoto použití. V těchto naléhavých situacích by použití systému AI mělo být omezeno na absolutně nezbytné minimum a mělo by podléhat příslušným zárukám a podmínkám, které stanoví vnitrostátní právo a které konkrétně určuje v souvislosti s každým jednotlivým případem naléhavého použití samotný donucovací orgán. Kromě toho by měl donucovací orgán v uvedených situacích o toto povolení požádat a uvést důvody, proč o ně nemohl požádat dříve, bez zbytečného odkladu, nejpozději však do 24 hodin. Je-li takové povolení zamítnuto, mělo by být použití systémů biometrické identifikace v reálném čase spojené s tímto povolením zastaveno s okamžitým účinkem a veškeré údaje související s tímto použitím by měly být vyřazeny a vymazány. Uvedené údaje zahrnují vstupní údaje přímo získané systémem AI v průběhu jeho používání, jakož i výsledky a výstupy použití spojeného s tímto povolením. Neměly by zahrnovat vstupy, které jsou zákonně získány v souladu s jiným unijním nebo vnitrostátním právem. Výlučně na základě výstupu systému biometrické identifikace na dálku by každopádně nemělo být přijato žádné rozhodnutí, které má pro určitou osobu nepříznivé právní účinky.
(35)
Za vsako uporabo sistema za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj bi bilo treba pridobiti izrecno in posebno dovoljenje sodnega organa ali neodvisnega upravnega organa države članice, katerega odločitev je zavezujoča. Tako dovoljenje bi bilo treba načeloma pridobiti pred uporabo sistema UI za identifikacijo osebe ali oseb. Izjeme od tega pravila bi morale biti dovoljene v ustrezno utemeljenih nujnih primerih iz nujnih razlogov, tj. v primerih, ko je uporaba zadevnih sistemov potrebna do te mere, da je dejansko in objektivno nemogoče pridobiti dovoljenje pred začetkom uporabe sistema UI. V takih nujnih primerih bi bilo treba uporabo sistema UI omejiti na absolutni minimum, zanjo pa bi morali veljati ustrezni zaščitni ukrepi in pogoji, kot jih določa nacionalno pravo ter kot jih v okviru vsakega posameznega primera nujne uporabe določi organ za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj. Poleg tega bi moral organ za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj v takšnih primerih zaprositi za tako dovoljenje, hkrati pa navesti razloge, zakaj ga ni mogel zahtevati prej, brez nepotrebnega odlašanja in najpozneje v 24 urah. Če se tako dovoljenje zavrne, bi bilo treba takoj prenehati uporabljati sisteme za biometrično identifikacijo v realnem času, povezane s tem dovoljenjem, vse podatke, povezane s tako uporabo, pa bi bilo treba zavreči in izbrisati. Takšni podatki vključujejo vhodne podatke, ki jih sistem UI pridobi neposredno med uporabo takega sistema, ter rezultate in izhodne podatke uporabe, povezane s tem dovoljenjem. Ne bi smeli vključevati vhodnih podatkov, ki so zakonito pridobljeni v skladu z drugim pravom Unije ali nacionalnim pravom. V nobenem primeru odločitve, ki bi imela škodljiv pravni učinek na osebo, ne bi smeli sprejeti izključno na podlagi izhodnih podatkov sistema za biometrično identifikacijo na daljavo.
(36)
Aby mohl plnit své úkoly v souladu s požadavky stanovenými v tomto nařízení a ve vnitrostátních předpisech, měl by být příslušný orgán dozoru nad trhem a vnitrostátní orgán pro ochranu osobních údajů o každém použití systému biometrické identifikace v reálném čase informován. Orgány dozoru nad trhem a vnitrostátní orgány pro ochranu osobních údajů, které byly o tomto použití informovány, by měly k používání systémů biometrické identifikace v reálném čase předložit Komisi výroční zprávu.
(36)
Da bi lahko ustrezni organ za nadzor trga in nacionalni organ za varstvo podatkov izvajala svoje naloge v skladu z zahtevami iz te uredbe in nacionalnih pravil, bi ju bilo treba obvestiti o vsaki uporabi sistema za biometrično identifikacijo v realnem času. Organi za nadzor trga in nacionalni organi za varstvo podatkov, ki so bili obveščeni, bi morali Komisiji predložiti letno poročilo o uporabi sistemov za biometrično identifikacijo v realnem času.
(37)
Dále je vhodné v rámci taxativně vymezeném tímto nařízením stanovit, že toto použití na území členského státu v souladu s tímto nařízením by mělo být možné pouze v případě, že se dotčený členský stát rozhodl výslovně stanovit možnost povolit toto použití v podrobných pravidlech svého vnitrostátního práva, a v míře stanovené tamtéž. V důsledku toho se členské státy mohou podle tohoto nařízení i nadále dle vlastního uvážení rozhodnout, že tuto možnost vůbec nestanoví, případně že ji stanoví pouze ve vztahu k některým cílům, které mohou povolené použití určené v tomto nařízení odůvodnit. Tato vnitrostátní pravidla by měla být oznámena Komisi do 30 dnů od přijetí.
(37)
Poleg tega je v izčrpnem okviru, določenem s to uredbo, primerno določiti, da bi morala biti taka uporaba na ozemlju države članice v skladu s to uredbo mogoča le, kadar in kolikor se je zadevna država članica odločila izrecno predvideti možnost odobritve take uporabe v svojih podrobnih pravilih nacionalnega prava. Zato imajo države članice na podlagi te uredbe še naprej pravico, da take možnosti sploh ne predvidijo ali da jo predvidijo le za nekatere cilje, ki lahko upravičijo dovoljeno uporabo, opredeljeno v tej uredbi. O takih nacionalnih predpisih bi bilo treba uradno obvestiti Komisijo v 30 dneh po njihovem sprejetju.
(38)
Používání systémů AI pro biometrickou identifikaci fyzických osob na dálku v reálném čase ve veřejně přístupných prostorech pro účely vymáhání práva nutně zahrnuje i zpracování biometrických údajů. Pravidla tohoto nařízení, která toto použití až na určité výjimky zakazují a která jsou založena na článku 16 Smlouvy o fungování Evropské unie, by se měla použít jako lex specialis, pokud jde o pravidla zpracování biometrických údajů uvedená v článku 10 směrnice (EU) 2016/680, což by toto použití a zpracování dotčených biometrických údajů vyčerpávajícím způsobem upravovalo. Toto použití a zpracování by proto mělo být možné jen v případě, že je slučitelné s rámcem stanoveným tímto nařízením, a mimo tento rámec by neměl existovat prostor pro to, aby příslušné orgány, pokud jednají za účelem vymáhání práva, tyto systémy používaly a zpracovávaly v souvislosti s nimi uvedené údaje z důvodů uvedených v článku 10 směrnice (EU) 2016/680. V této souvislosti není cílem tohoto nařízení poskytnout právní základ pro zpracování osobních údajů podle článku 8 směrnice (EU) 2016/680. Na používání systémů biometrické identifikace na dálku v reálném čase na veřejně přístupných prostorech pro jiné účely než vymáhání práva, a to i příslušnými orgány, by se však zvláštní rámec stanovený tímto nařízením pro používání uvedených systémů pro účely vymáhání práva vztahovat neměl. Toto použití pro jiné účely než vymáhání práva by proto nemělo podléhat požadavku na povolení podle tohoto nařízení a použitelným podrobným pravidlům vnitrostátního práva, která mohou toto povolení uvést v účinnost.
(38)
Uporaba sistemov UI za biometrično identifikacijo fizičnih oseb na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj nujno vključuje obdelavo biometričnih podatkov. Pravila te uredbe, ki ob upoštevanju nekaterih izjem prepovedujejo tako uporabo, ki temelji na členu 16 PDEU, bi se morala uporabljati kot lex specialis v zvezi s pravili o obdelavi biometričnih podatkov iz člena 10 Direktive (EU) 2016/680, tako da bi izčrpno urejala tako uporabo in obdelavo zadevnih biometričnih podatkov. Zato bi morali biti taki uporaba in obdelava mogoči le, če sta združljivi z okvirom iz te uredbe, ne da bi zunaj tega okvira obstajalo področje uporabe za pristojne organe, kadar delujejo za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, za uporabo takih sistemov in obdelavo takih podatkov v zvezi z njimi na podlagi razlogov iz člena 10 Direktive (EU) 2016/680. V tem smislu ta uredba ni namenjena zagotavljanju pravne podlage za obdelavo osebnih podatkov na podlagi člena 8 Direktive (EU) 2016/680. Vendar uporaba sistemov za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene, ki niso preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, tudi s strani pristojnih organov, ne bi smela biti zajeta v posebni okvir v zvezi s tako uporabo za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, določene s to uredbo. Za tako uporabo za namene, ki niso preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, zato ne bi smela veljati zahteva po dovoljenju na podlagi te uredbe in veljavnimi podrobnimi pravili nacionalnega prava, na podlagi katerih se lahko to dovoljenje uveljavi.
(39)
Jakékoli zpracování biometrických údajů a dalších osobních údajů související s používáním systémů AI pro účely biometrické identifikace jinak než v souvislosti s používáním systémů biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech pro účely vymáhání práva podle tohoto nařízení by mělo i nadále splňovat všechny požadavky vyplývající z článku 10 směrnice (EU) 2016/680. Pro jiné účely než vymáhání práva zakazují čl. 9 odst. 1 nařízení (EU) 2016/679 a čl. 10 odst. 1 nařízení (EU) 2018/1725 zpracování biometrických údajů s výhradou omezených výjimek stanovených v uvedených článcích Vnitrostátní orgány pro ochranu osobních údajů již při uplatňování čl. 9 odst. 1 nařízení (EU) 2016/679 vydaly rozhodnutí, jejichž předmětem byl zákaz použití biometrické identifikace na dálku pro jiné účely než pro účely vymáhání práva.
(39)
Pri vsaki obdelavi biometričnih podatkov in drugih osebnih podatkov, vključenih v uporabo sistemov UI za biometrično identifikacijo, razen v povezavi z uporabo sistemov za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, kot jo ureja ta uredba, bi morale biti še naprej izpolnjene vse zahteve, ki izhajajo iz člena 10 Direktive (EU) 2016/680. Za namene, ki niso preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, člen 9(1) Uredbe (EU) 2016/679 in člen 10(1) Uredbe (EU) 2018/1725 prepovedujeta obdelavo biometričnih podatkov, za katere veljajo omejene izjeme, kot so določene v navedenih členih. Pri uporabi člena 9(1) Uredbe (EU) 2016/679 za uporabo biometrične identifikacije na daljavo za namene, ki niso preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, že veljajo odločitve o prepovedi s strani nacionalnih organov za varstvo podatkov.
(40)
V souladu s článkem 6a Protokolu č. 21 o postavení Spojeného království a Irska s ohledem na prostor svobody, bezpečnosti a práva, připojeného ke Smlouvě o EU a Smlouvě o fungování EU, není Irsko vázáno pravidly stanovenými v čl. 5 odst. 1 prvním pododstavci písm. g) v rozsahu, v němž se vztahují na používání systémů biometrické kategorizace k činnostem v oblasti policejní spolupráce a justiční spolupráce v trestních věcech, v čl. 5 odst. 1 prvním pododstavci písm. d) v rozsahu, v němž se vztahují na použití systémů AI, na něž se vztahuje uvedené ustanovení, v čl. 5 odst. 1 prvním pododstavci písm. h), v čl. 5 odst.2 až 6 a v čl. 26 odst. 10 tohoto nařízení přijatého na základě článku 16 Smlouvy o fungování EU, která se týkají zpracování osobních údajů členskými státy, vykonávají-li činnosti spadající do oblasti působnosti části třetí hlavy V kapitoly 4 nebo 5 Smlouvy o fungování EU, pokud není Irsko vázáno pravidly upravujícími formy justiční spolupráce v trestních věcech nebo policejní spolupráce, v jejichž rámci musí být dodržována ustanovení stanovená na základě článku 16 Smlouvy o fungování EU.
(40)
V skladu s členom 6a Protokola št. 21 o stališču Združenega kraljestva in Irske v zvezi z območjem svobode, varnosti in pravice, ki je priložen PEU in PDEU, pravila iz člena 5(1), prvi pododstavek, točka (g), kolikor se uporabljajo za uporabo sistemov biometrične kategorizacije za dejavnosti na področju policijskega in pravosodnega sodelovanja v kazenskih zadevah, iz člena 5(1), prvi pododstavek, točka (d), v obsegu, v katerem se uporablja za uporabo sistemov UI, zajetih v navedeni določbi, iz člena 5(1), prvi pododstavek, točka (h), 5(2) do (6) in iz člena 26(10) te uredbe, sprejeta na podlagi člena 16 PDEU, ki se nanašajo na obdelavo osebnih podatkov s strani držav članic, kadar izvajajo dejavnosti, ki spadajo na področje uporabe poglavja 4 ali 5 naslova V tretjega dela PDEU, za Irsko niso zavezujoča, če je ne zavezujejo pravila, ki urejajo oblike pravosodnega sodelovanja v kazenskih zadevah ali policijskega sodelovanja, v okviru katerih je treba upoštevati določbe predpisov, sprejetih na podlagi člena 16 PDEU.
(41)
V souladu s články 2 a 2a Protokolu č. 22 o postavení Dánska, připojeného ke Smlouvě o EU a Smlouvě o fungování EU, nejsou pro Dánsko závazná ani použitelná pravidla stanovená čl. 5 odst. 1 prvním pododstavci písm. g) v rozsahu, v němž se vztahují na používání systémů biometrické kategorizace k činnostem v oblasti policejní spolupráce a justiční spolupráce v trestních věcech, v čl. 5 odst. 1 prvním pododstavci písm. d) v rozsahu, v němž se vztahují na použití systémů AI, na něž se vztahuje uvedené ustanovení, v čl. 5 odst. 1 prvním pododstavci písm. h), v čl. 5 odst.2 až 6 a čl. 26 odst. 10 tohoto nařízení přijatého na základě článku 16 Smlouvy o fungování EU, která se týkají zpracování osobních údajů členskými státy, vykonávají-li činnosti spadající do oblasti působnosti části třetí hlavy V kapitoly 4 nebo 5 Smlouvy o fungování EU.
(41)
V skladu s členoma 2 in 2a Protokola št. 22 o stališču Danske, ki je priložen PEU in PDEU, Danske ne zavezujejo in se zanjo ne uporabljajo pravila iz člena 5(1), prvi pododstavek, točka (g), kolikor se uporabljajo za uporabo sistemov biometrične kategorizacije za dejavnosti na področju policijskega in pravosodnega sodelovanja v kazenskih zadevah, iz člena 5(1), prvi pododstavek, točka (d), v obsegu, v katerem se uporabljata za uporabo sistemov UI, zajetih v navedeni določbi, iz člena 5(1), prvi pododstavek, točka (h), člena 5(2) do (6) in iz člena 26(10) te uredbe, sprejeta na podlagi člena 16 PDEU, ki se nanašajo na obdelavo osebnih podatkov s strani držav članic, kadar izvajajo dejavnosti, ki spadajo na področje uporabe poglavja 4 ali 5 naslova V tretjega dela PDEU.
(42)
V souladu s presumpcí neviny by fyzické osoby v Unii měly být vždy posuzovány podle svého skutečného chování. Fyzické osoby by nikdy neměly být posuzovány na základě chování předvídaného AI pouze na základě jejich profilování, osobnostních rysů nebo charakteristik, jako je státní příslušnost, místo narození, místo bydliště, počet dětí, výše dluhu nebo typ vozidla, aniž by na základě objektivních ověřitelných skutečností existovalo důvodné podezření, že se dotčená osoba podílí na trestné činnosti, a aniž by bylo provedeno posouzení člověkem. Proto by mělo být zakázáno provádět posouzení rizik ve vztahu k fyzickým osobám za účelem posouzení pravděpodobnosti spáchání trestného činu těmito osobami nebo předvídání skutečného nebo potenciálního trestného činu pouze na základě profilování těchto osob nebo posouzení jejich osobnostních rysů a charakteristik. V každém případě se tento zákaz nevztahuje na analýzy rizik, které nejsou založeny na profilování jednotlivců nebo na osobnostních rysech a charakteristikách jednotlivců, jako jsou systémy AI využívající analýzu rizik k posouzení pravděpodobnosti finančních podvodů ze strany podniků na základě podezřelých transakcí nebo nástroje analýzy rizik, které umožňují předvídat pravděpodobnost lokalizace omamných látek nebo nezákonného zboží celními orgány, například na základě známých tras využívaných k obchodování s těmito látkami či zbožím, a tyto analýzy jím nejsou dotčeny.
(42)
V skladu z domnevo nedolžnosti bi bilo treba fizične osebe v Uniji zmeraj presojati glede na njihovo dejansko ravnanje. Nikoli jih ne bi smeli presojati na podlagi ravnanja, ki ga predvideva UI zgolj na podlagi njihovega oblikovanja profilov, osebnostnih lastnosti ali značilnosti, kot so državljanstvo, kraj rojstva, kraj prebivališča, število otrok, stopnja zadolženosti ali vrsta avtomobila, brez utemeljenih razlogov za sum, da je bila ta oseba vpletena v kriminalno dejavnost na podlagi objektivnih preverljivih dejstev in brez človeške ocene. Zato bi bilo treba prepovedati ocene tveganja, ki se izvajajo v zvezi s fizičnimi osebami, da se oceni verjetnost, da bodo te osebe storile kaznivo dejanje, ali da se predvidi dejansko ali potencialno kaznivo dejanje samo na podlagi oblikovanja profilov teh fizičnih oseb ali ocene njihovih osebnostnih lastnosti in značilnosti. V nobenem primeru ta prepoved ne vključuje ali se ne nanaša na analizo tveganja, ki ne temelji na oblikovanju profilov oseb ali na osebnostnih lastnostih in značilnostih posameznikov, kot so sistemi UI, ki uporabljajo analizo tveganja za oceno verjetnosti finančnih goljufij s strani podjetij na podlagi sumljivih transakcij ali orodij za analizo tveganja, ki omogočajo napovedovanje verjetnosti lokalizacije prepovedanih drog ali nezakonitega blaga s strani carinskih organov, na primer na podlagi znanih trgovskih poti.
(43)
Uvádění na trh nebo do provozu pro tento konkrétní účel nebo používání systémů AI, které vytvářejí nebo rozšiřují databáze rozpoznávání obličeje prostřednictvím necíleného získávání zobrazení obličeje z internetu nebo záznamů CCTV, by mělo být zakázáno, protože tato praxe přispívá k pocitu hromadného sledování a může vést k hrubému porušování základních práv, včetně práva na soukromí.
(43)
Treba bi bilo prepovedati dajanje na trg, dajanje v uporabo za ta posebni namen ali uporabo sistemov UI, ki ustvarjajo ali širijo podatkovne zbirke za prepoznavanje obrazov z neciljnim odvzemom podob obraza z interneta ali posnetkov sistema CCTV, saj ta praksa prispeva k občutku množičnega nadzora in lahko povzroči hude kršitve temeljnih pravic, vključno s pravico do zasebnosti.
(44)
Existují vážné obavy ohledně vědeckého základu systémů AI, jejichž cílem je zjišťovat nebo odvozovat emoce, zejména z toho důvodu, že vyjádření emocí se v jednotlivých kulturách a situacích značně liší, a dokonce i u téhož jednotlivce. Mezi hlavní nedostatky těchto systémů patří omezená spolehlivost, nedostatečná specifičnost a omezená možnost zobecňování. Systémy AI, které zjišťují nebo odvozují emoce nebo záměry fyzických osob na základě jejich biometrických údajů, proto mohou vést k diskriminačním výsledkům a mohou zasahovat do práv a svobod dotčených osob. Vzhledem k nerovnováze moci v kontextu práce nebo vzdělávání ve spojení s invazivní povahou těchto systémů by tyto systémy mohly vést ke znevýhodňujícímu nebo nepříznivému zacházení s některými fyzickými osobami nebo celými skupinami fyzických osob. Uvádění na trh, uvádění do provozu nebo používání systémů AI určených k použití za účelem zjišťování emočního stavu jednotlivců v situacích souvisejících s prací a vzděláváním by proto mělo být zakázáno. Tento zákaz by se neměl vztahovat na systémy AI uváděné na trh výhradně z lékařských nebo bezpečnostních důvodů, jako jsou systémy určené k terapeutickému použití.
(44)
Obstajajo resni pomisleki glede znanstvene podlage sistemov UI, katerih namen je prepoznavanje čustev ali sklepanje o njih, zlasti zato, ker se izražanje čustev med kulturami in okoliščinami ter celo pri enem samem posamezniku zelo razlikuje. Med ključnimi pomanjkljivostmi takšnih sistemov so omejena zanesljivost, premajhna specifičnost in omejena možnost posplošitve. Zato lahko sistemi UI, ki prepoznavajo čustva ali namere fizičnih oseb na podlagi svojih biometričnih podatkov ali ki iz njih sklepajo, vodijo do diskriminatornih rezultatov ter posegajo v pravice in svoboščine zadevnih oseb. Glede na neravnovesje moči v kontekstu dela ali izobraževanja ter intruzivne narave teh sistemov bi lahko takšni sistemi povzročili škodljivo ali neugodno obravnavo nekaterih fizičnih oseb ali celotnih skupin fizičnih oseb. Zato bi bilo treba prepovedati dajanje na trg, dajanje v uporabo ali uporabo sistemov UI, namenjenih odkrivanju čustvenega stanja posameznikov v situacijah, povezanih z delovnim mestom in izobraževanjem. Ta prepoved ne bi smela zajemati sistemov UI, danih na trg izključno iz zdravstvenih ali varnostnih razlogov, kot so sistemi za terapevtsko uporabo.
(45)
Tímto nařízením by neměly být dotčeny postupy, které jsou zakázány právem Unie, včetně práva v oblasti ochrany údajů, nediskriminace, ochrany spotřebitele a hospodářské soutěže.
(45)
Ta uredba ne bi smela vplivati na prakse, ki jih prepoveduje pravo Unije, vključno s pravom o varstvu podatkov, pravom o nediskriminaciji, pravom o varstvu potrošnikov in konkurenčnim pravom.
(46)
Vysoce rizikové systémy AI by měly být uváděny na trh Unie, do provozu nebo používány pouze v případě, že splňují určité závazné požadavky. Tyto požadavky by měly zajistit, aby vysoce rizikové systémy AI, které jsou dostupné v Unii nebo jejichž výstupy jsou v Unii jinak využívány, nepředstavovaly nepřijatelné riziko pro důležité veřejné zájmy Unie uznané a chráněné právem Unie. Na základě nového legislativního rámce, jak je objasněno ve sdělení Komise „Modrá příručka“ k provádění pravidel EU pro výrobky (2022) (20), je obecným pravidlem, že na jeden produkt může být použitelný více než jeden právní akt náležející mezi harmonizační právní předpis Unie, jako jsou nařízení Evropského parlamentu a Rady (EU) 2017/745 (21) a 2017/746 (22) nebo směrnice Evropského parlamentu a Rady 2006/42/ES (23), neboť k dodání na trh nebo uvedení do provozu může dojít pouze v případě, že je produkt v souladu se všemi platnými harmonizačními právními předpisy Unie. Aby byla zajištěna soudržnost a zabránilo se zbytečné administrativní zátěži nebo nákladům, poskytovatelé produktu, který obsahuje jeden nebo více vysoce rizikových systémů AI, na něž se vztahují požadavky tohoto nařízení a harmonizačních právních předpisů Unie uvedených v příloze tohoto nařízení, by měli být flexibilní, pokud jde o přijímání provozních rozhodnutí o tom, jak optimálně zajistit soulad produktu obsahujícího jeden nebo více systémů AI se všemi platnými požadavky harmonizačních právních předpisů Unie. Označení systémů AI jako vysoce rizikové by mělo být omezeno na systémy, které mají významný škodlivý dopad na zdraví, bezpečnost a základní práva osob v Unii, a tímto omezením by se mělo minimalizovat jakékoli případné omezení mezinárodního obchodu.
(46)
Visokotvegane sisteme UI bi bilo treba dati na trg Unije ali v uporabo ali jih uporabiti le, če izpolnjujejo nekatere obvezne zahteve. Navedene zahteve bi morale zagotoviti, da visokotvegani sistemi UI, ki so na voljo v Uniji ali katerih izhodni podatki se drugače uporabljajo v Uniji, ne predstavljajo nesprejemljivega tveganja za pomembne javne interese Unije, kot jih priznava in varuje pravo Unije. Kot je pojasnjeno v obvestilu Komisije „Modri vodnik“ o izvajanju pravil EU o proizvodih iz leta 2022 (20), je na podlagi novega zakonodajnega okvira splošno pravilo, da se več kot en pravni akt harmonizacijske zakonodaje Unije, kot sta uredbi (EU) 2017/745 (21) in (EU) 2017/746 (22) Evropskega parlamenta in Sveta ter Direktiva 2006/42/ES Evropskega parlamenta in Sveta (23), lahko uporablja za en proizvod, saj se lahko omogočanje dostopnosti ali dajanje v uporabo izvede le, če je proizvod skladen z vso veljavno harmonizacijsko zakonodajo Unije. Da bi zagotovili doslednost in preprečili nepotrebna upravna bremena ali stroške, bi morali ponudnikom proizvoda, ki vsebuje enega ali več visokotveganih sistemov UI, za katere se uporabljajo zahteve iz te uredbe in harmonizacijske zakonodaje Unije iz priloge k tej uredbi, omogočiti prožnost glede operativnih odločitev o tem, kako na optimalen način zagotoviti skladnost proizvoda, ki vsebuje enega ali več sistemov UI, z vsemi veljavnimi zahtevami harmonizacijske zakonodaje Unije. Sistemi UI, opredeljeni kot visokotvegani, bi morali biti omejeni na tiste, ki imajo znaten škodljiv vpliv na zdravje, varnost in temeljne pravice oseb v Uniji, taka omejitev pa bi morala čim bolj zmanjšati morebitno omejevanje mednarodne trgovine.
(47)
Systémy AI by mohly mít nepříznivý dopad na zdraví a bezpečnost osob, zejména pokud tyto systémy fungují jako bezpečnostní komponenty. V souladu s cíli harmonizačních právních předpisů Unie, které mají usnadnit volný pohyb produktů na vnitřním trhu a zajistit, aby se na trh dostávaly pouze produkty bezpečné a jinak vyhovující, je důležitá náležitá prevence a zmírňování bezpečnostních rizik, která mohou případně vyplývat z produktu jako celku v důsledku jeho digitálních prvků, včetně systémů AI. Například stále autonomnější roboti, ať už v kontextu výroby, nebo osobní asistence a péče, by měli být schopni bezpečně fungovat a vykonávat své funkce ve složitých prostředích. Obdobně ve zdravotnictví, kde jsou život a zdraví vystaveny obzvláště vysokému riziku, by měly být stále sofistikovanější diagnostické systémy a systémy podporující lidská rozhodnutí spolehlivé a přesné.
(47)
Sistemi UI bi lahko imeli škodljiv učinek na zdravje in varnost ljudi, zlasti kadar taki sistemi delujejo kot varnostne komponente proizvodov. V skladu s cilji harmonizacijske zakonodaje Unije, da se olajša prosti pretok proizvodov na notranjem trgu ter zagotovi, da na trg pridejo le varni in skladni proizvodi, je pomembno, da se ustrezno preprečijo in zmanjšajo varnostna tveganja, ki jih lahko povzroči proizvod kot celota zaradi svojih digitalnih komponent, vključno s sistemi UI. Vse bolj avtonomni roboti, ki se uporabljajo v proizvodnji ali za osebno pomoč in oskrbo, bi morali biti na primer sposobni varno delovati in opravljati svoje funkcije v kompleksnih okoljih. Podobno bi morali biti v zdravstvenem sektorju, v katerem je tveganje za življenje in zdravje še posebej veliko, vse bolj izpopolnjeni diagnostični sistemi in sistemi, ki podpirajo človeške odločitve, zanesljivi in točni.
(48)
Pro klasifikaci určitého systému AI jako vysoce rizikového je zvláště relevantní míra nepříznivého dopadu takového systému AI na základní práva chráněná Listinou. Tato práva zahrnují právo na lidskou důstojnost, respektování soukromého a rodinného života, ochranu osobních údajů, svobodu projevu a informací, svobodu shromažďování a sdružování, právo na nediskriminaci, právo na vzdělání, ochranu spotřebitele, práva pracovníků, práva osob se zdravotním postižením, genderovou rovnost, práva duševního vlastnictví, právo na účinnou právní ochranu a spravedlivý proces, právo na obhajobu a presumpci neviny a právo na řádnou správu. Kromě těchto práv je třeba zdůraznit skutečnost, že v článku 24 Listiny a v Úmluvě OSN o právech dítěte jsou zakotvena zvláštní práva dětí, dále rozpracovaná ve vztahu k digitálnímu prostředí v obecné připomínce č. 25 k Úmluvě o právech dítěte, přičemž oba dokumenty vyžadují zohlednění zranitelnosti dětí a poskytnutí takové ochrany a péče, která je nezbytná pro jejich blaho. Při posuzování závažnosti újmy, kterou může systém AI způsobit, a to i ve vztahu ke zdraví a bezpečnosti osob, by mělo být zohledněno také základní právo na vysokou úroveň ochrany životního prostředí zakotvené v Listině a provedené do politik Unie.
(48)
Pri razvrstitvi sistema UI med sisteme visokega tveganja je zlasti pomemben obseg škodljivega vpliva sistema UI na temeljne pravice, varovane z Listino. Te pravice vključujejo pravico do človekovega dostojanstva, spoštovanja zasebnega in družinskega življenja, varstvo osebnih podatkov, svobodo izražanja in obveščanja, svobodo zbiranja in združevanja, pravico do nediskriminacije, pravico do izobraževanja, varstvo potrošnikov, pravice delavcev, pravice invalidov, enakost spolov, pravice intelektualne lastnine, pravico do učinkovitega pravnega sredstva in nepristranskega sodišča, pravico do obrambe in domneve nedolžnosti ter pravico do dobrega upravljanja. Poleg teh pravic je treba poudariti tudi dejstvo, da imajo otroci posebne pravice, zapisane v členu 24 Listine in v Konvenciji Združenih narodov o otrokovih pravicah (v zvezi z digitalnim okoljem ter podrobneje opredeljene v splošni pripombi št. 25 KZNOP), ki zahtevata upoštevanje šibkih točk otrok ter zagotavljanje zaščite in varstva, ki sta potrebna za njihovo dobro počutje. Pri ocenjevanju resnosti škode, ki jo lahko povzroči sistem UI, je treba upoštevati tudi temeljno pravico do visoke ravni varstva okolja, ki je zapisana v Listini in se izvaja v politikah Unije, tudi v zvezi z zdravjem in varnostjo oseb.
(49)
Pokud jde o vysoce rizikové systémy AI, které jsou bezpečnostními komponentami produktů nebo systémů, případně které jsou samy produkty nebo systémy spadajícími do působnosti nařízení Evropského parlamentu a Rady (ES) č. 300/2008 (24), nařízení Evropského parlamentu a Rady (EU) č. 167/2013 (25), nařízení Evropského parlamentu a Rady (EU) č. 168/2013 (26), směrnice Evropského parlamentu a Rady 2014/90/EU (27), směrnice Evropského parlamentu a Rady (EU) 2016/797 (28), nařízení Evropského parlamentu a Rady (EU) 2018/858 (29), nařízení Evropského parlamentu a Rady (EU) 2018/1139 (30) a nařízení Evropského parlamentu a Rady (EU) 2019/2144 (31), je vhodné tyto akty pozměnit s cílem zajistit, aby Komise při přijímání jakýchkoli relevantních aktů v přenesené pravomoci nebo prováděcích aktů na základě výše uvedených aktů zohledňovala povinné požadavky na vysoce rizikové systémy AI stanovené v tomto nařízení na základě technických a regulačních specifik jednotlivých odvětví, aniž by zasahovala do stávajících mechanismů správy, posuzování shody a prosazování ani do orgánů zřízených v rámci uvedených aktů.
(49)
Kar zadeva visokotvegane sisteme UI, ki so varnostne komponente proizvodov ali sistemov ali so sami proizvodi ali sistemi, ki spadajo na področje uporabe Uredbe (ES) št. 300/2008 Evropskega parlamenta in Sveta (24), Uredbe (EU) št. 167/2013 Evropskega parlamenta in Sveta (25), Uredbe (EU) št. 168/2013 Evropskega parlamenta in Sveta (26), Direktive 2014/90/EU Evropskega parlamenta in Sveta (27), Direktive (EU) 2016/797 Evropskega parlamenta in Sveta (28), Uredbe (EU) 2018/858 Evropskega parlamenta in Sveta (29), Uredbe (EU) 2018/1139 Evropskega parlamenta in Sveta (30) ter Uredbe (EU) 2019/2144 Evropskega parlamenta in Sveta (31), je primerno spremeniti navedene akte, da bi zagotovili, da Komisija na podlagi tehničnih in regulativnih posebnosti vsakega sektorja ter brez poseganja v obstoječe mehanizme upravljanja, ugotavljanja skladnosti in izvrševanja ter delo organov, določenih v njih, pri sprejemanju ustreznih delegiranih ali izvedbenih aktov v skladu z navedenimi akti upošteva obvezne zahteve za visokotvegane sisteme UI iz te uredbe.
(50)
Pokud jde o systémy AI, které jsou bezpečnostními komponentami produktů nebo jsou produkty samy o sobě a které spadají do oblasti působnosti některých harmonizačních právních předpisů Unie uvedených v příloze tohoto nařízení, je vhodné je podle tohoto nařízení klasifikovat jako vysoce rizikové, pokud u dotyčného produktu provádí postup posuzování shody subjekt, který činnosti posuzování shody vykonává jakožto třetí strana podle příslušných harmonizačních právních předpisů Unie. Těmito produkty jsou zejména strojní zařízení, hračky, výtahy, zařízení a ochranné systémy určené k použití v prostředí s nebezpečím výbuchu, rádiová zařízení, tlaková zařízení, zařízení pro rekreační plavidla, lanové dráhy, spotřebiče plynných paliv, zdravotnické prostředky a diagnostické zdravotnické prostředky in vitro a automobilový průmysl a letectví.
(50)
Kar zadeva sisteme UI, ki so varnostne komponente proizvodov ali so sami proizvodi s področja uporabe določene harmonizacijske zakonodaje Unije, navedene v prilogi k tej uredbi, jih je primerno na podlagi te uredbe razvrstiti med sisteme visokega tveganja, če je zadevni proizvod v postopku ugotavljanja skladnosti pri organu, ki izvaja ugotavljanje skladnosti s strani tretjih oseb na podlagi ustrezne harmonizacijske zakonodaje Unije. Taki proizvodi so zlasti stroji, igrače, dvigala, oprema in zaščitni sistemi za uporabo v potencialno eksplozivnih atmosferah, radijska oprema, tlačna oprema, oprema za plovila za rekreacijo, žičniške naprave, naprave, v katerih zgoreva plinasto gorivo, medicinski pripomočki in vitro diagnostični medicinski pripomočki, avtomobili in letala.
(51)
Klasifikace určitého systému AI jako vysoce rizikového podle tohoto nařízení by neměla nutně znamenat, že produkt, jehož je daný systém AI bezpečnostní komponentou, případně tento samotný systém AI jako produkt, je považován za vysoce rizikový podle kritérií stanovených v příslušných harmonizačních právních předpisech Unie, které se na tento produkt vztahují. To platí zejména pro nařízení (EU) 2017/745 a (EU) 2017/746, kde je pro produkty se středním a vysokým rizikem vyžadováno posuzování shody subjektem, který vykonává činnosti posuzování shody jakožto třetí strana.
(51)
Razvrstitev sistema UI kot visokotveganega na podlagi te uredbe ne bi smela nujno pomeniti, da se proizvod, katerega varnostna komponenta je sistem UI, ali sam sistem UI kot proizvod šteje za visokotvegan na podlagi meril iz ustrezne harmonizacijske zakonodaje Unije, ki se uporablja za proizvod. To zlasti velja za uredbi (EU) 2017/745 in (EU) 2017/746, pri katerih je ugotavljanje skladnosti, ki ga opravi tretja oseba, zagotovljeno za izdelke srednjega in visokega tveganja.
(52)
Pokud jde o samostatné systémy AI, konkrétně vysoce rizikové systémy AI s výjimkou těch, které představují bezpečnostní komponenty produktů nebo které jsou samy produkty, je vhodné je klasifikovat jako vysoce rizikové, pokud s ohledem na zamýšlený účel představují vysoké riziko újmy na zdraví a bezpečnosti nebo na základních právech osob s přihlédnutím jak k závažnosti možné újmy, tak k pravděpodobnosti, že nastane, a pokud jsou využívány v celé řadě oblastí uvedených v tomto nařízení, které jsou výslovně definovány předem. Identifikace těchto systémů je založena na stejné metodice a kritériích, jaké se předpokládají i u jakýchkoli budoucích změn seznamu vysoce rizikových systémů AI, k jejichž přijímání by měla být Komise zmocněna prostřednictvím aktů v přenesené pravomoci s cílem zohlednit rychlé tempo technologického vývoje, jakož i možné změny v používání systémů AI.
(52)
Kar zadeva samostojne sisteme UI in zlasti visokotvegane sisteme UI, razen tistih, ki so varnostne komponente proizvodov ali ki so sami proizvodi, jih je primerno razvrstiti kot sisteme visokega tveganja, če glede na svoj predvideni namen predstavljajo visoko tveganje škode za zdravje in varnost ali temeljne pravice oseb, ob upoštevanju resnosti možne škode in verjetnosti njenega nastanka, ter se uporabljajo na več posebej vnaprej opredeljenih področjih, določenih v Uredbi. Opredelitev teh sistemov temelji na isti metodologiji in merilih, kot so predvideni tudi za morebitne prihodnje spremembe seznama visokotveganih sistemov UI, za katere bi bilo treba Komisijo pooblastiti, da jih sprejme z delegiranimi akti, da bi upoštevali hiter tehnološki razvoj in morebitne spremembe v uporabi sistemov UI.
(53)
Je rovněž důležité vyjasnit, že mohou existovat zvláštní případy, kdy systémy AI uvedené v předem vymezených oblastech specifikovaných v tomto nařízení nezakládají významné riziko poškození právních zájmů, které jsou v těchto oblastech chráněny, protože nemají podstatný vliv na rozhodování nebo tyto zájmy podstatně nepoškozují. Pro účely tohoto nařízení by se systémem AI, který nemá podstatný vliv na výsledek rozhodování, měl rozumět systém AI, který nemá vliv na podstatu, a tím ani na výsledek rozhodování, ať už jde o lidské, nebo automatizované rozhodování. Systém AI, který podstatně neovlivňuje výsledek rozhodování, by mohl zahrnovat situace, kdy je splněna jedna nebo více z následujících podmínek. Prvním takovou podmínkou by mělo být, že je daný systém AI určen k plnění úzce vymezeného procedurálního úkolu, jako je systém AI, který přeměňuje nestrukturovaná data na data strukturovaná, systém AI, který třídí příchozí dokumenty do kategorií, nebo systém AI, který se používá k odhalování duplicit mezi velkým počtem žádostí. Tyto úkoly jsou natolik úzké a omezené povahy, že představují pouze omezená rizika, která se použitím systému AI v kontextu uvedeném na seznamu v příloze tohoto nařízení jako vysoce rizikové použití nezvyšují. Druhou podmínkou by mělo být, že úkol prováděný daným systémem AI je určen ke zlepšení výsledku dříve dokončené lidské činnosti, která může být relevantní pro účely vysoce rizikového použití uvedeného v seznamu v příloze tohoto nařízení. Vzhledem k těmto vlastnostem přidává takový systém AI pouze další vrstvu k lidské činnosti, a riziko je tudíž nízké. Tato podmínka by se například vztahovala na systémy AI, které mají zdokonalit formulace použité v dříve vypracovaných dokumentech, například z hlediska odborného vyjadřování, akademického stylu nebo přizpůsobení textu určitému sdělení značky. Třetí podmínkou by mělo být, že je daný systém AI určen k odhalování vzorců rozhodování nebo odchylek od předchozích vzorců rozhodování. Riziko by bylo sníženo, protože použití takového systému AI následuje po dříve dokončeném lidském posouzení, které jím nemá být bez řádného lidského přezkumu nahrazeno ani ovlivněno. Mezi takové systémy AI patří například ty, které mohou být při určitém způsobu známkování ze strany učitele použity k následné kontrole, zda se učitel od tohoto způsobu známkování mohl odchýlit, a upozornit tak na možné nesrovnalosti nebo anomálie. Čtvrtou podmínkou by mělo být, že je daný systém AI určen k plnění úkolu, který je pouze přípravou k posouzení relevantnímu pro účely systémů AI uvedených v příloze tohoto nařízení, a možný dopad výstupu systému z hlediska rizika, jež pro následné posouzení představuje, je tudíž velmi nízký. Tato podmínka se vztahuje mimo jiné na inteligentní řešení pro zpracování souborů, která zahrnují různé funkce jako indexování, vyhledávání, zpracování textu a řeči nebo propojení dat s jinými zdroji údajů, nebo systémy AI používané pro překlad výchozích dokumentů. V každém případě by se mělo mít za to, že tyto systémy AI používané v případech vysoce rizikového použití uvedených v příloze tohoto nařízení představují významné riziko poškození zdraví, bezpečnosti nebo základních práv, pokud systém AI zahrnuje profilování ve smyslu čl. 4 bodu. 4 nařízení (EU) 2016/679, čl. 3 bodu 4 směrnice (EU) 2016/680 nebo čl. 3 bodu 5 nařízení 2018/1725. Aby byla zajištěna sledovatelnost a transparentnost, měl by poskytovatel, který se na základě výše uvedených podmínek domnívá, že určitý systém AI vysoce rizikový není, vypracovat dokumentaci o posouzení před uvedením tohoto systému na trh nebo do provozu a měl by tuto dokumentaci na požádání poskytnout příslušným vnitrostátním orgánům. Tento poskytovatel by měl mít povinnost zaregistrovat systém AI v databázi EU zřízené podle tohoto nařízení. Jako další pokyny pro praktické provádění podmínek, podle nichž systémy AI uvedené v příloze tohoto nařízení vysoce rizikové výjimečně nejsou, by Komise měla po konzultaci s radou poskytnout pokyny upřesňující toto praktické provádění doplněné komplexním seznamem praktických příkladů použití vysoce rizikových systémů AI a příkladů použití systémů AI, jež vysoce rizikové nejsou.
(53)
Treba je tudi pojasniti, da lahko obstajajo posebni primeri, v katerih sistemi UI, ki se nanašajo na vnaprej določena področja, navedena v tej uredbi, ne povzročajo znatnega tveganja škode za pravne interese, zaščitene na teh področjih, ker ne vplivajo bistveno na odločanje ali ne škodujejo bistveno tem interesom. Za namene te uredbe bi bilo treba sistem UI, ki ne vpliva bistveno na izid odločanja, razumeti kot sistem UI, ki ne vpliva na vsebino in s tem na rezultat odločanja, bodisi človeškega ali avtomatiziranega. Sistem UI, ki ne vpliva bistveno na izid odločanja, bi lahko vključeval primere, v katerih je izpolnjen eden ali več naslednjih pogojev. Prvi tak pogoj bi moral biti, da je sistem UI namenjen opravljanju ozke postopkovne naloge, kot je sistem UI, ki nestrukturirane podatke pretvori v strukturirane podatke, sistem UI, ki prejete dokumente razvršča v kategorije, ali sistem UI, ki se uporablja za odkrivanje duplikatov v številnih aplikacijah. Te naloge so tako ozke in omejene, da predstavljajo le omejena tveganja, ki se z uporabo sistema UI v okviru, ki je v prilogi k tej uredbi naveden kot uporaba, povezana z visokim tveganjem, ne povečajo. Drugi pogoj bi moral biti, da je namen naloge, ki jo opravlja sistem UI, izboljšati rezultat predhodno zaključene človeške dejavnosti, ki bi lahko bila pomembna za namene visokotvegane uporabe, navedene v prilogi k tej uredbi. Glede na te značilnosti sistem UI zagotavlja le dodatno plast človeške dejavnosti s posledično manjšim tveganjem. Ta pogoj bi se na primer uporabljal za sisteme UI, katerih namen je izboljšati jezik, ki se uporablja v predhodno pripravljenih dokumentih, na primer v zvezi s poklicnim tonom, akademskim slogom jezika ali uskladitvijo besedila s sporočili določene blagovne znamke. Tretji pogoj bi moral biti, da je sistem UI namenjen odkrivanju vzorcev odločanja ali odstopanj od vzorcev predhodnega odločanja. Tveganje bi se zmanjšalo, ker uporaba sistema UI sledi predhodno opravljeni človeški oceni in ni namenjena temu, da bi jo nadomestila ali nanjo vplivala brez ustreznega človeškega pregleda. Takšni sistemi UI vključujejo na primer sisteme, ki se lahko glede na določen vzorec, po katerem neki učitelj ocenjuje, uporabijo za naknadno preverjanje, ali je učitelj morda odstopal od tega vzorca, da bi opozorili na morebitne nedoslednosti ali nepravilnosti. Četrti pogoj bi moral biti, da je sistem UI namenjen opravljanju naloge, ki je le pripravljalna za oceno, relevantno za namene sistemov UI, navedenih v prilogi k tej uredbi, s čimer bi bil morebitni učinek izhodnih podatkov sistema zelo majhen v smislu tveganja, ki ga je treba upoštevati pri oceni. Ta pogoj med drugim zajema pametne rešitve za ravnanje z datotekami, ki vključujejo različne funkcije, kot so indeksiranje, iskanje, obdelava besedil in govora ali povezovanje podatkov z drugimi viri podatkov, ali sisteme UI, ki se uporabljajo za prevajanje prvotnih dokumentov. V vsakem primeru bi bilo treba šteti, da sistemi UI, ki se uporabljajo v primerih uporabe visokega tveganja, navedeni v prilogi k tej uredbi, predstavljajo znatno tveganje škode za zdravje, varnost ali temeljne pravice, če sistem UI vključuje oblikovanje profilov v smislu člena 4, točka 4, Uredbe (EU) 2016/679 ali člena 3, točka 4, Direktive (EU) 2016/680 ali člena 3, točka 5, Uredbe (EU) 2018/1725. Da bi zagotovili sledljivosti in preglednost, bi moral ponudnik, ki meni, da sistem UI na podlagi zgoraj navedenih pogojev ne predstavlja visokega tveganja, pripraviti dokumentacijo o oceni, preden se ta sistem da na trg ali v uporabo, in bi moral to dokumentacijo na zahtevo predložiti pristojnim nacionalnim organom. Takšen ponudnik bi moral sistem UI registrirati v podatkovni zbirki EU, vzpostavljeni s to uredbo. Da bi zagotovili dodatne smernice za praktično izvajanje pogojev, pod katerimi sistemi UI navedeni v prilogi k tej uredbi, izjemoma ne predstavljajo visokega tveganja, bi morala Komisija po posvetovanju z Odborom zagotoviti smernice, v katerih bi bilo določeno, da se praktično izvajanje dopolni s celovitim seznamom praktičnih primerov uporabe visoko tveganih sistemov UI in sistemov UI, ki to niso.
(54)
Vzhledem k tomu, že zvláštní kategorii osobních údajů představují biometrické údaje, je vhodné klasifikovat jako vysoce rizikové několik případů kritického použití biometrických systémů, pokud je jejich používání povoleno podle příslušného práva Unie a vnitrostátního práva. Technické nepřesnosti systémů AI určených pro biometrickou identifikaci fyzických osob na dálku mohou vést ke zkresleným výsledkům a mít diskriminační účinky. Riziko takto předpojatých výsledků a diskriminačních účinků je obzvláště relevantní ve vztahu k věku, etnické příslušnosti, rase, pohlaví nebo zdravotnímu postižení. Systémy biometrické identifikace na dálku by proto s ohledem na rizika, která představují, měly být klasifikovány jako vysoce rizikové. Taková klasifikace se nevztahuje na systémy AI určené k biometrickému ověřování, včetně autentizace, jejichž jediným účelem je potvrdit, zda je konkrétní fyzická osoba osobou, za niž se prohlašuje, a systémy, které se používají k potvrzení totožnosti fyzické osoby za jediným účelem, kterým je získání přístupu ke službě, odblokování zařízení nebo získání bezpečného přístupu k prostorám. Kromě toho by jako vysoce rizikové měly být klasifikovány systémy AI určené k použití pro biometrickou kategorizaci podle citlivých atributů nebo vlastností chráněných podle čl. 9 odst. 1 nařízení (EU) 2016/679 na základě biometrických údajů, pokud nejsou tímto nařízením zakázány, a systémy rozpoznávání emocí, které nejsou tímto nařízením zakázány. Biometrické systémy, které jsou určeny k použití výhradně za účelem podpory opatření v oblasti kybernetické bezpečnosti a ochrany osobních údajů, by za vysoce rizikové systémy AI považovány být neměly.
(54)
Ker so biometrični podatki posebna kategorija osebnih podatkov, je primerno, da se več kritičnih primerov uporabe biometričnih sistemov razvrsti kot visokotvegane, če je njihova uporaba dovoljena na podlagi ustreznega prava Unije in nacionalnega prava. Tehnične netočnosti sistemov UI, namenjenih za biometrično identifikacijo fizičnih oseb na daljavo, lahko vodijo do pristranskih rezultatov in diskriminatornih učinkov. Tveganje takšnih pristranskih rezultatov in diskriminatornih učinkov je zlasti pomembno v zvezi s starostjo, etnično pripadnostjo, raso, spolom ali invalidnostjo. Glede na tveganja, ki jih predstavljajo sistemi za biometrično identifikacijo na daljavo, bi jih bilo treba razvrstiti kot sisteme visokega tveganja. Takšna razvrstitev izključuje sisteme UI za biometrično preverjanje, tudi avtentikacijo, katerih edini namen je potrditi, da je določena fizična oseba res ta, za katero se predstavlja, in potrditi identiteto fizične osebe izključno zaradi dostopa do storitve, odklepanja naprave ali varnega dostopa do prostorov. Poleg tega bi bilo kot sisteme visokega tveganja treba razvrstiti sisteme UI, namenjene uporabi za biometrično kategorizacijo v skladu z občutljivimi lastnostmi ali značilnostmi, zaščitenimi na podlagi člena 9(1) Uredbe (EU) 2016/679 na podlagi biometričnih podatkov, če ti niso prepovedani s to uredbo, in sisteme za prepoznavanje čustev, ki niso prepovedani s to uredbo. Biometrični sistemi, ki naj bi se uporabljali izključno za omogočanje ukrepov za kibernetsko varnost in varstvo osebnih podatkov, ne bi smeli šteti za visokotvegane sisteme UI.
(55)
Pokud jde o správu a provoz kritické infrastruktury, je vhodné klasifikovat jako vysoce rizikové takové systémy AI, které jsou určeny k použití jako bezpečnostní komponenty při řízení a provozu kritické digitální infrastruktury, jak je uvedeno v bodu 8 přílohy směrnice (EU) 2022/2557, silniční dopravy a při zásobování vodou, plynem, teplem a elektřinou, protože jejich porucha nebo chybné fungování může ohrozit život a zdraví osob ve velkém rozsahu a vést ke značnému narušení běžného provozu sociálních a hospodářských činností. Bezpečnostní komponenty kritické infrastruktury, včetně kritické digitální infrastruktury, jsou systémy používané k přímé ochraně fyzické integrity kritické infrastruktury nebo zdraví a bezpečnosti osob a majetku, které však nemusí být nutně v zájmu zajištění funkčnosti systému. Selhání nebo špatné fungování těchto komponent může přímo vést k ohrožení fyzické integrity kritické infrastruktury, a tím i k ohrožení zdraví a bezpečnosti osob a majetku. Komponenty určené k použití výhradně pro účely kybernetické bezpečnosti by neměly být považovány za bezpečnostní komponenty. Mezi příklady bezpečnostních komponent takové kritické infrastruktury mohou patřit systémy pro monitorování tlaku vody nebo systémy řízení požárního poplachu ve střediscích cloud computingu.
(55)
V zvezi z upravljanjem in delovanjem kritične infrastrukture je primerno, da se sistemi UI, namenjeni uporabi kot varnostne komponente pri upravljanju in delovanju kritične digitalne infrastrukture, navedene v točki 8 iz Priloge k Direktivi (EU) 2022/2557, cestnega prometa ter oskrbi z vodo, plinom, ogrevanjem in električno energijo, razvrstijo kot sistemi visokega tveganja, saj lahko njihovo nedelovanje ali okvara delovanja ogrožajo življenje in zdravje ljudi v velikem obsegu ter povzročijo občutne motnje v rednem izvajanju družbenih in gospodarskih dejavnosti. Varnostne komponente kritične infrastrukture, vključno s kritično digitalno infrastrukturo, so sistemi, ki se uporabljajo za neposredno zaščito fizične celovitosti kritične infrastrukture ali zdravja in varnosti oseb in premoženja, vendar niso potrebne za delovanje sistema. Nedelovanje ali okvara takih komponent bi lahko povzročila neposredno tveganje za fizično celovitost kritične infrastrukture ter posledično tveganje za zdravje in varnost oseb in premoženja. Komponente, namenjene izključno za uporabo v namene kibernetske varnosti, ne bi smele šteti za varnostne komponente. Primeri varnostnih komponent takšne kritične infrastrukture lahko vključujejo sisteme za spremljanje vodnega tlaka ali sisteme za upravljanje požarnega alarma v okviru centrov računalništva v oblaku.
(56)
Ve vzdělávání je zavádění systémů AI důležité pro podporu vysoce kvalitního digitálního vzdělávání a odborné přípravy a pro to, aby všichni účastníci vzdělávání a učitelé mohli získat a sdílet nezbytné digitální dovednosti a kompetence, včetně mediální gramotnosti a kritického myšlení, a mohli se tak aktivně zapojit do ekonomiky, společnosti a demokratických procesů. Jako vysoce rizikové by však měly být klasifikovány systémy AI používané ve vzdělávání nebo v odborné přípravě, zejména při určování přístupu osob do školských institucí a programů nebo institucí nebo programů odborného vzdělávání, jejich přijímání nebo přidělování do těchto institucí nebo programů na všech úrovních nebo pro hodnocení výsledků učení osob, pro posouzení vhodné úrovně vzdělávání jednotlivce a věcného vlivu úrovně vzdělávání a odborné přípravy, které tito jedinci obdrží, nebo pro určení přístupu nebo pro monitorování a detekci zakázaného chování studentů během testů, neboť takovéto systémy mohou určovat vzdělávací a profesní průběh života určité osoby, a tím mohou ovlivňovat její schopnost zajišťovat si živobytí. Pokud budou tyto systémy navrženy a používány nesprávně, mohou být mimořádně invazivní a mohou porušovat právo na vzdělávání a odbornou přípravu i právo nebýt diskriminován a fixovat historické vzorce diskriminace, například vůči ženám, určitým věkovým skupinám, osobám se zdravotním postižením nebo osobám určitého rasového nebo etnického původu nebo sexuální orientace.
(56)
Uvajanje sistemov UI v izobraževanju je pomembno za spodbujanje visokokakovostnega digitalnega izobraževanja in usposabljanja, da bi vsem učencem in učiteljem omogočili pridobivanje in deljenje potrebnih digitalnih spretnosti in kompetenc, vključno z medijsko pismenostjo in kritičnim razmišljanjem ter s tem dejavno sodelovanje v gospodarstvu, družbi in demokratičnih procesih. Vendar bi bilo treba sisteme UI, ki se uporabljajo v izobraževanju ali poklicnem usposabljanju, zlasti za določanje dostopa ali sprejema ali za razvrščanje fizičnih oseb v izobraževalne ustanove ali programe in ustanove ali programe za poklicno usposabljanje na vseh ravneh za ocenjevanje učnih izidov oseb, ustrezne ravni izobrazbe posameznika in materialno vplivanje na raven izobraževanja in usposabljanja, ki jo bodo posamezniki prejeli ali bodo lahko dostopali do nje ali za spremljanje in odkrivanje prepovedanega vedenja študentov med testi, razvrstiti kot visokotvegane sisteme UI, saj lahko določajo izobraževalni in poklicni potek življenja osebe in lahko zato vplivajo na zmožnost te osebe, da si zagotovi preživljanje. Če so takšni sistemi neustrezno zasnovani in uporabljeni, lahko zlasti hudo posegajo v pravico do izobraževanja in usposabljanja ter pravico do nediskriminacije in ju lahko kršijo ter ohranjajo vzorce diskriminacije iz preteklosti, na primer žensk, nekaterih starostnih skupin, invalidov ali oseb določenega rasnega ali etničnega porekla ali spolne usmerjenosti.
(57)
Jako vysoce rizikové by měly být klasifikovány rovněž systémy AI používané při zaměstnávání, řízení pracovníků a při přístupu k samostatné výdělečné činnosti, zejména při náboru a výběru osob, při rozhodováních ovlivňujících podmínky pracovního poměru, povýšení a ukončení smluvních pracovněprávních vztahů, při přidělování úkolů na základě individuálního chování, osobnostních rysů či vlastností a při monitorování nebo hodnocení osob ve smluvních pracovněprávních vztazích, protože mohou významně ovlivnit budoucí kariérní vyhlídky, živobytí těchto osob a práva pracovníků. Příslušné smluvní pracovněprávní vztahy by měly smysluplně zahrnovat zaměstnance a osoby poskytující služby prostřednictvím platforem, jak je uvedeno v pracovním programu Komise na rok 2021. Tyto systémy mohou v průběhu celého procesu náboru a při hodnocení, povyšování nebo udržování osob ve smluvních pracovněprávních vztazích fixovat historické vzorce diskriminace, například vůči ženám, určitým věkovým skupinám, osobám se zdravotním postižením nebo osobám určitého rasového nebo etnického původu nebo sexuální orientace. Systémy AI používané k monitorování výkonnosti a chování těchto osob mohou rovněž ohrožovat jejich základní práva na ochranu údajů a soukromí.
(57)
Sisteme UI, ki se uporabljajo pri zaposlovanju, upravljanju delavcev in dostopu do samozaposlitve, zlasti za zaposlovanje in izbor oseb, za sprejemanje odločitev, ki vplivajo na delovne pogoje, napredovanje ali prenehanje pogodbenih delovnih razmerij, za dodeljevanje nalog na podlagi individualnega vedenja, osebnih lastnosti ali značilnosti ter za spremljanje ali ocenjevanje oseb v z delom povezanih pogodbenih razmerjih, bi bilo treba prav tako razvrstiti med sisteme visokega tveganja, saj lahko ti sistemi občutno vplivajo na prihodnje poklicne možnosti, možnosti preživljanja teh oseb in pravice delavcev. Ustrezna pogodbena delovna razmerja bi morala smiselno vključevati zaposlene in osebe, ki zagotavljajo storitve preko platform, ki so navedene v delovnem programu Komisije za leto 2021. V celotnem postopku zaposlovanja in pri ocenjevanju, napredovanju ali ohranjanju oseb v pogodbenih delovnih razmerjih lahko taki sistemi ohranjajo vzorce diskriminacije iz preteklosti, na primer nad ženskami, določenimi starostnimi skupinami, invalidi ali osebami določenega rasnega ali etničnega porekla ali spolne usmerjenosti. Tudi sistemi UI, ki se uporabljajo za spremljanje učinkovitost in vedenja teh oseb, lahko ogrožajo njihove temeljne pravice do varstva podatkov in zasebnosti.
(58)
Další oblastí, ve které si používání systémů AI zaslouží zvláštní pozornost, je přístup k určitým základním soukromým a veřejným službám a výhodám nezbytným pro plné zapojení osob do společnosti nebo pro zlepšení jejich životní úrovně. Zejména fyzické osoby, které žádají o základní dávky sociálního zabezpečení a veřejné asistenční služby u veřejných orgánů, případně kterým jsou tyto dávky a služby poskytovány, konkrétně služby zdravotní péče, dávky sociálního zabezpečení, sociální služby zajišťující ochranu v takových případech, jako je mateřství, nemoc, pracovní úrazy, závislost nebo stáří, jakož i v případě ztráty zaměstnání a sociální pomoci a pomoci v oblasti bydlení, jsou zpravidla na těchto dávkách a službách závislé a nacházejí se ve vztahu k odpovědným orgánům ve zranitelném postavení. Jsou-li systémy AI používány k určování toho, zda by tyto orgány měly tyto dávky a služby poskytnout, zamítnout, omezit, zrušit nebo žádat jejich navrácení, včetně toho, zda mají příjemci na tyto dávky nebo služby legitimní nárok, mohou tyto systémy mít významný dopad na živobytí daných osob a mohou porušovat jejich základní práva, jako je právo na sociální ochranu, na zákaz diskriminace, na lidskou důstojnost nebo na účinnou právní ochranu, a měly by proto být klasifikovány jako vysoce rizikové. Toto nařízení by však nemělo bránit rozvoji a používání inovativních přístupů ve veřejné správě, pro kterou by mohlo být širší používání vyhovujících a bezpečných systémů AI prospěšné, pokud tyto systémy nepředstavují vysoké riziko pro právnické a fyzické osoby. Kromě toho by jako vysoce rizikové systémy AI by měly být klasifikovány systémy AI používané k hodnocení rizika úvěrů nebo úvěruschopnosti fyzických osob, protože určují přístup těchto osob k finančním zdrojům nebo k základním službám, jako je bydlení, elektřina a telekomunikační služby. Systémy AI používané pro tyto účely mohou vést k diskriminaci mezi osobami nebo skupinami a mohou fixovat historické vzorce diskriminace, například na základě rasového nebo etnického původu, genderu, zdravotního postižení, věku a sexuální orientace, nebo mohou vytvářet nové formy diskriminačních dopadů. Systémy AI stanovené právem Unie pro účely odhalování podvodů při nabízení finančních služeb a pro účely obezřetnosti za účelem výpočtu kapitálových požadavků úvěrových institucí a pojišťoven, by však neměly být podle tohoto nařízení považovány za vysoce rizikové. Kromě toho systémy AI určené k použití pro posuzování rizik a stanovování cen ve vztahu k fyzickým osobám pro účely zdravotního a životního pojištění mohou mít rovněž významný dopad na živobytí osob, a pokud nejsou řádně navrženy, vyvinuty a používány, mohou porušovat jejich základní práva a mohou mít závažné důsledky pro život a zdraví lidí, včetně finančního vyloučení a diskriminace. A konečně by měly být jako vysoce rizikové klasifikovány rovněž systémy AI používané pro hodnocení a klasifikaci tísňových volání fyzických osob nebo při dispečinku pohotovostních služeb nebo stanovení priorit při tomto dispečinku, včetně policie, hasičů a lékařské pomoci, jakož i systémy třídění pacientů ve zdravotnictví, protože rozhodují v situacích, které jsou velmi kritické pro život a zdraví osob a jejich majetek.
(58)
Drugo področje, na katerem je treba posebno pozornost nameniti uporabi sistemov UI, je dostop do nekaterih bistvenih zasebnih in javnih storitev ter koristi, ki jih ljudje potrebujejo za polno udeležbo v družbi ali izboljšanje življenjskega standarda. Zlasti fizične osebe, ki zaprosijo za ali od javnih organov prejemajo bistvene ugodnosti in storitve javne pomoči, in sicer zdravstvene storitve, dajatve socialne varnosti, socialne storitve, ki zagotavljajo zaščito v primerih, kot so materinstvo, bolezen, nesreče pri delu, odvisnost ali starost ter izguba zaposlitve ter socialna in stanovanjska pomoč, so običajno odvisne od teh ugodnosti in storitev ter so v ranljivem položaju v odnosu do odgovornih organov. Če se sistemi UI uporabljajo za določanje, ali naj organi take ugodnosti in storitve odobrijo, zavrnejo, zmanjšajo, prekličejo ali zahtevajo povračilo, vključno s tem, ali so upravičenci legitimno upravičeni do takih ugodnosti ali storitev, lahko ti sistemi pomembno vplivajo na preživljanje oseb in kršijo njihove temeljne pravice, kot so pravica do socialne zaščite, nediskriminacije, človekovega dostojanstva ali učinkovitega pravnega sredstva, in bi zato morali biti opredeljeni kot visokotvegani sistemi UI. Kljub temu ta uredba ne bi smela ovirati razvoja in uporabe inovativnih pristopov v javni upravi, ki bi imela koristi od širše uporabe skladnih in varnih sistemov UI, če ti sistemi ne pomenijo visokega tveganja za pravne in fizične osebe. Poleg tega bi bilo treba sisteme UI, ki se uporabljajo za ocenjevanje kreditne ocene ali kreditne sposobnosti fizičnih oseb, razvrstiti kot visokotvegane sisteme UI, saj določajo dostop teh oseb do finančnih sredstev ali bistvenih storitev, kot so stanovanja, električna energija in telekomunikacijske storitve. Sistemi UI, ki se uporabljajo v te namene, lahko povzročijo diskriminacijo oseb ali skupin in ohranijo vzorce diskriminacije iz preteklosti, na primer na podlagi rasnega ali etničnega porekla, spola, invalidnosti, starosti ali spolne usmerjenosti, ali ustvarijo nove oblike diskriminatornih vplivov. Vendar sistemi UI, ki so v pravu Unije določeni za namene odkrivanja goljufij pri ponujanju finančnih storitev ter za bonitetne namene za izračun kapitalskih zahtev kreditnih institucij in zavarovalnic, na podlagi te uredbe ne bi smeli šteti za sisteme visokega tveganja. Poleg tega lahko sistemi UI, namenjeni za oceno tveganja in oblikovanje cen v zvezi s fizičnimi osebami za zdravstveno in življenjsko zavarovanje, tudi pomembno vplivajo na preživetje oseb in lahko, če niso ustrezno zasnovani, razviti in uporabljeni, kršijo njihove temeljne pravice in povzročijo resne posledice za življenje in zdravje ljudi, vključno s finančno izključenostjo in diskriminacijo. Poleg tega bi bilo treba sisteme UI, ki se uporabljajo za ocenjevanje in razvrščanje klicev v sili fizičnih oseb ali za pošiljanje ali določanje prednosti pri napotitvi služb za ukrepanje ob nesrečah, vključno s policijo, gasilci in medicinsko pomočjo, ter sistemih triaže pacientov v nujnem zdravstvenem varstvu, razvrstiti med sisteme visokega tveganja, saj sprejemajo odločitve v zelo kritičnih razmerah za življenje in zdravje oseb ter njihovo premoženje.
(59)
Opatření donucovacích orgánů zahrnující určitá použití systémů AI se s ohledem na jejich úlohu a odpovědnost vyznačují značným stupněm nerovnováhy sil a mohou vést ke sledování fyzické osoby, jejímu zatčení nebo zbavení svobody, jakož i k dalším nepříznivým dopadům na základní práva zaručená Listinou. Zejména v případě, že systém AI nebyl trénován na vysoce kvalitních datech, nesplňuje odpovídající požadavky na výkonnost, přesnost nebo spolehlivost nebo není před uvedením na trh nebo jiným uvedením do provozu řádně navržen a otestován, může dojít k vyčleňování osob diskriminačním nebo jinak nesprávným nebo nespravedlivým způsobem. Kromě toho by mohl být omezen výkon důležitých základních procesních práv, jako je právo na účinnou ochranu a na spravedlivý proces, jakož i právo na obhajobu a presumpce neviny, zejména pokud tyto systémy AI nejsou dostatečně transparentní, vysvětlitelné a zdokumentované. Je proto vhodné klasifikovat jako vysoce rizikové celou řadu systémů AI určených k použití v kontextu vymáhání práva, kde je přesnost, spolehlivost a transparentnost obzvláště důležitá, pokud je jejich používání povoleno podle příslušného práva Unie a vnitrostátního práva, s cílem zabránit nepříznivým dopadům, zachovat důvěru veřejnosti a zajistit odpovědnost a účinné opravné prostředky. S ohledem na povahu činností a na rizika s nimi spojená by tyto vysoce rizikové systémy AI měly zahrnovat zejména systémy AI určené k použití donucovacími orgány nebo jejich jménem nebo orgány, institucemi nebo jinými subjekty Unie na podporu donucovacích orgánů při posuzování rizika, že se fyzická osoba stane obětí trestných činů, jako jsou polygrafy a podobné nástroje, k vyhodnocování spolehlivosti důkazů v průběhu vyšetřování nebo stíhání trestných činů, a pokud to není zakázáno tímto nařízením, k posuzování rizika protiprávního jednání nebo opakovaného protiprávního jednání fyzické osoby, a to nejen na základě profilování fyzických osob, ani na základě posuzování osobnostních a povahových rysů nebo předchozí trestné činnosti fyzických osob nebo skupin, k profilování v průběhu odhalování, vyšetřování nebo stíhání trestných činů. Systémy AI výslovně určené k použití daňovými a celními orgány při správním řízení, jakož i finančními zpravodajskými jednotkami provádějícími administrativní úkoly při analýze informací podle práva Unie proti praní peněz, by neměly být klasifikovány jako vysoce rizikové systémy AI používané donucovacími orgány za účelem prevence, odhalování, vyšetřování a stíhání trestných činů. Využívání nástrojů AI donucovacími orgány a dalšími relevantními orgány by se nemělo stát faktorem nerovnosti nebo vyloučení. Dopad používání nástrojů AI na práva podezřelých osob na obhajobu by neměl být opomíjen, zejména pokud jde o obtíže při získávání důležitých informací o fungování těchto systémů a související problémy při vznesení námitek proti jejich výsledkům u soudu, zejména ze strany vyšetřovaných fyzických osob.
(59)
Glede na vlogo in odgovornost organov za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, je za njihove ukrepe, ki vključujejo nekatere uporabe sistemov UI, značilna precejšnja stopnja neravnovesja moči, kar lahko vodi do nadzora, prijetja ali odvzema prostosti fizične osebe ter drugih škodljivih vplivov na temeljne pravice, ki jih zagotavlja Listina. Zlasti če se sistem UI ne uči z visokokakovostnimi podatki, ne izpolnjuje ustreznih zahtev glede zmogljivosti, točnosti ali robustnosti ali ni ustrezno zasnovan in testiran, preden je dan na trg ali na kakšen drug način v uporabo, lahko ljudi izpostavil na diskriminatoren ali kako drugače napačen ali nepravičen način. Poleg tega bi lahko bilo ovirano uveljavljanje pomembnih procesnih temeljnih pravic, kot so pravica do učinkovitega pravnega sredstva in nepristranskega sodišča ter pravica do obrambe in domneve nedolžnosti, zlasti kadar taki sistemi UI niso dovolj pregledni, obrazložljivi in dokumentirani. Zato je primerno, da se številni sistemi UI, kolikor je njihova uporaba dovoljena na podlagi zadevnega prava Unije in nacionalnega prava, namenjeni uporabi v okviru preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, razvrstijo med sisteme visokega tveganja, kjer so točnost, zanesljivost in preglednost še posebej pomembni, da se preprečijo škodljivi vplivi, ohrani zaupanje javnosti ter zagotovita odgovornost in učinkovito sodno varstvo. Glede na naravo dejavnosti in s tem povezana tveganja bi morali ti visokotvegani sistemi UI vključevati zlasti sisteme UI, ki so namenjeni uporabi s strani ali v imenu organov preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ali institucij, organov, uradov ali agencij Unije v podporo tem organom pri ocenjevanju tveganja, da fizična oseba postane žrtev kaznivih dejanj, kot so poligrafi in podobna orodja, za ocenjevanje zanesljivosti dokazov med preiskovanjem ali pregonom kaznivih dejanj in, če to ni prepovedano na podlagi te uredbe, za ocenjevanje tveganja, da fizična oseba stori ali ponovi kaznivo dejanje, ne izključno na podlagi oblikovanja profilov fizičnih oseb ali ocene osebnostnih lastnosti in značilnosti ali preteklega kaznivega ravnanja fizičnih oseb ali skupin, za oblikovanje profilov med odkrivanjem, preiskovanjem ali pregonom kaznivih dejanj. Sistemi UI, posebej namenjeni uporabi v upravnih postopkih s strani davčnih in carinskih organov ter finančnoobveščevalnih enot, ki izvajajo upravne naloge analiziranja informacij na podlagi prava Unije o preprečevanju pranja denarja, ne bi smeli biti opredeljeni kot visokotvegani sistemi UI, ki jih uporabljajo organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj za namen preprečevanja, odkrivanja, preiskovanja in pregona kaznivih dejanj. Organi preprečevanja, odkrivanja in preiskovanja kaznivih dejanj in drugi ustrezni organi orodij UI ne bi smeli uporabljati tako, da bi postala dejavnik pri neenakosti ali izključenosti. Ne bi smeli zanemariti vpliva uporabe orodij UI na pravice osumljencev do obrambe, zlasti težav pri pridobivanju smiselnih informacij o delovanju teh sistemov in posledičnih težav pri izpodbijanju njihovih rezultatov na sodišču, zlasti s strani fizičnih oseb, ki so predmet preiskave.
(60)
Systémy AI používané pro účely migrace, azylu a řízení ochrany hranic ovlivňují osoby, které jsou často v obzvláště zranitelném postavení a jsou závislé na výsledku činnosti příslušných veřejných orgánů. Přesnost, nediskriminační povaha a transparentnost systémů AI používaných v těchto kontextech jsou proto obzvláště důležité pro zajištění dodržování základních práv dotčených osob, zejména jejich práva na volný pohyb, na zákaz diskriminace, na ochranu soukromého života a osobních údajů, na mezinárodní ochranu a na řádnou správu. Je proto vhodné klasifikovat jako vysoce rizikové ty systémy AI, které jsou určeny k použití příslušnými orgány veřejné moci nebo jejich jménem nebo orgány, institucemi nebo jinými subjekty Unie pověřenými úkoly v oblasti migrace, azylu a řízení ochrany hranic, jako jsou například polygrafy a podobné nástroje, pokud je jejich používání povoleno podle příslušného práva Unie a vnitrostátního práva, k posuzování určitých rizik, která představují fyzické osoby vstupující na území členského státu nebo žádající o vízum nebo azyl, jako pomoc příslušným veřejným orgánům při posuzování žádostí o azyl, vízum a povolení k pobytu a souvisejících stížností, pokud jde o cíl, jímž je zjištění způsobilosti fyzických osob žádajících o určitý status, včetně souvisejícího posouzení spolehlivosti důkazů, pro účely odhalování, uznávání nebo identifikace fyzických osob v souvislosti s migrací, azylem a řízením ochrany hranic, s výjimkou ověřování cestovních dokladů.Systémy AI v oblasti migrace, azylu a řízení ochrany hranic, na které se vztahuje toto nařízení, by měly splňovat příslušné procesní požadavky stanovené nařízením Evropského parlamentu a Rady (ES) č. 810/2009 (32), směrnicí Evropského parlamentu a Rady 2013/32/EU (33) a dalším příslušným právem Unie. Členské státy nebo orgány, instituce nebo jiné subjekty Unie by za žádných okolností neměly používat systémy AI při migraci, azylu a řízení ochrany hranic jako prostředek k obcházení svých mezinárodních závazků vyplývajících z Úmluvy OSN o právním postavení uprchlíků, která byla podepsána v Ženevě dne 28. července 1951, ve znění protokolu ze dne 31. ledna 1967, ani by tyto systémy neměly být využívány k jakémukoli porušování zásady nenavracení nebo k odepření bezpečných a účinných legálních cest na území Unie, včetně práva na mezinárodní ochranu.
(60)
Sistemi UI, ki se uporabljajo pri upravljanju migracij, azila in nadzora meje, vplivajo na osebe, ki so pogosto v posebej ranljivem položaju ter so odvisne od izida ukrepov pristojnih javnih organov. Točnost, nediskriminatornost in preglednost sistemov UI, ki se uporabljajo v teh kontekstih, so zato zlasti pomembni za zagotavljanje spoštovanja temeljnih pravic zadevnih oseb, zlasti njihovih pravic do prostega gibanja, nediskriminacije, varstva zasebnega življenja in osebnih podatkov, mednarodnega varstva in dobrega upravljanja. Zato je primerno, da se med sisteme visokega tveganja razvrstijo sistemi UI, ki so na podlagi ustreznega prava Unije in nacionalnega prava dovoljeni za uporabo s strani ali v imenu pristojnih javnih organov ali institucij, organov, uradov ali agencij Unije, zadolženih za naloge na področju migracij, azila in upravljanja nadzora meja, kot so poligrafi in podobna orodja, za ocenjevanje nekaterih tveganj, ki jih predstavljajo fizične osebe, ki vstopajo na ozemlje države članice ali zaprosijo za vizum ali azil, za pomoč pristojnim javnim organom pri obravnavi, vključno s povezano oceno zanesljivosti dokazov, prošenj za azil, vizumov in dovoljenj za prebivanje ter s tem povezanih pritožb zaradi ugotavljanja upravičenosti fizičnih oseb, ki zaprosijo za status, za namene odkrivanja, priznavanja ali identifikacije fizičnih oseb v okviru upravljanja migracij, azila in nadzora meja, z izjemo preverjanja potnih listin. Sistemi UI na področju migracij, azila in upravljanja nadzora meja, ki jih zajema ta uredba, bi morali biti skladni z ustreznimi postopkovnimi zahtevami iz Uredbe (ES) št. 810/2009 Evropskega parlamenta in Sveta (32), Direktive 2013/32/EU Evropskega parlamenta in Sveta (33) ter drugega ustreznega prava Unije. Države članice ali institucije, organi, uradi ali agencije Unije v nobenem primeru ne bi smeli uporabljati sistemov UI na področju migracij, azila in upravljanja nadzora meja kot sredstvo za izogibanje svojim mednarodnim obveznostim iz Konvencije ZN o statusu beguncev, podpisane v Ženevi 28. julija 1951, kakor je bila spremenjena s Protokolom z dne 31. januarja 1967. Prav tako se ne smejo uporabljati za kakršno koli kršitev načela nevračanja ali za odrekanje varnih in učinkovitih zakonitih poti na ozemlje Unije, vključno s pravico do mednarodne zaščite.
(61)
Určité systémy AI určené k výkonu spravedlnosti a demokratických procesů by měly být klasifikovány jako vysoce rizikové s ohledem na jejich potenciálně významný dopad na demokracii, právní stát a individuální svobody, jakož i na právo na účinnou ochranu a na spravedlivý proces. Jako vysoce rizikové je vhodné kvalifikovat systémy AI určené k použití justičním orgánem nebo jeho jménem, jejichž cílem je poskytovat pomoc justičním orgánům při zkoumání a výkladu skutečností a práva a při uplatňování práva na konkrétní soubor skutečností, zejména z důvodu řešení rizik možného zkreslení, chyb a neprůhlednosti. Systémy AI určené k použití subjekty pro alternativní řešení sporů pro tyto účely by měly být rovněž považovány za vysoce rizikové, pokud výsledky postupů alternativního řešení sporů mají pro strany právní účinky. Využívání nástrojů AI může podpořit rozhodovací pravomoci soudců nebo nezávislost soudnictví, ale nemělo by je nahrazovat, neboť konečné rozhodnutí musí i nadále přijímat člověk. Klasifikace systémů AI jako vysoce rizikových by se však neměla vztahovat na systémy AI určené pro čistě pomocné správní činnosti, které neovlivňují faktický výkon spravedlnosti v jednotlivých případech, jako je například anonymizace nebo pseudonymizace soudních rozhodnutí, dokumentů nebo údajů, komunikace mezi zaměstnanci, administrativní úkoly.
(61)
Nekatere sisteme UI, namenjene razsojanju in demokratičnim procesom, bi bilo treba razvrstiti med sisteme visokega tveganja zaradi njihovega potencialno pomembnega vpliva na demokracijo, pravno državo, osebne svoboščine ter pravico do učinkovitega pravnega sredstva in nepristranskega sodišča. Zlasti zato, da bi zmanjšali tveganja morebitnih pristranskosti, napak in nepreglednosti, je primerno, da se visokotvegani sistemi UI, namenjeni uporabi s strani sodnega organa ali v njegovem imenu za pomoč sodnim organom pri raziskovanju in razlagi dejstev in prava ter pri uporabi prava za konkreten sklop dejstev, opredelijo kot sistemi visokega tveganja. Tudi sisteme UI, ki naj bi jih za te namene uporabljali organi za alternativno reševanje sporov, bi bilo treba šteti za sisteme visokega tveganja, če imajo rezultati postopkov alternativnega reševanja sporov pravne učinke za stranke. Orodja UI se lahko uporabljajo kot pomoč sodnikom pri odločanju ali podpora neodvisnosti sodstva, vendar jih ne bi smela nadomeščati: končno odločanje mora ostati dejavnost, ki jo vodi človek. Razvrščanje sistemov UI kot sistemov visokega tveganja pa se ne bi smelo uporabljati tudi za sisteme UI, namenjene izključno pomožnim upravnim dejavnostim, ki ne vplivajo na dejansko razsojanje v posameznih primerih, kot so anonimizacija ali psevdonimizacija sodnih odločb, dokumentov ali podatkov, komunikacije med osebjem ali upravnih nalog.
(62)
Aniž jsou dotčena pravidla stanovená v nařízení Evropského parlamentu a Rady (EU) 2024/900 (34) a s cílem řešit rizika nepřiměřeného vnějšího zasahování do volebního práva zakotveného v článku 39 Listiny a nepříznivých dopadů na demokracii a právní stát by systémy AI, které jsou určeny k ovlivňování výsledku voleb nebo referenda nebo hlasování fyzických osob ve volbách nebo referendech, měly být klasifikovány jako vysoce rizikové systémy AI, s výjimkou systémů AI, jejichž výstupu nejsou fyzické osoby přímo vystaveny, jako jsou nástroje používané k organizaci, optimalizaci a strukturování politických kampaní z administrativního a logistického hlediska.
(62)
Brez poseganja v pravila iz Uredbe (EU) 2024/900 Evropskega parlamenta in Sveta (34) ter za obravnavanje tveganj neupravičenega zunanjega poseganja v volilno pravico iz člena 39 Listine in nesorazmernih učinkov na demokracijo in pravno državo bi bilo treba sisteme UI, namenjene vplivanju na izid volitev ali referenduma ali na volilno vedenje fizičnih oseb pri glasovanju na volitvah ali referendumih, razvrstiti kot visokotvegane sisteme UI, razen kadar gre za sisteme UI, pri katerih fizične osebe niso neposredno izpostavljene njihovim izhodnim podatkom, kot so orodja, ki se uporabljajo za organizacijo, optimizacijo in strukturiranje političnih kampanj z upravnega in logističnega vidika.
(63)
Skutečnost, že daný systém AI je podle tohoto nařízení klasifikován jako vysoce rizikový systém AI, by neměla být vykládána v tom smyslu, že používání tohoto systému je zákonné podle jiných aktů práva Unie nebo podle vnitrostátního práva slučitelného s právem Unie, které se týkají například ochrany osobních údajů, používání polygrafů a podobných nástrojů nebo jiných systémů ke zjišťování emočního stavu fyzických osob. K jakémukoli takovému používání by mělo i nadále docházet pouze v souladu s příslušnými požadavky vyplývajícími z Listiny a z příslušných aktů sekundárního práva Unie a vnitrostátního práva. Toto nařízení by nemělo být chápáno tak, že poskytuje právní základ pro zpracování osobních údajů, v relevantních případech včetně zvláštních kategorií osobních údajů, není-li v tomto nařízení konkrétně stanoveno jinak.
(63)
Dejstva, da je sistem UI na podlagi te uredbe razvrščen kot visokotvegani sistem UI, se ne bi smelo razlagati tako, da pomeni, da je njegova uporaba zakonita na podlagi drugih aktov prava Unije ali na podlagi nacionalnega prava, združljivim s pravom Unije, kot so varstvo osebnih podatkov, uporaba poligrafov in podobnih orodij ali drugih sistemov za zaznavanje čustvenega stanja fizičnih oseb. Vsaka taka uporaba bi se morala še naprej izvajati izključno v skladu z veljavnimi zahtevami, ki izhajajo iz Listine ter veljavnih aktov sekundarnega prava Unije in nacionalnega prava. Te uredbe ne bi smeli razumeti kot pravne podlage za obdelavo osebnih podatkov, vključno s posebnimi vrstami osebnih podatkov, kadar je to ustrezno, razen če je v tej uredbi izrecno določeno drugače.
(64)
Ke zmírnění rizik, která vyplývají z vysoce rizikových systémů AI uváděných na trh nebo do provozu, a k zajištění vysoké úrovně důvěryhodnosti by měly být na vysoce rizikové systémy AI uplatňovány určité povinné požadavky s přihlédnutím k zamýšlenému účelu a v souvislosti s používáním systému AI a v souladu se systémem řízení rizik, který stanoví poskytovatel. Opatření přijatá poskytovateli za účelem splnění povinných požadavků tohoto nařízení by měla zohledňovat obecně uznávaný současný stav v oblasti AI a měla by být přiměřená a účinná pro splnění cílů tohoto nařízení. Na základě nového legislativního rámce, jak je objasněno v oznámení Komise, „Modrá příručka“ k provádění pravidel EU pro výrobky (2022), je obecným pravidlem, že na jeden produkt může být použitelný více než jeden právní akt náležející mezi harmonizační právní předpis Unie, neboť k dodání na trh nebo uvedení do provozu může dojít pouze v případě, když je produkt v souladu se všemi platnými harmonizačními právními předpisy Unie. Nebezpečí spojená se systémy AI, na něž se vztahují požadavky tohoto nařízení, se vztahují k jiným aspektům než stávající harmonizační právní předpisy Unie, a proto požadavky tohoto nařízení doplní stávající soubor harmonizačních právních předpisů Unie. Například produkty v podobě strojních zařízení nebo zdravotnických prostředků obsahující systém AI mohou představovat rizika, na která se nevztahují základní požadavky na ochranu zdraví a bezpečnost stanovené v příslušných harmonizovaných právních předpisech Unie, neboť toto odvětvové právo se nezabývá riziky specifickými pro systémy AI. To vyžaduje současné a doplňkové použití různých legislativních aktů. Aby byla zajištěna soudržnost a zabránilo se zbytečné administrativní zátěži nebo zbytečným nákladům, poskytovatelé produktu, který obsahuje jeden nebo více vysoce rizikových systémů AI, na něž se vztahují požadavky tohoto nařízení a harmonizačních právních předpisů Unie založených na novém legislativním rámci a uvedené v příloze tohoto nařízení, by měli být flexibilní, pokud jde o přijímání provozních rozhodnutí o tom, jak optimálně zajistit soulad produktu obsahujícího jeden nebo více systémů AI se všemi platnými požadavky harmonizovaných právních předpisů Unie. Tato flexibilita by mohla obnášet například rozhodnutí poskytovatele začlenit část nezbytných procesů testování a podávání zpráv, informací a dokumentace požadovaných podle tohoto nařízení do již existující dokumentace a postupů požadovaných podle stávajících harmonizačních právních předpisů Unie založených na novém legislativním rámci a uvedených v příloze tohoto nařízení. Tím by neměla být nijak dotčena povinnost poskytovatele dodržovat všechny platné požadavky.
(64)
Da bi zmanjšali tveganja iz visokotveganih sistemov UI, ki so dani na trg ali v uporabo, in zagotovili visoko raven zanesljivosti, bi bilo treba za visokotvegane sisteme UI uporabljati nekatere obvezne zahteve in pri tem upoštevati predvideni namen in kontekst uporabe sistema UI ter sistem obvladovanja tveganja, ki ga vzpostavi ponudnik. Ponudniki bi pri ukrepih, ki jih sprejmejo za izpolnjevanje obveznih zahtev iz te uredbe, morali upoštevati splošno priznane najsodobnejše tehnološke dosežke na področju UI; ti ukrepi bi morali biti sorazmerni in učinkoviti za doseganje ciljev te uredbe. Kot je pojasnjeno v obvestilu Komisije „Modri vodnik“ o izvajanju pravil EU o proizvodih iz leta 2022, je na podlagi novega zakonodajnega okvira splošno pravilo, da se več kot en pravni akt harmonizacijske zakonodaje Unije lahko uporablja za en proizvod, saj se lahko dostopnost ali dajanje v uporabo izvede le, če je proizvod skladen z vso veljavno harmonizacijsko zakonodajo Unije. Nevarnosti sistemov UI, za katere veljajo zahteve iz te uredbe, se nanašajo na vidike, ki se razlikujejo od obstoječe harmonizacijske zakonodaje Unije, zato naj bi zahteve iz te uredbe dopolnjevale obstoječi del harmonizacijske zakonodaje Unije. Na primer stroji ali medicinski pripomočki, ki vključujejo sistem UI, lahko pomenijo tveganja, ki v bistvenih zdravstvenih in varnostnih zahtevah iz ustrezne harmonizirane zakonodaje Unije niso zajeta, saj navedeno sektorsko pravo ne obravnava tveganj, značilnih za sisteme UI. To zahteva hkratno in dopolnjevalno uporabo različnih zakonodajnih aktov. Da bi zagotovili doslednost in preprečili nepotrebno upravno breme ali nepotrebne stroške, bi morali ponudnikom proizvoda, ki vsebuje enega ali več visokotveganih sistemov UI, za katere se uporabljajo zahteve iz te uredbe in harmonizacijske zakonodaje Unije, ki temelji na novem zakonodajnem okviru in je navedena v prilogi k tej uredbi, omogočiti prožnost glede operativnih odločitev o tem, kako na optimalen način zagotoviti skladnost proizvoda, ki vsebuje enega ali več sistemov UI, z vsemi veljavnimi zahtevami harmonizirane zakonodaje Unije. Ta prožnost bi lahko na primer pomenila odločitev ponudnika, da del potrebnih postopkov testiranja in poročanja, informacij in dokumentacije, ki se zahtevajo na podlagi te uredbe, vključi v dokumentacijo in postopke, ki že obstajajo in se zahtevajo na podlagi harmonizacijske zakonodaje Unije, ki temelji na novem zakonodajnem okviru in je navedena v prilogi k tej uredbi. To nikakor ne bi smelo ogroziti obveznosti ponudnika, da izpolnjuje vse veljavne zahteve.
(65)
Systém řízení rizik by měl spočívat v nepřetržitém opakujícím se procesu, který je plánovaný a probíhá během celého životního cyklu vysoce rizikového systému AI. Tento proces by měl být zaměřen na identifikaci a zmírnění příslušných rizik systémů AI pro zdraví, bezpečnost a základní práva. Systém řízení rizik by měl být pravidelně přezkoumáván a aktualizován, aby byla zajištěna jeho trvalá účinnost, jakož i odůvodněnost a dokumentace veškerých významných rozhodnutí a opatření přijatých podle tohoto nařízení. Tento proces by měl zajistit, aby poskytovatel identifikoval rizika nebo nepříznivé dopady a zavedl opatření ke zmírnění známých a rozumně předvídatelných rizik systémů AI pro zdraví, bezpečnost a základní práva s ohledem na jeho zamýšlený účel a rozumně předvídatelné nesprávné použití, včetně možných rizik vyplývajících z interakce mezi systémem AI a prostředím, v němž působí. Systém řízení rizik by měl přijmout nejvhodnější opatření k řízení rizik s ohledem na nejnovější vývoj v oblasti AI. Při identifikaci nejvhodnějších opatření k řízení rizik by měl poskytovatel zdokumentovat a vysvětlit provedené volby a případně zapojit odborníky a externí zúčastněné strany. Při identifikaci rozumně předvídatelného nesprávného použití vysoce rizikových systémů AI by měl poskytovatel zahrnout způsoby použití systémů AI, které sice nejsou přímo pokryty zamýšleným účelem a nejsou uvedeny v návodu k použití, nicméně lze důvodně očekávat, že vyplynou ze snadno předvídatelného lidského chování v souvislosti se specifickými vlastnostmi a používáním konkrétního systému AI. V návodu k použití poskytnutém poskytovatelem by měly být uvedeny jakékoli známé nebo předvídatelné okolností související s používáním daného vysoce rizikového systému AI v souladu s jeho zamýšleným účelem nebo za podmínek rozumně předvídatelného nesprávného použití, které mohou vést k rizikům pro zdraví a bezpečnost nebo pro základní práva. Účelem je zajistit, aby si jich byl zavádějící subjekt při používání vysoce rizikového systému AI vědom a zohlednil je. Pro identifikaci a provádění opatření ke zmírnění rizik v případě předvídatelného nesprávného použití vysoce rizikového systému AI podle tohoto nařízení by nemělo být nutné, aby poskytovatel v zájmu řešení předvídatelného nesprávného použití přistupoval ke zvláštním dodatečným školením. Poskytovatelé se však vyzývají, aby taková dodatečná opatření v oblasti školení zvážili, bude-li to pro omezení rozumně předvídatelného použití nezbytné a vhodné.
(65)
Sestavni del sistema obvladovanja tveganja bi moral biti neprekinjen ponavljajoč se proces, ki se načrtuje in izvaja v celotnem življenjskem ciklu visokotveganega sistema UI. Ta proces bi moral biti usmerjen v prepoznavanje in zmanjšanje relevantnih tveganj sistemov UI za zdravje, varnost in temeljne pravice. Sistem obvladovanja tveganj bi bilo treba redno pregledovati in posodabljati, da bi zagotovili njegovo stalno učinkovitost ter utemeljitev in dokumentiranje vseh pomembnih odločitev in ukrepov, sprejetih v skladu s to uredbo. S tem postopkom bi bilo treba zagotoviti, da ponudnik opredeli tveganja ali škodljive vplive ter izvaja ukrepe za zmanjšanje znanih in razumno predvidljivih tveganj sistemov UI za zdravje, varnost in temeljne pravice glede na njihov predvideni namen in razumno predvidljivo napačno uporabo, vključno z morebitnimi tveganji, ki izhajajo iz interakcije med sistemom UI in okoljem, v katerem deluje. V okviru sistema obvladovanja tveganj bi bilo treba sprejeti najprimernejše ukrepe za obvladovanje tveganja glede na najsodobnejše tehnološke dosežke na področju UI. Ponudnik bi moral pri opredeljevanju najustreznejših ukrepov za obvladovanje tveganja dokumentirati in pojasniti sprejete odločitve ter po potrebi vključiti strokovnjake in zunanje deležnike. Pri identifikaciji razumno predvidljive napačne uporabe visoko tveganih sistemov UI bi moral ponudnik zajeti uporabe sistemov UI, za katere se kljub temu, da niso neposredno zajete s predvidenim namenom in določene v navodilih za uporabo, lahko razumno pričakuje, da bodo posledica enostavno predvidljivega človeškega vedenja v okviru posebnih značilnosti in uporabe določenega sistema UI. Vse znane ali predvidljive okoliščine, povezane z uporabo visokotveganega sistema UI v skladu s predvidenim namenom ali v razmerah razumno predvidljive napačne uporabe, ki lahko povzročijo tveganja za zdravje in varnost ali temeljne pravice, bi morale biti vključene v navodila za uporabo, ki jih zagotovi ponudnik. S tem se zagotovi, da je uvajalec seznanjen z njimi in jih upošteva pri uporabi visokotveganega sistema UI. Pri opredeljevanju in izvajanju ukrepov za zmanjšanje tveganja za predvidljivo napačno uporabo na podlagi te uredbe ponudnik v okviru obravnavanja predvidljive napačne uporabe ne bi smel zahtevati posebnega dodatnega učenja za visokotvegani sistem UI. Vendar se ponudnike spodbuja, naj po potrebi in če je to ustrezno razmislijo o takih dodatnih ukrepih za učenje, da bi ublažili razumno predvidljive napačne uporabe.
(66)
Na vysoce rizikové systémy AI by se měly vztahovat požadavky týkající se řízení rizik, kvality a významu použitých souborů dat, technické dokumentace a uchovávání záznamů, transparentnosti a poskytování informací zavádějícím subjektům, lidského dohledu a spolehlivosti, přesnosti a kybernetické bezpečnosti. Tyto požadavky jsou nezbytným předpokladem účinného zmírňování rizik pro zdraví, bezpečnost a základní práva. Jelikož nejsou žádná další opatření méně omezující obchod rozumně dostupná, tyto požadavky nejsou bezdůvodným omezením obchodu.
(66)
Za visokotvegane sisteme UI bi morale veljati zahteve glede obvladovanja tveganja, kakovosti in relevantnosti uporabljenih naborov podatkov, tehnične dokumentacije in vodenja evidenc, preglednosti in zagotavljanja informacij uvajalcem, človekovega nadzora ter robustnosti, točnosti in varnosti. Te zahteve so potrebne za učinkovito zmanjšanje tveganj za zdravje, varnost in temeljne pravice. Ker ni v razumni meri na voljo drugih manj omejevalnih ukrepov za trgovino, te zahteve ne predstavljajo neupravičene omejitve trgovine.
(67)
Při poskytování struktury a zajišťování výkonnosti celé řady systémů AI mají zásadní úlohu vysoce kvalitní data a přístup k nim, zejména pokud jsou používány techniky zahrnující trénování modelů s cílem zajistit, aby vysoce rizikový systém AI fungoval dle předpokladu a bezpečně a aby se nestal zdrojem diskriminace, kterou právo Unie zakazuje. Soubory vysoce kvalitních trénovacích, validačních a testovacích dat vyžadují zavedení vhodných postupů správy a řízení dat. Soubory trénovacích, validačních a testovacích dat, včetně štítků, by měly být relevantní, dostatečně reprezentativní a v nejvyšší možné míře bez chyb a úplné s ohledem na zamýšlený účel systému. Aby se usnadnil soulad s právem Unie v oblasti ochrany údajů, jako je nařízení (EU) 2016/679, měly by postupy správy a řízení dat v případě osobních údajů zahrnovat transparentnost původního účelu shromažďování údajů. Soubory dat by měly mít rovněž odpovídající statistické vlastnosti, a to i pokud jde o osoby nebo skupiny osob, ve vztahu k nimž má být vysoce rizikový systém AI používán, se zvláštním zaměřením na zmírnění možných zkreslení v souborech dat, které by mohly ovlivnit zdraví a bezpečnost osob, mít negativní dopad na základní práva nebo vést k diskriminaci zakázané právem Unie, zejména pokud výstupy dat ovlivňují vstupy pro budoucí operace (dále jen „smyčky zpětné vazby“). Zkreslení mohou být například inherentní součástí základních datových souborů, zejména pokud jsou používána historická data, která byla generována při zavádění systémů v reálných podmínkách.Výsledky poskytnuté systémy AI by mohly být ovlivněny takovýmito zkresleními, která mají tendenci se postupně zvyšovat, a tudíž zachovávat a posilovat existující diskriminaci, zejména v případě osob patřících k určitým zranitelným skupinám, včetně rasových nebo etnických skupin. Požadavek, aby soubory dat byly v nejvyšší možné míře úplné a bez chyb, by neměl mít vliv na používání technik ochrany soukromí v souvislosti s vývojem a testováním systémů AI. Soubory dat by měly především v rozsahu nezbytném pro jejich zamýšlený účel zohledňovat rysy, vlastnosti nebo prvky, které jsou specifické pro konkrétní zeměpisné, kontextuální, behaviorální nebo funkční prostředí, ve kterém má být systém AI používán. Požadavky týkající se správy dat lze splnit využitím služeb třetích stran, které nabízejí certifikované služby dodržování předpisů, včetně ověřování správy dat, integrity datového souboru a postupů trénování, validace a testování dat, pokud je zajištěn soulad s požadavky na data podle tohoto nařízení.
(67)
Visokokakovostni podatki in dostop do njih imajo ključno vlogo pri zagotavljanju strukture in zmogljivosti številnih sistemov UI, zlasti kadar se uporabljajo tehnike, ki vključujejo učenje modelov, s katerim bi zagotovili, da bo visokotvegani sistem UI deloval, kot je predvideno, in varno ter da ne bo postal vir diskriminacije, ki je prepovedana s pravom Unije. Visokokakovostni nabori učnih, testnih in validacijskih podatkov zahtevajo izvajanje ustreznih prakse vodenja in upravljanja podatkov. Nabori učnih, testnih in validacijskih podatkov, vključno z oznakami, bi morali biti ustrezni, dovolj reprezentativni in v največji možni meri brez napak in popolni glede na predvideni namen. Da bi olajšali skladnost s pravom Unije o varstvu podatkov, kot je Uredba (EU) 2016/679, bi morale prakse vodenja in upravljanja podatkov v primeru osebnih podatkov vključevati preglednost prvotnega namena zbiranja podatkov. Nabori podatkov bi morali imeti tudi ustrezne statistične lastnosti, tudi kar zadeva osebe ali skupine oseb, v zvezi s katerimi naj bi se uporabljal visokotvegani sistem UI, s posebnim poudarkom na zmanjševanju morebitnih pristranskosti v naborih podatkov, ki bi lahko vplivale na zdravje in varnost oseb, negativno vplivale na temeljne pravice ali povzročile diskriminacijo, prepovedano na podlagi prava Unije, zlasti kadar izhodni podatki vplivajo na vhodne podatke za prihodnje operacije (povratne zanke). Na primer, pristranskost je lahko inherentno prisotna v osnovnih naborih podatkov, zlasti kadar se uporabljajo pretekli podatki, ali se ustvari, ko se sistemi izvajajo v realnih razmerah. Takšna inherentna pristranskost bi lahko vplivala na rezultate sistemov UI in se tudi običajno postopoma povečuje, zaradi česar se ohranja in povečuje tudi obstoječa diskriminacija, zlasti za osebe, ki pripadajo določenim ranljivim skupinam, vključno z rasnimi ali etničnimi skupinami. Zahteva, da morajo biti nabori podatkov čim bolj popolni in brez napak, ne bi smela vplivati na uporabo tehnik za ohranjanje zasebnosti v okviru razvoja in testiranja sistemov UI. Nabori podatkov morali zlasti v obsegu, ki ga zahteva njihov predvideni namen, upoštevati lastnosti, značilnosti ali elemente, ki so značilni za določeno geografsko, kontekstualno, vedenjsko ali funkcionalno okolje, v katerem naj bi se uporabljal sistem UI. Zahteve v zvezi z upravljanjem podatkov se lahko izpolnijo s pomočjo tretjih oseb, ki ponujajo certificirane storitve zagotavljanja skladnosti s predpisi, vključno s preverjanjem upravljanja podatkov, celovitosti nabora podatkov, praks učenja, validacije in testiranja podatkov, če je zagotovljena skladnost z zahtevami glede podatkov iz te uredbe.
(68)
Při vývoji a posuzování vysoce rizikových systémů AI by některé subjekty, jako jsou poskytovatelé, oznámené subjekty a další příslušné subjekty, například evropská centra pro digitální inovace, pokusná zkušební zařízení a výzkumní pracovníci, měly mít přístup k vysoce kvalitním datovým souborům ve svých příslušných oborech činnosti, které souvisejí s tímto nařízením, a měly by je využívat. Zásadní význam pro zajištění důvěryhodného, odpovědného a nediskriminačního přístupu k vysoce kvalitním datům pro účely trénování, validace a testování systémů AI budou mít společné evropské datové prostory vytvořené Komisí, jakož i usnadnění sdílení údajů ve veřejném zájmu mezi podniky a s vládou. Například v oblasti zdraví umožní společný evropský prostor pro data z oblasti veřejného zdraví nediskriminační přístup k údajům o zdraví a trénování algoritmů AI na těchto souborech dat, a to způsobem, který bude chránit soukromí, bude bezpečný, včasný, transparentní a důvěryhodný a bude u něj zajištěna vhodná institucionální správa. Poskytování vysoce kvalitních dat pro účely trénování, validace a testování systémů AI mohou podporovat rovněž odpovídající příslušné orgány, včetně odvětvových, které poskytují nebo podporují přístup k datům.
(68)
Za razvoj in ocenjevanje visokotveganih sistemov UI bi morali imeti nekateri akterji, kot so ponudniki, priglašeni organi in drugi ustrezni subjekti, kot evropska vozlišča za digitalne inovacije, centri za testiranje in eksperimentiranje ter raziskovalci, možnost dostopa do visokokakovostnih naborov podatkov in njihove uporabe na ustreznih področjih dejavnosti, povezanih s to uredbo. Evropski skupni podatkovni prostori, ki jih je vzpostavila Komisija, ter olajšanje souporabe podatkov med podjetji in z vlado v javnem interesu bodo bistveni za zagotavljanje zaupanja vrednega, odgovornega in nediskriminatornega dostopa do visokokakovostnih podatkov za učenje, potrjevanje in testiranje sistemov UI. Evropski zdravstveni podatkovni prostor bo na področju zdravja na primer olajšal nediskriminatoren dostop do zdravstvenih podatkov in učenje algoritmov UI na teh naborih podatkov na varen, pravočasen, pregleden in zaupanja vreden način ter z ustreznim institucionalnim upravljanjem. Ustrezni pristojni organi, vključno s sektorskimi, ki zagotavljajo ali podpirajo dostop do podatkov, lahko podpirajo tudi zagotavljanje visokokakovostnih podatkov za učenje, validacijo in testiranje sistemov UI.
(69)
Během celého životního cyklu systému AI musí být zaručeno právo na soukromí a na ochranu osobních údajů. V tomto ohledu se při zpracování osobních údajů použijí zásady minimalizace údajů a záměrné a standardní ochrany údajů, jak jsou stanoveny v právu Unie v oblasti ochrany údajů. Opatření přijatá poskytovateli k zajištění souladu s těmito zásadami mohou zahrnovat nejen anonymizaci a šifrování, ale také používání technologie, která umožňuje vnášet algoritmy do dat a umožňuje trénování systémů AI bez předávání mezi stranami nebo kopírování samotných nezpracovaných nebo strukturovaných dat, aniž jsou dotčeny požadavky na správu dat stanovené v tomto nařízení.
(69)
Pravica do zasebnosti in varstva osebnih podatkov mora biti zagotovljena v celotni življenjski dobi sistema UI. V zvezi s tem se pri obdelavi osebnih podatkov uporabljata načeli najmanjšega obsega podatkov ter vgrajenega in privzetega varstva podatkov, kot sta določeni v pravu Unije o varstvu podatkov. Ukrepi, ki jih ponudniki sprejmejo za zagotovitev skladnosti s temi načeli, lahko vključujejo ne le anonimizacijo in šifriranje, temveč tudi uporabo tehnologije, ki omogoča vnos algoritmov v podatke in učenje sistemov UI brez prenosa med stranmi ali kopiranja samih neobdelanih ali strukturiranih podatkov in brez poseganja v zahteve glede upravljanja podatkov iz te uredbe.
(70)
V zájmu ochrany práva jiných osob před diskriminací, která by mohla vyplynout ze zkreslení v rámci systémů AI, by poskytovatelé v rozsahu nezbytně nutném pro účely zajištění odhalování a nápravy zkreslení ve vztahu k vysoce rizikovým systémům AI, s výhradou vhodných záruk chránících základní práva a svobody fyzických osob a po uplatnění všech platných podmínek stanovených v tomto nařízení vedle podmínek stanovených v nařízení (EU) 2016/679 a (EU) 2018/1725 a směrnici (EU) 2016/680, měli mít výjimečně možnost zpracovávat také zvláštní kategorie osobních údajů jako záležitost významného veřejného zájmu ve smyslu čl. 9 odst. 2 písm. g) nařízení (EU) 2016/679 a čl. 10 odst. 2 písm. g) nařízení (EU) 2018/1725.
(70)
Da bi zaščitili pravico drugih pred diskriminacijo, ki bi lahko nastala zaradi pristranskosti v sistemih UI, bi morali imeti ponudniki možnost, da izjemoma, če je to nujno potrebno za zagotavljanje odkrivanja in popravljanja pristranskosti v zvezi z visokotveganimi sistemi UI, ob upoštevanju ustreznih zaščitnih ukrepov za temeljne pravice in svoboščine fizičnih oseb ter ob uporabi vseh veljavnih pogojev iz te uredbe ter pogojev iz uredb (EU) 2016/679 in (EU) 2018/1725 ter Direktive (EU) 2016/680, obdelujejo tudi posebne kategorije osebnih podatkov kot zadevo bistvenega javnega interesa v smislu člena 9(2), točka (g), Uredbe (EU) 2016/679 in člena 10(2), točka (g), Uredbe (EU) 2018/1725.
(71)
Pro sledovatelnost těchto systémů, ověření souladu s požadavky tohoto nařízení, jakož i sledování jejich provozu a monitorování po uvedení na trh má zásadní význam, aby byly k dispozici srozumitelné informace o tom, jak byly vysoce rizikové systémy AI vytvořeny a jak fungují po celou dobu své životnosti. To vyžaduje vedení záznamů a dostupnost technické dokumentace obsahující informace nezbytné k posouzení souladu daného systému AI s příslušnými požadavky a usnadnění monitorování po uvedení na trh. Tyto informace by měly zahrnovat obecné vlastnosti, schopnosti a omezení tohoto systému, použité algoritmy, data, postupy při trénování, testování a validaci, jakož i dokumentaci příslušného systému řízení rizik, a měly by být vypracovány jasným a srozumitelným způsobem. Technická dokumentace by měla být řádně aktualizována po celou dobu životního cyklu systému AI. Kromě toho by vysoce rizikové systémy AI měly technicky umožňovat automatické zaznamenávání událostí prostřednictvím protokolů po celou dobu životnosti systému.
(71)
Razumljive informacije o tem, kako so bili visokotvegani sistemi UI razviti in kako delujejo skozi celotno življenjsko dobo, so bistvene za omogočanje sledljivosti teh sistemov, preverjanje skladnosti z zahtevami iz te uredbe ter spremljanje njihovega delovanja in spremljanje po dajanju na trg. To zahteva vodenje evidenc in razpoložljivost tehnične dokumentacije, ki vsebuje informacije, potrebne za oceno skladnosti sistema UI z ustreznimi zahtevami in olajšanje spremljanja po dajanju na trg. Takšne informacije bi morale vključevati splošne značilnosti, zmogljivosti in omejitve sistema, uporabljene algoritme, podatke, postopke učenja, testiranja in potrjevanja ter dokumentacijo o ustreznem sistemu obvladovanja tveganja in biti pripravljene v jasni in celoviti obliki. Tehnično dokumentacijo bi bilo treba ustrezno posodabljati v celotni življenjski dobi sistema UI. Poleg tega bi morali visokotvegani sistemi UI tehnično omogočati samodejno beleženje dogodkov z dnevniki v celotni življenjski dobi sistema.
(72)
S cílem řešit obavy týkající se neprůhlednosti a složitosti některých systémů AI a pomoci zavádějícím subjektům plnit jejich povinnosti podle tohoto nařízení by měla být vyžadována transparentnost u vysoce rizikových systémů AI před jejich uvedením na trh nebo do provozu. Vysoce rizikové systémy AI by měly být navrženy tak, aby zavádějícím subjektům umožnily pochopit, jak systém AI funguje, vyhodnotit jeho funkčnost a porozumět jeho silným stránkám a omezením. K vysoce rizikovým systémům AI by měly být přiloženy příslušné informace ve formě návodu k použití. Tyto informace by měly zahrnovat vlastnosti, schopnosti a omezení výkonnosti systému AI. Měly by obsahovat informace o možných známých a předvídatelných okolnostech souvisejících s používáním vysoce rizikového systému AI, včetně činnosti zavádějícího subjektu, která může ovlivnit chování a výkonnost systému, za nichž může systém AI vést k rizikům pro zdraví, bezpečnost a základní práva, o změnách, které poskytovatel předem stanovil a posoudil z hlediska shody, a o příslušných opatřeních v oblasti lidského dohledu, včetně opatření k usnadnění interpretace výstupů systému AI zavádějícími subjekty. Transparentnost, včetně přiloženého návodu k použití, by měla zavádějícím subjektům pomoci při používání systému a podporovat jejich informované rozhodování. Zavádějící subjekty by měly být mimo jiné lépe schopny správně zvolit systém, který mají v úmyslu používat, s ohledem na povinnosti, které se na ně vztahují, měly by být poučeny o zamýšleném a vyloučeném použití a měly by systém AI používat správně a podle potřeby. Pro zvýšení srozumitelnosti a přístupnosti informací uvedených v návodu k použití, by měly být případně uvedeny ilustrační příklady, například omezení a zamýšlená a vyloučená použití systému AI. Poskytovatelé by měli zajistit, aby veškerá dokumentace, včetně návodu k použití, obsahovala smysluplné, komplexní, přístupné a srozumitelné informace s přihlédnutím k potřebám a předvídatelným znalostem cílových zavádějících subjektů. Návod k použití by měl být k dispozici v jazyce, který je pro cílové zavádějící subjekty snadno srozumitelný, jak určí příslušný členský stát.
(72)
Pri reševanju problemov v zvezi z nepreglednostjo in kompleksnostjo nekaterih sistemov UI ter za pomoč uvajalcem pri izpolnjevanju njihovih obveznosti iz te uredbe bi bilo treba za visokotvegane sisteme UI zahtevati preglednost, preden se dajo na trg ali v uporabo. Visokotvegani sistemi UI bi morali biti zasnovani tako, da bi uvajalci lahko razumeli, kako sistem UI deluje, ocenili njegovo funkcionalnost ter razumeli njegove prednosti in omejitve. Visokotveganim sistemom UI bi morale biti priložene ustrezne informacije v obliki navodil za uporabo. Takšne informacije bi morale vključevati značilnosti, zmogljivosti in omejitve zmogljivosti sistema UI. Ti naj bi zajemali informacije o morebitnih znanih in predvidljivih okoliščinah, povezanih z uporabo visokotveganega sistema UI, vključno z ukrepi uvajalcev, ki lahko vplivajo na vedenje in zmogljivost sistema, v katerih lahko sistem UI povzroči tveganja za zdravje, varnost in temeljne pravice, o spremembah, ki jih je ponudnik vnaprej določil in ocenil glede skladnosti, ter o ustreznih ukrepih za človeški nadzor, vključno z ukrepi za lažjo razlago izhodnih podatkov sistema UI s strani uvajalcev. Preglednost, vključno s priloženimi navodili za uporabo, bi morala pomagati uvajalcem pri uporabi sistema in sprejemanju informiranih odločitev. Uvajalci bi morali biti med drugim v boljšem položaju za pravilno izbiro sistema, ki ga nameravajo uporabljati glede na obveznosti, ki veljajo zanje, biti poučeni o nameravani in izključeni uporabi ter pravilno in ustrezno uporabljati sistem UI. Da bi izboljšali čitljivost in dostopnost informacij, vključenih v navodila za uporabo, bi bilo treba, kadar je ustrezno vključiti ponazoritvene primere, na primer glede omejitev ter predvidene in izključene uporabe sistema UI. Ponudniki bi morali zagotoviti, da vsa dokumentacija, vključno z navodili za uporabo, vsebuje smiselne, celovite, dostopne in razumljive informacije, ob upoštevanju potreb in predvidljivega znanja ciljnih uvajalcev. Navodila za uporabo bi morala biti na voljo v jeziku, ki ga določi zadevna država članica in ga ciljni uvajalci brez težav razumejo.
(73)
Vysoce rizikové systémy AI by měly být navrhovány a vyvíjeny tak, aby na jejich fungování mohly dohlížet fyzické osoby, aby bylo zajištěno, že budou používány zamýšleným způsobem, a aby jejich dopady byly řešeny během celého životního cyklu systému. Za tímto účelem by měl poskytovatel systému před uvedením systému na trh nebo do provozu stanovit vhodná opatření lidského dohledu. Tato opatření by případně měla zajistit zejména, aby byla do systému zabudována provozní omezení, která samotný systém není schopen překonat a která reagují na lidskou obsluhu, a aby fyzické osoby, které byly lidským dohledem pověřeny, měly odbornou způsobilost, odbornou přípravu a pravomoci nezbytné k výkonu této funkce. Je rovněž nezbytné zajistit, aby vysoce rizikové systémy AI případně zahrnovaly mechanismy, které vedou a informují fyzickou osobu, jež byla lidským dohledem pověřena, aby mohla činit informovaná rozhodnutí, zda, kdy a jak zasáhnout, aby se zabránilo negativním důsledkům nebo rizikům, nebo systém zastavit, pokud nefunguje tak, jak má. Vzhledem k závažným důsledkům pro konkrétní osoby v případě nesprávné shody některých systémů biometrické identifikace je vhodné stanovit požadavek na posílený lidský dohled nad těmito systémy, aby zavádějící subjekt nemohl přijmout žádné opatření nebo rozhodnutí na základě identifikace vyplývající ze systému, pokud ji samostatně neověřily a nepotvrdily alespoň dvě fyzické osoby. Těmito osobami by mohli být zástupci jednoho nebo více subjektů a mohla by mezi ně patřit osoba, která systém provozuje nebo používá. Tento požadavek by neměl představovat zbytečnou zátěž nebo zdržení a mohlo by postačovat, aby byla samostatná ověření různými osobami automaticky zaznamenávána v protokolech generovaných systémem. Vzhledem ke zvláštnostem oblastí vymáhání práva, migrace, ochrany hranic a azylu by se tento požadavek neměl uplatňovat v případech, kdy právo Unie nebo vnitrostátní právo považuje uplatňování tohoto požadavku za nepřiměřené.
(73)
Visokotvegani sistemi UI bi morali biti zasnovani in razviti tako, da lahko fizične osebe nadzorujejo njihovo delovanje, zagotavljajo, da se uporabljajo, kot je bilo predvideno, in da se njihovi vplivi obravnavajo v celotnem življenjskem ciklu sistema. V ta namen bi moral ponudnik sistema pred dajanjem sistema na trg ali v uporabo določiti ustrezne ukrepe za človeški nadzor. Zlasti bi morali taki ukrepi, kadar je primerno, zagotavljati, da za sistem veljajo vgrajene operativne omejitve, ki jih sistem sam ne more razveljaviti, da se sistem odziva na človeškega operaterja ter da imajo fizične osebe, ki jim je bil dodeljen človekov nadzor, potrebne kompetence, usposobljenost in pooblastila za opravljanje te vloge. Prav tako je bistveno po potrebi zagotoviti, da visokotvegani sistemi UI vključujejo mehanizme za usmerjanje in obveščanje fizične osebe, ki ji je bil dodeljen človeški nadzor, za sprejemanje informiranih odločitev o tem, ali, kdaj in kako posredovati, da bi se izognili negativnim posledicam ali tveganjem, ali ustaviti sistem, če ne deluje, kot je bilo predvideno. Glede na pomembne posledice, ki jih napačno ujemanje v nekaterih sistemih za biometrično identifikacijo ljudi pomeni za osebe, je za te sisteme ustrezno določiti okrepljeno zahtevo po človekovem nadzoru, tako da uvajalec ne more sprejeti ukrepa ali odločitve na podlagi identifikacije, ki izhaja iz sistema, če tega nista ločeno preverili in potrdili vsaj dve fizični osebi. Ti osebi sta lahko iz enega ali več subjektov in vključujeta osebo, ki upravlja ali uporablja sistem. Ta zahteva ne bi smela ustvariti nepotrebnega bremena ali zamud, in lahko bi zadoščalo, da bi se ločena preverjanja različnih oseb samodejno zabeležila v dnevnikih, ki jih ustvari sistem. Glede na posebnosti področij preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, migracij, nadzora meje in azila se ta zahteva ne bi smela uporabljati, kadar je v skladu s pravom Unije ali nacionalnim pravom uporaba te zahteve nesorazmerna.
(74)
Vysoce rizikové systémy AI by měly po celou dobu svého životního cyklu fungovat konzistentně a splňovat příslušnou úroveň přesnosti, spolehlivosti a kybernetické bezpečnosti s ohledem na svůj zamýšlený účel a v souladu s obecně uznávaným nejnovějším vývojem. Komise a příslušné organizace a zúčastněné strany se vyzývají, aby náležitě zohledňovaly zmírnění rizik a negativních dopadů systémů AI. V přiloženém návodu k použití by měla být uvedena očekávaná úroveň metrik výkonnosti. Poskytovatelé se vyzývají, aby tyto informace zavádějícím subjektům sdělili jasným a snadno srozumitelným způsobem, bez nedorozumění nebo zavádějících prohlášení. Cílem práva Unie týkajícího se legální metrologie, včetně směrnic Evropského parlamentu a Rady 2014/31/EU (35) a 2014/32/EU (36), je zajistit přesnost měření a přispět k transparentnosti a poctivosti obchodních transakcí. V této souvislosti by Komise měla ve spolupráci s příslušnými zúčastněnými stranami a organizacemi, jako jsou metrologické a srovnávací orgány, případně podporovat vývoj referenčních hodnot a metodik měření pro systémy AI. Komise by přitom měla vzít na vědomí mezinárodní partnery pracující v oblasti metrologie a příslušných ukazatelů měření týkajících se AI a spolupracovat s nimi.
(74)
Visokotvegani sistemi UI bi morali v celotni življenjski dobi delovati dosledno ter izpolnjevati ustrezno raven točnosti, robustnosti in kibernetske varnosti glede na njihov predvideni namen in v skladu s splošno priznanimi najsodobnejšimi tehnološkimi dosežki. Komisijo ter ustrezne organizacije in deležnike se spodbuja, naj ustrezno upoštevajo zmanjšanje tveganj in negativne učinke sistema UI. Pričakovano raven metrik zmogljivosti bi bilo treba navesti v priloženih navodilih za uporabo. Ponudniki so pozvani, naj te informacije sporočijo uvajalcem na jasen in lahko razumljiv način, brez nesporazumov ali zavajajočih izjav. Namen prava Unije o zakonskem meroslovju, vključno z direktivama 2014/31/EU (35) in 2014/32/EU (36) Evropskega parlamenta in Sveta, je zagotoviti točnost meritev ter prispevati k preglednosti in poštenosti trgovinskih poslov. V zvezi s tem bi morala Komisija v sodelovanju z ustreznimi deležniki in organizacijami, kot so organi za meroslovje in primerjalno analizo, po potrebi spodbujati razvoj referenčnih vrednosti in metodologij merjenja za sisteme UI. Pri tem bi se morala Komisija seznaniti z mednarodnimi partnerji, ki se ukvarjajo z meroslovjem in ustreznimi kazalniki merjenja v zvezi z UI, ter z njimi sodelovati.
(75)
U vysoce rizikových systémů AI je klíčovým požadavkem technická spolehlivost. Tyto systémy by měly být odolné vůči škodlivému nebo jinak nežádoucímu chování, které může být důsledkem omezení uvnitř systémů nebo prostředí, v němž systémy fungují (např. chyby, závady, nesrovnalosti, neočekávané situace). Proto by měla být přijata technická a organizační opatření k zajištění spolehlivosti vysoce rizikových systémů AI, obnášející například navrhování a vývoj vhodných technických řešení pro prevenci nebo minimalizaci škodlivého nebo jinak nežádoucího chování. Tato technická řešení mohou zahrnovat například mechanismy umožňující systému bezpečně přerušit provoz (plány zajištění proti selhání) v přítomnosti určitých anomálií nebo v případě, že provoz probíhá mimo určité předem stanovené hranice. Neschopnost ochrany před těmito riziky by mohla vést k dopadům na bezpečnost nebo negativně ovlivnit základní práva, například v důsledku chybných rozhodnutí nebo nesprávných či zkreslených výstupů systému AI.
(75)
Tehnična robustnost je ključna zahteva za visokotvegane sisteme UI. Morali bi biti odporni na škodljivo ali kako drugače nezaželeno ravnanje, ki je lahko posledica omejitev znotraj sistema ali okolja, v katerem sistem deluje (npr. napake, okvare, nedoslednosti, nepričakovane situacije). Zato bi bilo treba sprejeti tehnične in organizacijske ukrepe za zagotovitev odpornosti visokotveganih sistemov UI, na primer z zasnovo in razvojem ustreznih tehničnih rešitev za preprečevanje ali zmanjšanje škodljivega ali drugače nezaželenega vedenja. Takšne tehnične rešitve lahko na primer vključujejo mehanizme, ki sistemu omogočajo varno prekinitev delovanja (načrti varne odpovedi), če so prisotne določene nepravilnosti ali delovanje poteka zunaj določenih vnaprej določenih meja. Neuspešna zaščita pred temi tveganji bi lahko imela varnostne posledice ali negativno vplivala na temeljne pravice, na primer zaradi napačnih odločitev ali napačnih ali pristranskih izhodnih podatkov, ki jih ustvari sistem UI.
(76)
Zásadní úlohu při zajišťování odolnosti systémů AI proti pokusům o změnu jejich použití, chování nebo výkonnosti nebo o ohrožení jejich bezpečnostních vlastností třetími stranami, které se škodlivým záměrem zneužívají zranitelných míst tohoto systému, hraje kybernetická bezpečnost. Kybernetické útoky na systémy AI mohou využívat aspekty, jež jsou pro AI specifické, například soubory trénovacích dat (například tzv. data poisoning) nebo trénované modely (například nepřátelské útoky nebo odvozování členství), nebo zneužívat slabých míst digitálních aktiv daného systému AI nebo příslušné infrastruktury IKT. Pro zajištění úrovně kybernetické bezpečnosti odpovídající těmto rizikům by proto poskytovatelé vysoce rizikových systémů AI měli přijmout vhodná opatření, jako jsou bezpečnostní kontroly, případně současně zohlednit i příslušnou infrastrukturu IKT.
(76)
Kibernetska varnost ima ključno vlogo pri zagotavljanju odpornosti sistemov UI proti poskusom spreminjanja njihove uporabe, vedenja, zmogljivosti ali ogrožanja njihovih varnostnih lastnosti s strani zlonamernih tretjih oseb, ki izkoriščajo šibke točke sistema. Kibernetski napadi na sisteme UI lahko izkoristijo posebna sredstva UI, kot so nabori učnih podatkov (npr. zastrupitev podatkov) ali naučeni modeli (npr. nasprotovalni napadi ali sklepanje o članstvu), ali pa šibke točke digitalnih sredstev sistema UI ali osnovne infrastrukture IKT. Da bi zagotovili raven kibernetske varnosti, ki ustreza tveganjem, bi morali ponudniki visokotveganih sistemov UI sprejeti ustrezne ukrepe, kot je varnostni nadzor, in pri tem po potrebi tudi upoštevati osnovne infrastrukture IKT.
(77)
Aniž jsou dotčeny požadavky týkající se spolehlivosti a přesnosti stanovené v tomto nařízení, mohou vysoce rizikové systémy AI, které spadají do oblasti působnosti nařízení Evropského parlamentu a Rady o horizontálních požadavcích na kybernetickou bezpečnost produktů s digitálními prvky, v souladu s uvedeným nařízením prokázat soulad s požadavky na kybernetickou bezpečnost podle tohoto nařízení splněním základních požadavků na kybernetickou bezpečnost stanoveným v uvedeném nařízení. Pokud vysoce rizikové systémy AI splňují základní požadavky nařízení Evropského parlamentu a Rady o horizontálních požadavcích na kybernetickou bezpečnost produktů s digitálními prvky, měly by být považovány za vyhovující požadavkům na kybernetickou bezpečnost stanoveným v tomto nařízení, pokud je splnění těchto požadavků prokázáno v EU prohlášení o shodě nebo jeho částech vydaném podle uvedeného nařízení. Za tímto účelem by posouzení kybernetických bezpečnostních rizik spojených s produktem s digitálními prvky klasifikovanými podle tohoto nařízení jako vysoce rizikový systém AI, prováděné podle nařízení Evropského parlamentu a Rady o horizontálních požadavcích na kybernetickou bezpečnost produktů s digitálními prvky, mělo zohlednit rizika pro kybernetickou odolnost systému AI, pokud jde o pokusy neoprávněných třetích stran změnit jeho používání, chování nebo výkonnost, včetně zranitelných míst specifických pro AI, jako jsou „tzv. data poisoning“ nebo nepřátelské útoky, jakož i příslušná rizika pro základní práva, jak vyžaduje toto nařízení.
(77)
Brez poseganja v zahteve v zvezi z robustnostjo in natančnostjo iz te uredbe se lahko skladnost visokotveganih sistemov UI, ki spadajo na področje uporabe uredbe Evropskega parlamenta in Sveta o horizontalnih zahtevah glede kibernetske varnosti za izdelke z digitalnimi elementi, v skladu z navedeno uredbo, z zahtevami glede kibernetske varnosti iz te uredbe dokaže z izpolnjevanjem bistvenih zahtev glede kibernetske varnosti iz navedene uredbe. Če visokotvegani sistemi UI izpolnjujejo bistvene zahteve iz uredbe o horizontalnih zahtevah glede kibernetske varnosti za izdelke z digitalnimi elementi, štejejo za skladne z zahtevami glede kibernetske varnosti iz te uredbe, če je izpolnjevanje navedenih zahtev dokazano v EU izjavi o skladnosti ali delih izjave, izdane na podlagi navedene uredbe. V ta namen bi bilo treba pri oceni tveganj za kibernetsko varnost, povezanih s proizvodom z digitalnimi elementi, razvrščenimi kot visokotvegani sistem UI v skladu s to uredbo, ki se izvede na podlagi uredbe o horizontalnih zahtevah glede kibernetske varnosti za izdelke z digitalnimi elementi, upoštevati tveganja za kibernetsko odpornost sistema UI na poskuse nepooblaščenih tretjih oseb, da z izkoriščanjem šibkih točk sistema spremenijo njegovo uporabo, vedenje ali zmogljivost, vključno s šibkimi točkami, ki so specifične za UI, kot so zastrupitev podatkov ali nasprotovalni napadi, ter v zvezi s tveganji za temeljne pravice, kot je zahtevano v tej uredbi.
(78)
Postup posuzování shody stanovený tímto nařízením by se měl použít ve vztahu k základním požadavkům na kybernetickou bezpečnost produktu s digitálními prvky, na něž se vztahuje nařízení Evropského parlamentu a Rady o horizontálních požadavcích na kybernetickou bezpečnost produktů s digitálními prvky a který je podle tohoto nařízení klasifikován jako vysoce rizikový systém AI. Toto pravidlo by však nemělo vést ke snížení potřebné míry jistoty u kritických produktů s digitálními prvky, na něž se vztahuje nařízení Evropského parlamentu a Rady o horizontálních požadavcích na kybernetickou bezpečnost produktů s digitálními prvky. Odchylně od tohoto pravidla se proto vysoce rizikové systémy AI, které spadají do oblasti působnosti tohoto nařízení a jsou rovněž považovány za důležité a kritické produkty s digitálními prvky podle nařízení Evropského parlamentu a Rady o horizontálních požadavcích na kybernetickou bezpečnost produktů s digitálními prvky, na něž se vztahuje postup posuzování shody založený na interní kontrole stanovený v příloze tohoto nařízení, řídí ustanoveními nařízení Evropského parlamentu a Rady o horizontálních požadavcích na kybernetickou bezpečnost produktů s digitálními prvky o posuzování shody, pokud jde o základní požadavky uvedeného nařízení na kybernetickou bezpečnost. V tomto případě by se na všechny ostatní aspekty, na něž se vztahuje toto nařízení, měla použít příslušná ustanovení o posuzování shody založená na interní kontrole uvedená v příloze tohoto nařízení. Na základě poznatků a odborných znalostí agentury ENISA týkajících se politiky kybernetické bezpečnosti a úkolů svěřených agentuře ENISA podle nařízení Evropského parlamentu a Rady 2019/881 (37) by Komise měla v otázkách souvisejících s kybernetickou bezpečností systémů AI s agenturou ENISA spolupracovat.
(78)
Postopek ugotavljanja skladnosti iz te uredbe bi bilo treba uporabljati v zvezi z bistvenimi zahtevami glede kibernetske varnosti proizvoda z digitalnimi elementi, ki jih zajema uredba o horizontalnih zahtevah glede kibernetske varnosti za izdelke z digitalnimi elementi in je razvrščen kot visokotvegani sistem UI na podlagi te uredbe. Vendar to pravilo ne bi smelo povzročiti znižanja potrebne ravni zanesljivosti za kritične proizvode z digitalnimi elementi, ki jih zajema uredba o horizontalnih zahtevah glede kibernetske varnosti za izdelke z digitalnimi elementi. Zato z odstopanjem od tega pravila za visokotvegane sisteme UI, ki spadajo na področje uporabe te uredbe in so opredeljeni tudi kot pomembni in kritični proizvodi z digitalnimi elementi na podlagi uredbe o horizontalnih zahtevah glede kibernetske varnosti za izdelke z digitalnimi elementi ter se zanje uporablja postopek ugotavljanja skladnosti na podlagi notranjega nadzora iz ene od prilog k tej uredbi, veljajo določbe o ugotavljanju skladnosti iz uredbe o horizontalnih zahtevah glede kibernetske varnosti za izdelke z digitalnimi elementi, kar zadeva bistvene zahteve glede kibernetske varnosti iz navedene uredbe. V tem primeru bi bilo treba za vse druge vidike, ki jih zajema ta uredba, uporabljati ustrezne določbe o ugotavljanju skladnosti na podlagi notranjega nadzora iz ene od prilog k tej uredbi. Komisija bi morala na podlagi poznavanja področja in strokovnega znanja agencije ENISA o politiki kibernetske varnosti in nalogah, dodeljenih agenciji ENISA na podlagi Uredbe (EU) 2019/881 Evropskega parlamenta in Sveta (37), sodelovati z agencijo ENISA pri vprašanjih, povezanih s kibernetsko varnostjo sistemov UI.
(79)
Je vhodné, aby za uvedení vysoce rizikového systému AI na trh nebo do provozu převzala odpovědnost konkrétní fyzická nebo právnická osoba definovaná jako poskytovatel bez ohledu na to, zda je tato fyzická nebo právnická osoba totožná s osobou, která tento systém navrhla nebo vyvinula.
(79)
Primerno je, da določena fizična ali pravna oseba, opredeljena kot ponudnik, prevzame odgovornost za dajanje visokotveganega sistema UI na trg ali v uporabo, ne glede na to, ali je ta oseba tista, ki je zasnovala ali razvila sistem.
(80)
Unie a členské státy jsou jakožto signatáři Úmluvy Organizace spojených národů o právech osob se zdravotním postižením ze zákona povinny chránit osoby se zdravotním postižením před diskriminací a podporovat jejich rovnost, zajistit, aby osoby se zdravotním postižením měly na rovnoprávném základě s ostatními přístup k informačním a komunikačním technologiím a systémům, a zaručit respektování soukromí osob se zdravotním postižením. Vzhledem k rostoucímu významu a nárůstu používání systémů AI by uplatňování zásad univerzálního designu na veškeré nové technologie a služby mělo zajistit plný a rovný přístup každému, na koho mohou mít technologie AI vliv nebo kdo je používá, včetně osob se zdravotním postižením, a to způsobem, který by plně zohlednil jejich přirozenou důstojnost a rozmanitost. Je proto nutné, aby poskytovatelé zajistili plný soulad s požadavky na přístupnost, včetně směrnice Evropského parlamentu a Rady (EU) 2016/2102 (38) a směrnice (EU) 2019/882. Poskytovatelé by měli zajistit soulad s těmito požadavky již od fáze návrhu. Nezbytná opatření by proto měla být v co největší míře začleněna již do návrhu vysoce rizikového systému AI.
(80)
Kot podpisnice Konvencije Organizacije združenih narodov o pravicah invalidov so Unija in države članice pravno zavezane, da ščitijo invalide pred diskriminacijo in spodbujajo njihovo enakost, jim zagotovijo, da imajo enako kot drugi dostop do informacijskih in komunikacijskih tehnologij in sistemov, ter da se spoštuje njihova zasebnost. Ob vse večjem pomenu in uporabi sistemov UI bi morala uporaba načel univerzalnega oblikovanja pri vseh novih tehnologijah in storitvah zagotoviti popoln in enakopraven dostop vsem, ki so lahko izpostavljeni tehnologijam UI ali te tehnologije uporabljajo, tudi invalidom, na način, ki v celoti upošteva njihovo prirojeno dostojanstvo in raznolikost. Zato je bistvenega pomena, da ponudniki zagotavljajo popolno skladnost z zahtevami glede dostopnosti, tudi z Direktivo (EU) 2016/2102 Evropskega parlamenta in Sveta (38) in Direktivo (EU) 2019/882. Ponudniki bi morali zagotoviti skladnost s temi zahtevami že pri zasnovi. Zato bi bilo treba potrebne ukrepe v čim večji meri vključiti v zasnovo visokotveganega sistema UI.
(81)
Poskytovatel by měl zavést spolehlivý systém řízení kvality, zajistit provedení požadovaného postupu posuzování shody, vypracovat příslušnou dokumentaci a zavést spolehlivý systém monitorování po uvedení na trh. Poskytovatelé vysoce rizikových systémů AI, na něž se vztahují povinnosti týkající se systémů řízení kvality podle příslušného odvětvového práva Unie, by měli mít možnost zahrnout prvky systému řízení kvality stanovené v tomto nařízení do stávajícího systému řízení kvality stanoveného v tomto jiném odvětvovém právu Unie. Doplňkovost mezi tímto nařízením a stávajícím odvětvovým právem Unie by měla být rovněž zohledněna v budoucích normalizačních činnostech nebo pokynech přijatých Komisí. Veřejné orgány, které uvádějí do provozu vysoce rizikové systémy AI pro vlastní potřebu, mohou přijímat a provádět pravidla pro systém řízení kvality jako součást systému řízení kvality přijatého na vnitrostátní nebo regionální úrovni, případně s přihlédnutím ke zvláštnostem daného odvětví a k pravomocím a organizaci dotyčného veřejného orgánu.
(81)
Ponudnik bi moral vzpostaviti zanesljiv sistem upravljanja kakovosti, zagotoviti izvedbo zahtevanega postopka ugotavljanja skladnosti, pripraviti ustrezno dokumentacijo in vzpostaviti robusten sistem spremljanja po dajanju na trg. Ponudniki visokotveganih sistemov UI, za katere veljajo obveznosti v zvezi s sistemi upravljanja kakovosti na podlagi ustreznega sektorskega prava Unije, bi morali imeti možnost, da elemente sistema upravljanja kakovosti iz te uredbe vključijo v obstoječi sistem upravljanja kakovosti, določen v navedenem drugem sektorskem pravu Unije. Pri prihodnjih dejavnostih standardizacije ali smernicah, ki jih sprejme Komisija, bi bilo treba upoštevati tudi dopolnjevanje med to uredbo in obstoječim sektorskim pravom Unije. Javni organi, ki visokotvegane sisteme UI dajo v uporabo za lastno uporabo, lahko sprejmejo in izvajajo pravila za sistem upravljanja kakovosti kot del sistema upravljanja kakovosti, sprejetega bodisi na nacionalni ali na regionalni ravni, ob upoštevanju posebnosti sektorja ter pristojnosti in organizacije zadevnega javnega organa.
(82)
Aby bylo umožněno prosazování tohoto nařízení a byly vytvořeny rovné podmínky pro provozovatele, a rovněž s přihlédnutím k různým formám zpřístupňování digitálních produktů je důležité zajistit, aby osoby usazené v Unii mohly za všech okolností poskytnout orgánům veškeré nezbytné informace o souladu systému AI. Poskytovatelé usazení ve třetích zemích by proto v případě, že dodávají do Unie systémy AI, měly předem jmenovat formou písemného pověření svého zplnomocněného zástupce usazeného v Unii. Tento zplnomocněný zástupce hraje klíčovou roli při zajišťování shody vysoce rizikových systémů AI uváděných na trh nebo do provozu v Unii uvedenými poskytovateli, kteří v Unii usazeni nejsou, a vystupuje jako jejich kontaktní osoba usazená v Unii.
(82)
Da se omogoči izvajanje te uredbe in ustvarijo enaki konkurenčni pogoji za operaterje ter ob upoštevanju različnih oblik omogočanja dostopnosti digitalnih proizvodov, je pomembno zagotoviti, da lahko oseba s sedežem v Uniji v vseh okoliščinah organom zagotovi vse potrebne informacije o skladnosti sistema UI. Zato bi morali ponudniki s sedežem v tretjih državah pred dajanjem svojih sistemov UI na voljo v Uniji, s pisnim pooblastilom imenovati pooblaščenega zastopnika s sedežem v Uniji. Ta pooblaščeni zastopnik ima ključno vlogo pri zagotavljanju skladnosti visokotveganih sistemov UI, ki jih ti ponudniki, ki nimajo sedeža v Uniji, dajejo na trg ali v uporabo v Uniji, in je njihova kontaktna oseba s sedežem v Uniji.
(83)
S ohledem na povahu a složitost hodnotového řetězce systémů AI a v souladu s novým legislativním rámcem je nezbytné zajistit právní jistotu a usnadnit soulad s tímto nařízením. Je proto zapotřebí vyjasnit úlohu a konkrétní povinnosti příslušných provozovatelů v celém tomto hodnotovém řetězci, jako jsou dovozci a distributoři, kteří mohou přispívat k vývoji systémů AI. V určitých situacích by tito provozovatelé mohli jednat ve více než jedné roli současně, a měli by proto kumulativně plnit všechny příslušné povinnosti spojené s těmito úlohami. Provozovatel by například mohl jednat současně jako distributor a dovozce.
(83)
Glede na naravo in kompleksnost verige vrednosti za sisteme UI ter v skladu z novim zakonodajnim okvirom je bistveno zagotoviti pravno varnost in olajšati skladnost s to uredbo. Zato je treba pojasniti vlogo in posebne obveznosti zadevnih operaterjev v tej verigi vrednosti, kot so uvozniki in distributerji, ki lahko prispevajo k razvoju sistemov UI. V nekaterih situacijah bi lahko ti operaterji imeli več kot eno vlogo hkrati in bi morali zato kumulativno izpolnjevati vse zadevne obveznosti, povezane s temi vlogami. Tako bi na primer operater lahko hkrati bil distributer in uvoznik.
(84)
V zájmu zajištění právní jistoty je nezbytné vyjasnit, že za určitých zvláštních podmínek by každý distributor, dovozce, zavádějící subjekt nebo jiná třetí strana měli být považováni za poskytovatele vysoce rizikového systému AI, a proto by měli převzít všechny příslušné povinnosti. Tak by tomu mělo být v případě, že daná strana připojí své jméno, název nebo ochrannou známku k vysoce rizikovému systému AI, který již byl uveden na trh nebo do provozu, aniž jsou dotčena smluvní ujednání stanovující jiné rozdělení povinností. Mělo by tomu tak být i v případě, kdy tato strana podstatně změní vysoce rizikový systém AI, který již byl uveden na trh nebo do provozu, přičemž v důsledku této změny daný systém AI zůstává vysoce rizikovým systémem AI v souladu tímto nařízením, nebo pokud změní zamýšlený účel systému AI, včetně obecného systému AI, který nebyl klasifikován jako vysoce rizikový a již byl uveden na trh nebo do provozu, přičemž v důsledku této změny se daný systém AI stává vysoce rizikovým systémem AI v souladu s tímto nařízením. Uvedená ustanovení by se měla použít, aniž by byla dotčena konkrétnější ustanovení zavedená v některých harmonizačních právních předpisech Unie založených na novém legislativním rámci, s nimiž by se toto nařízení mělo společně uplatňovat. Například čl. 16 odst. 2 nařízení (EU) 2017/745, kterým se stanoví, že některé změny by neměly být považovány za úpravy prostředku, které by mohly ovlivnit jeho soulad s platnými požadavky, by se měl i nadále vztahovat na vysoce rizikové systémy AI, které jsou zdravotnickými prostředky ve smyslu uvedeného nařízení.
(84)
Za zagotovitev pravne varnosti je treba pojasniti, da bi bilo treba pod določenimi pogoji vsakega distributerja, uvoznika, uvajalca ali druge tretje osebe šteti za ponudnika visokotveganega sistema UI in bi zato moral prevzeti vse zadevne obveznosti. To bi veljalo, če ta stranka svoje ime ali znamko vnese v visokotvegani sistem UI, ki je že dan na trg ali v uporabo, brez poseganja v pogodbene dogovore, ki določajo, da se obveznosti dodelijo drugače. To bi veljalo tudi, če ta stranka bistveno spremeni visokotvegani sistem UI, ki je že bil dan na trg ali v uporabo, na način, da ostane visokotvegani sistem UI v skladu s to uredbo, ali če spremeni predvideni namen sistema UI, vključno z sistemom UI za splošne namene, ki ni bil razvrščen kot sistem visokega tveganja in je že bil dan na trg ali v uporabo, na način, da sistem UI postane sistem visokega tveganja v skladu s to uredbo. Te določbe bi bilo treba uporabljati brez poseganja v bolj specifične določbe v okviru določene harmonizacijske zakonodaje, temelječe na novem zakonodajnem okviru, ki naj bi se uporabljala skupaj s to uredbo. Na primer člen 16(2) Uredbe (EU) 2017/745, v katerem je določeno, da nekatere spremembe ne bi smele šteti kot spremembe pripomočka, ki bi lahko vplivale na skladnost z veljavnimi zahtevami, bi bilo treba še naprej uporabljati za visokotvegane sisteme UI, ki so medicinski pripomočki v smislu navedene uredbe.
(85)
Obecné systémy AI mohou být samy o sobě používány jako vysoce rizikové systémy AI nebo mohou být součástí jiných vysoce rizikových systémů AI. Vzhledem k zvláštní povaze těchto systémů a v zájmu zajištění spravedlivého rozdělení odpovědností v celém hodnotovém řetězci AI bez ohledu na to, zda mohou být dané systémy jinými poskytovateli používány jako vysoce rizikové systémy AI jako takové, nebo jako součásti vysoce rizikových systémů AI, a není-li v tomto nařízení stanoveno jinak, měli by poskytovatelé těchto systémů úzce spolupracovat s poskytovateli příslušných vysoce rizikových systémů AI, aby mohli plnit příslušné povinnosti podle tohoto nařízení, a s příslušnými orgány zřízenými podle tohoto nařízení.
(85)
Sistemi UI za splošne namene se lahko uporabljajo kot samostojni visokotvegani sistemi UI ali pa so komponente drugih visokotveganih sistemov UI. Zato bi morali ponudniki takih sistemov zaradi njihove posebne narave in za zagotovitev pravične delitve odgovornosti v verigi vrednosti UI ne glede na to, ali lahko drugi ponudniki te sisteme uporabljajo kot samostojne visokotvegane sisteme UI ali kot komponente visokotveganih sistemov UI in če v tej uredbi ni določeno drugače, tesno sodelovati s ponudniki zadevnih visokotveganih sistemov UI, da bi jim omogočili izpolnjevanje obveznosti iz te uredbe, in s pristojnimi organi, ustanovljenimi na podlagi te uredbe.
(86)
Pokud by poskytovatel, který původně uvedl systém AI na trh nebo do provozu, za podmínek stanovených v tomto nařízení již neměl být považován za poskytovatele pro účely tohoto nařízení a pokud výslovně nevyloučil změnu systému AI na vysoce rizikový systém AI, měl by tento bývalý poskytovatel přesto úzce spolupracovat, zpřístupnit nezbytné informace a poskytnout rozumně očekávaný technický přístup a další pomoc, které jsou nezbytné pro splnění povinností stanovených v tomto nařízení, zejména pokud jde o soulad s posuzováním shody vysoce rizikových systémů AI.
(86)
Kadar na podlagi pogojev iz te uredbe ponudnik, ki je sistem UI prvotno dal na trg ali v uporabo, za namene te uredbe ne bi smel več šteti za ponudnika in če ta ponudnik ni izrecno izključil spremembe sistema UI v visokotvegani sistem UI, bi moral nekdanji ponudnik kljub temu tesno sodelovati in dati na voljo potrebne informacije ter zagotoviti razumno pričakovani tehnični dostop in drugo pomoč, ki so potrebni za izpolnjevanje obveznosti iz te uredbe, zlasti v zvezi s skladnostjo visokotveganih sistemov UI z ugotavljanjem skladnosti.
(87)
Kromě toho pokud vysoce rizikový systém AI, který je bezpečnostní komponentou produktu, jenž spadá do oblasti působnosti harmonizačních právních předpisů Unie založených na novém legislativním rámci, není uveden na trh nebo do provozu nezávisle na tomto produktu, měl by výrobce produktu definovaného v uvedených právních předpisech splňovat povinnosti poskytovatele stanovené v tomto nařízení, a zejména zajistit, aby systém AI zabudovaný do konečného produktu splňoval požadavky tohoto nařízení.
(87)
Poleg tega, kadar visokotvegani sistem UI, ki je varnostna komponenta proizvoda, ki spada na področje uporabe harmonizacijske zakonodaje Unije na podlagi novega zakonodajnega okvira, ni dan na trg ali v uporabo neodvisno od proizvoda, bi moral proizvajalec proizvoda, opredeljen v navedeni zakonodaji, izpolnjevati obveznosti ponudnika iz te uredbe in zlasti zagotoviti, da sistem UI, vgrajen v končni proizvod, izpolnjuje zahteve iz te uredbe.
(88)
V celém hodnotovém řetězci AI mnoho stran často dodává systémy, nástroje a služby AI, ale také komponenty nebo procesy, které poskytovatel začleňuje do systému AI s různými cíli, včetně trénování modelu, opětovného trénování modelu, testování a hodnocení modelu, integrace do softwaru nebo jiných aspektů vývoje modelu. Tyto strany hrají důležitou úlohu v hodnotovém řetězci ve vztahu k poskytovateli vysoce rizikového systému AI, do něhož jsou jejich systémy, nástroje, služby, součásti nebo procesy AI začleňovány, a měly by na základě písemné dohody tomuto poskytovateli poskytnout nezbytné informace, schopnosti, technický přístup a další pomoc na základě obecně uznávaného stavu techniky, aby poskytovatel mohl plně plnit povinnosti stanovené v tomto nařízení, aniž by byla ohrožena jejich práva duševního vlastnictví nebo obchodní tajemství.
(88)
V verigi vrednosti UI sisteme UI, orodja in storitve, pa tudi komponente ali procese, ki jih ponudnik vključi v sistem UI z različnimi cilji, vključno z učenjem modelov, ponovnim učenjem modelov, testiranjem in ocenjevanjem modelov, vključevanjem v programsko opremo ali drugimi vidiki razvoja modela, pogosto dobavlja več strani. Te strani imajo pomembno vlogo v verigi vrednosti v odnosu do ponudnika visokotveganega sistema UI, v katerega so vključeni njihovi sistemi UI, orodja, storitve, komponente ali procesi, in bi morale temu ponudniku v pisni obliki zagotoviti potrebne informacije, zmogljivosti, tehnični dostop in drugo pomoč na podlagi splošno priznanih najsodobnejših tehnoloških dosežkov, da bi lahko ponudnik v celoti izpolnjeval obveznosti iz te uredbe, ne da bi bile pri tem ogrožene njegove pravice intelektualne lastnine ali poslovne skrivnosti.
(89)
Třetí strany, které zpřístupňují veřejnosti nástroje, služby, procesy nebo součásti AI jiné než obecné modely AI, by neměly být povinny dodržovat požadavky vztahující se k odpovědnosti vůči celému hodnotovému řetězci AI, zejména vůči poskytovateli, který tyto nástroje, služby, procesy nebo součásti AI použil nebo začlenil, pokud jsou zpřístupněny na základě svobodné a otevřené licence. Vývojáři svobodných nástrojů, služeb, procesů nebo komponent AI a s otevřeným zdrojovým kódem jiných než obecné modely AI by měli být vybízeni, aby zavedli široce přijaté dokumentační postupy, například modelové karty a datové listy, jako způsob rychlejšího sdílení informací v celém hodnotovém řetězci AI, což umožní podporu důvěryhodných systémů AI v Unii.
(89)
Za tretje osebe, ki javnosti omogočajo dostop do orodij, storitev, postopkov ali komponent UI, ki niso modeli UI za splošne namene, ne bi smela veljati obveznost glede izpolnjevanja zahtev, ki se nanašajo na odgovornosti v verigi vrednosti UI, zlasti do ponudnika, ki jih je uporabil ali vključil, če so ta orodja, storitve, postopki ali komponente UI dostopni na podlagi proste in odprtokodne licence. Razvijalce brezplačnih in odprtokodnih orodij, storitev, postopkov ali komponent UI, ki niso modeli UI za splošne namene, pa bi bilo treba spodbujati k izvajanju splošno sprejetih dokumentacijskih praks, kot so vzorčne kartice in podatkovni listi, da bi pospešili izmenjavo informacij v verigi vrednosti UI, kar bi omogočilo spodbujanje zaupanja vrednih sistemov UI v Uniji.
(90)
Komise by mohla vypracovat a doporučit dobrovolné vzorové smluvní podmínky mezi poskytovateli vysoce rizikových systémů AI a třetími stranami, které dodávají nástroje, služby, komponenty nebo procesy, jež jsou ve vysoce rizikových systémech AI používány nebo jsou do nich integrovány, a v celém hodnotovém řetězci tak usnadnit spolupráci. Při vypracovávání dobrovolných vzorových smluvních podmínek by Komise měla také zohlednit možné smluvní požadavky použitelné v konkrétních odvětvích nebo obchodních případech.
(90)
Komisija bi lahko razvila in priporočila prostovoljne vzorčne pogodbene pogoje med ponudniki visokotveganih sistemov UI in tretjimi osebami, ki zagotavljajo orodja, storitve, komponente ali procese, ki se uporabljajo ali vključujejo v visokotvegane sisteme UI, da bi olajšali sodelovanje v verigi vrednosti. Komisija bi morala pri oblikovanju prostovoljnih vzorčnih pogodbenih pogojev upoštevati morebitne pogodbene zahteve, ki se uporabljajo v posameznih sektorjih ali poslovnih primerih.
(91)
Vzhledem k povaze systémů AI a rizikům z hlediska bezpečnosti a základních práv, která mohou souviset s jejich používáním, a to i pokud jde o potřebu zajistit řádné monitorování výkonnosti daného systému AI v reálných podmínkách, je vhodné stanovit konkrétní odpovědnost zavádějících subjektů. Zavádějící subjekty by zejména měly přijmout vhodná technická a organizační opatření, aby zajistily, že budou vysoce rizikové systémy AI používat v souladu s návodem k použití, a měly by být stanoveny některé další povinnosti týkající se monitorování fungování systémů AI a případně uchovávání záznamů. Zavádějící subjekty by dále měly zajistit, aby osoby pověřené uplatňováním návodů k použití a lidským dohledem, jak je stanoveno v tomto nařízení, měly nezbytnou způsobilost, zejména odpovídající úroveň gramotnosti, odborné přípravy a pravomoci v oblasti AI, aby mohly tyto úkoly řádně plnit. Těmito povinnostmi by neměly být dotčeny jiné povinnosti zavádějících subjektů v souvislosti s vysoce rizikovými systémy AI podle práva Unie nebo vnitrostátního práva.
(91)
Glede na naravo sistemov UI ter tveganja za varnost in temeljne pravice, ki so morda povezana z njihovo uporabo, tudi kar zadeva potrebo po zagotovitvi ustreznega spremljanja zmogljivosti sistema UI v realnem življenju, je primerno določiti posebne odgovornosti za uvajalce. Uvajalci bi morali zlasti sprejeti ustrezne tehnične in organizacijske ukrepe za zagotovitev, da uporabljajo visokotvegane sisteme UI v skladu z navodili za uporabo, pri čemer bi bilo treba določiti nekatere druge obveznosti v zvezi s spremljanjem delovanja sistemov UI in v zvezi z vodenjem evidenc, če je to primerno. Poleg tega bi morali uvajalci zagotoviti, da imajo osebe, dodeljene za izvajanje navodil za uporabo in človeški nadzor, kot je določeno v tej uredbi, potrebne kompetence, zlasti ustrezno raven pismenosti, usposobljenosti in pooblastil na področju UI za pravilno izpolnjevanje teh nalog. Te obveznosti ne bi smele posegati v druge obveznosti uvajalcev v zvezi z visokotveganimi sistemi UI na podlagi prava Unije ali nacionalnega prava.
(92)
Tímto nařízením nejsou dotčeny povinnosti zaměstnavatelů týkající se informování zaměstnanců nebo informování zaměstnanců a projednávání se zaměstnanci nebo jejich zástupci podle práva a praxe Unie nebo vnitrostátního práva a praxe, včetně směrnice Evropského parlamentu a Rady 2002/14/ES (39), o rozhodnutích o uvedení do provozu nebo používání systémů AI. Je i nadále nezbytné zajistit informování zaměstnanců a jejich zástupců o plánovaném zavádění vysoce rizikových systémů AI na pracovišti v případech, kdy nejsou splněny podmínky pro tyto povinnosti týkající se informování nebo informování a projednávání stanovené v jiných právních nástrojích. Toto právo na informace je navíc doplňkové a nezbytné k dosažení cíle ochrany základních práv, na němž je toto nařízení založeno. Proto by měl být v tomto nařízení stanoven požadavek na informování, aniž by byla dotčena stávající práva zaměstnanců.
(92)
Ta uredba ne posega v obveznosti delodajalcev, da delavce ali njihove predstavnike obveščajo ali se z njimi posvetujejo na podlagi prava Unije ali nacionalnega prava in prakse, vključno z Direktivo 2002/14/ES Evropskega parlamenta in Sveta (39) o odločitvah o dajanju v uporabo ali uporabi sistemov UI. Še naprej je treba zagotavljati informacije delavcem in njihovim predstavnikom o načrtovani uvedbi visokotveganih sistemov UI na delovnem mestu, kadar niso izpolnjeni pogoji za te obveznosti glede obveščanja ali obveščanja in posvetovanja iz drugih pravnih instrumentov. Poleg tega je taka pravica do obveščenosti pomožna in potrebna za cilj varstva temeljnih pravic, na katerem temelji ta uredba. Zato bi bilo treba v tej uredbi določiti zahtevo po informacijah v ta namen, ne da bi to vplivalo na obstoječe pravice delavcev.
(93)
Rizika spojená se systémy AI mohou vyplývat ze způsobu, jakým jsou tyto systémy navrhovány, avšak mohou rovněž vzniknout v souvislosti s tím, jak jsou tyto systémy používány. Subjekty zavádějící vysoce rizikový systém AI proto hrají zásadní úlohu při zajišťování ochrany základních práv a doplňují povinnosti poskytovatele při vývoji systému AI. Zavádějící subjekty mají nejlepší předpoklady k tomu, aby posoudily, jak bude vysoce rizikový systém AI konkrétně používán, a mohou proto identifikovat potenciální rizika, která se ve fázi vývoje nepředpokládala, a to díky přesnější znalosti kontextu používání a osob nebo skupin osob, na které bude mít systém pravděpodobně dopad, včetně zranitelných skupin. Subjekty zavádějící vysoce rizikové systémy AI uvedené v příloze tohoto nařízení rovněž hrají zásadní úlohu při informování fyzických osob a měly by při přijímání rozhodnutí nebo pomoci při přijímání rozhodnutí týkajících se fyzických osob v příslušných případech tyto fyzické osoby informovat, že jsou použití vysoce rizikového systému AI vystaveny. Tyto informace by měly zahrnovat zamýšlený účel a druh přijímaných rozhodnutí. Zavádějící subjekt by měl rovněž informovat danou fyzickou osobu o jejím právu na vysvětlení uvedeném v tomto nařízení. Pokud jde o vysoce rizikové systémy AI používané pro účely vymáhání práva, měla by být tato povinnost provedena v souladu s článkem 13 směrnice (EU) 2016/680.
(93)
Poleg tega, da lahko tveganja, povezana s sistemi UI, nastanejo zaradi načina zasnove takih sistemov, lahko tveganja izvirajo tudi iz tega, kako se taki sistemi uporabljajo. Uvajalci visokotveganega sistema UI imajo zato ključno vlogo pri skrbi za zaščito temeljnih pravic, kar dopolnjuje obveznosti ponudnika pri razvoju sistema UI. Uvajalci najbolje razumejo, kako se bo visokotvegani sistem UI dejansko uporabljal, in lahko tako opredelijo potencialna velika tveganja, ki niso bila predvidena v fazi razvoja, saj natančneje poznajo okoliščine uporabe, osebe ali skupine oseb, ki bodo verjetno izpostavljene, vključno z ranljivimi skupinami. Uvajalci visokotveganih sistemov UI, navedeni v eni od prilog k tej uredbi, imajo tudi ključno vlogo pri obveščanju fizičnih oseb in bi morali pri sprejemanju odločitev ali pomoči pri sprejemanju odločitev v zvezi s fizičnimi osebami po potrebi obvestiti fizične osebe, da se zanje uporablja visokotvegani sistem UI. Te informacije bi morale vključevati njegov predvideni namen in vrsto odločitev, ki jih sprejema. Uvajalec bi moral fizične osebe obvestiti tudi o njihovi pravici do obrazložitve iz te uredbe. Kar zadeva visokotvegane sisteme UI, ki se uporabljajo za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, bi bilo treba to obveznost izvajati v skladu s členom 13 Direktive (EU) 2016/680.
(94)
Jakékoli zpracování biometrických údajů související s používáním systémů AI pro biometrickou identifikaci pro účely vymáhání práva musí být v souladu s článkem 10 směrnice (EU) 2016/680, který takové zpracování povoluje pouze ve zcela nezbytných případech, s výhradou vhodných záruk pro práva a svobody subjektů údajů, a pokud je povoleno právem Unie nebo členského státu. Je-li takové použití povoleno, musí rovněž splňovat zásady stanovené v čl. 4 odst. 1 směrnice (EU) 2016/680, včetně zákonnosti, spravedlnosti a transparentnosti, účelového omezení, přesnosti a omezení uložení.
(94)
Vsaka obdelava biometričnih podatkov, vključena v uporabo sistemov UI za biometrično identifikacijo za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, mora biti skladna s členom 10 Direktive (EU) 2016/680, ki omogoča tako obdelavo le, kadar je to nujno potrebno, ob upoštevanju ustreznih zaščitnih ukrepov za pravice in svoboščine posameznika, na katerega se nanašajo osebni podatki, in kadar je to dovoljeno v skladu s pravom Unije ali pravom države članice. Kadar je taka uporaba odobrena, je treba spoštovati tudi načela iz člena 4(1) Direktive (EU) 2016/680, vključno z zakonitostjo, pravičnostjo in preglednostjo, omejitvijo namena, točnostjo in omejitvijo shranjevanja.
(95)
Aniž je dotčeno platné právo Unie, zejména nařízení (EU) 2016/679 a směrnice (EU) 2016/680, vzhledem k rušivé povaze systémů následné biometrické identifikace na dálku by používání systémů následné biometrické identifikace na dálku mělo podléhat zárukám. Systémy následné biometrické identifikace by měly být vždy používány způsobem, který je přiměřený, legitimní a nezbytně nutný, a tudíž cílený, pokud jde o osoby, které mají být identifikovány, místo, časový rozsah, a založeny na uzavřeném souboru údajů legálně získaných videozáznamů. V žádném případě by systémy následné biometrické identifikace na dálku neměly být používány v rámci vymáhání práva, aby vedly k nerozlišujícímu sledování. Podmínky pro následnou biometrickou identifikaci na dálku by v žádném případě neměly sloužit jako základ pro obcházení podmínek zákazu a přísných výjimek pro biometrickou identifikaci na dálku v reálném čase.
(95)
Brez poseganja v veljavno pravo Unije, zlasti v Uredbo (EU) 2016/679 in Direktivo (EU) 2016/680, in ob upoštevanju intruzivne narave sistemov za naknadno biometrično identifikacijo na daljavo, bi bilo treba za uporabo sistemov za naknadno biometrično identifikacijo na daljavo uporabljati zaščitne ukrepe. Sisteme za naknadno biometrično identifikacijo na daljavo bi bilo treba vedno uporabljati na način, ki je sorazmeren, zakonit in nujno potreben ter tako ciljno usmerjen v smislu posameznikov, ki jih je treba identificirati, lokacije, časovnega obsega in na podlagi zaprtega nabora podatkov iz zakonito pridobljenih videoposnetkov. V nobenem primeru sistemov za naknadno biometrično identifikacijo na daljavo ne bi smeli uporabljati v okviru preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, da ne bi povzročili neselektivnega nadzora. Pogoji za naknadno biometrično identifikacijo na daljavo v nobenem primeru ne bi smeli biti podlaga za izogibanje pogojem prepovedi in strogim izjemam za biometrično identifikacijo na daljavo v realnem času.
(96)
Aby byla účinně zajištěna ochrana základních práv, měly by subjekty zavádějící vysoce rizikové systémy AI, které jsou veřejnoprávními subjekty, nebo soukromé subjekty poskytující veřejné služby a subjekty zavádějící určité vysoce rizikové systémy AI uvedené v příloze tohoto nařízení, jako jsou bankovní nebo pojišťovací subjekty, provést před jejich uvedením do provozu posouzení dopadů na základní práva. Služby důležité pro jednotlivce, které jsou veřejné povahy, mohou poskytovat i soukromé subjekty. Soukromé subjekty poskytující takové veřejné služby jsou spojeni s úkoly ve veřejném zájmu, například v oblastech vzdělávání, zdravotní péče, sociálních služeb, bydlení či výkonu spravedlnosti. Cílem posouzení dopadů na základní práva je, aby zavádějící subjekt určil konkrétní rizika pro práva jednotlivců nebo skupin jednotlivců, která mohou být dotčena, a určil opatření, která je třeba přijmout v případě naplnění tohoto rizika. Posouzení dopadů by mělo být provedeno před prvním zavedením vysoce rizikového systému AI a mělo by být aktualizováno, pokud se zavádějící subjekt domnívá, že se kterýkoli z relevantních faktorů změnil. Posouzení dopadů by mělo určit příslušné procesy zavádějícího subjektu, v nichž bude vysoce rizikový systém AI používán v souladu s jeho zamýšleným účelem, a mělo by zahrnovat popis časového období a četnosti, v nichž má být systém používán, jakož i konkrétní kategorie fyzických osob a skupin, které budou pravděpodobně dotčeny v konkrétním kontextu použití. Posouzení by mělo rovněž zahrnovat identifikaci konkrétních rizik újmy, která by mohla mít dopad na základní práva těchto osob nebo skupin. Při provádění tohoto posouzení by měl zavádějící subjekt zohlednit informace relevantní pro řádné posouzení dopadu, mimo jiné včetně informací uvedených poskytovatelem vysoce rizikového systému AI v návodu k použití. S ohledem na zjištěná rizika by zavádějící subjekty měly určit opatření, která je třeba přijmout v případě naplnění těchto rizik, například systémy správy a řízení v tomto konkrétním kontextu použití včetně opatření pro lidský dohled v souladu s návodem k použití nebo postupů pro vyřizování stížností a zjednávání nápravy, neboť taková opatření by mohla přispět ke zmírnění rizik pro základní práva v konkrétních případech použití. Po provedení tohoto posouzení dopadů by měl zavádějící subjekt informovat příslušný orgán dozoru nad trhem. Za účelem shromáždění relevantních informací nezbytných k provedení posouzení dopadů by subjekty zavádějící vysoce rizikový systém AI, zejména pokud jsou systémy AI používány ve veřejném sektoru, mohly do provádění těchto posouzení dopadů a navrhování opatření, která je třeba přijmout v případě naplnění rizik, případně zapojit příslušné zúčastněné strany, včetně zástupců skupin osob, které by mohly být systémem AI dotčeny, nezávislých odborníků a organizací občanské společnosti. Evropský úřad pro umělou inteligenci (dále jen „úřad pro AI“) by měl vypracovat vzor dotazníku s cílem usnadnit dodržování předpisů a snížit administrativní zátěž pro zavádějící subjekty.
(96)
Da bi učinkovito zagotovili varstvo temeljnih pravic, bi morali uvajalci visokotveganih sistemov UI, ki so osebe javnega prava, ali zasebni subjekti, ki zagotavljajo javne storitve, in uvajalci, ki uporabljajo nekatere visokotvegane sisteme UI, navedene v eni od prilog k tej uredbi, kot so bančni ali zavarovalniški subjekti, pred začetkom uporabe izvesti oceno učinka na temeljne pravice. Storitve, pomembne za posameznike, ki so javne narave, lahko zagotavljajo tudi zasebni subjekti. Zasebni subjekti, ki zagotavljajo takšne javne storitve, so povezani z nalogami v javnem interesu, na primer na področjih izobraževanja, zdravstvenega varstva, socialnih storitev, stanovanj in razsojanja. Cilj ocene učinka na temeljne pravice je, da uvajalec opredeli posebna tveganja za pravice posameznikov ali skupin posameznikov, ki bodo verjetno izpostavljene, in ukrepe, ki jih je treba sprejeti v primeru uresničitve teh tveganj. Oceno učinka bi bilo treba opraviti pred uvedbo visokotveganega sistema UI in bi jo bilo treba posodobiti, kadar uvajalec meni, da se je spremenil kateri od pomembnih dejavnikov. V oceni učinka bi bilo treba opredeliti ustrezne procese uvajalca, v katerih se bo visokotvegani sistem UI uporabljal v skladu s predvidenim namenom, ter opis obdobja in pogostosti uporabe sistema ter posebnih kategorij fizičnih oseb in skupin, ki bodo verjetno izpostavljene v posebnih okoliščinah uporabe. Ocena bi morala vključevati tudi opredelitev posebnih tveganj škode, ki bi lahko vplivala na temeljne pravice teh oseb ali skupin. Da bi zagotovili pravilno izvedbo te ocene učinka, bi moral uvajalec pri njenem izvajanju upoštevati ustrezne informacije, med drugim tudi tiste, ki jih ponudnik visokotveganega sistema UI navede v navodilih za uporabo. Glede na ugotovljena tveganja bi morali uvajalci določiti ukrepe, ki jih je treba sprejeti v primeru uresničitve teh tveganj, vključno na primer z ureditvami upravljanja v tem posebnem okviru uporabe, kot so ureditve za človeški nadzor v skladu z navodili za uporabo ali obravnavanje pritožb in postopki pravnega varstva, saj bi lahko bili ključni za zmanjšanje tveganj za temeljne pravice v konkretnih primerih uporabe. Po izvedbi te ocene učinka bi moral uvajalec o tem obvestiti ustrezni organ za nadzor trga. Za zbiranje ustreznih informacij, potrebnih za izvedbo ocene učinka, bi lahko uvajalci visokotveganega sistema UI, zlasti kadar se sistemi UI uporabljajo v javnem sektorju, v izvajanje takih ocen učinka in oblikovanje ukrepov, ki jih je treba sprejeti v primeru uresničitve tveganj, po potrebi vključili ustrezne deležnike, vključno s predstavniki skupin oseb, na katere bo sistem UI verjetno vplival, neodvisne strokovnjake in organizacije civilne družbe. Evropski urad za umetno inteligenco (v nadaljnjem besedilu: Urad za UI) bi moral pripraviti predlogo vprašalnika, da bi olajšali skladnost in zmanjšali upravno breme za uvajalce.
(97)
Měl by být jasně definován pojem „obecné modely AI“ a měl by být odlišen od pojmu „systémy AI“, aby byla zajištěna právní jistota. Definice by měla být založena na klíčových funkčních vlastnostech obecného modelu AI, zejména na obecnosti a schopnosti kompetentně plnit širokou škálu různých úkolů. Tyto modely jsou obvykle trénovány na velkém množství dat, a to prostřednictvím různých metod, jako je učení s učitelem, bez učitele nebo posilované učení. Obecné modely AI mohou být uváděny na trh různými způsoby, mimo jiné prostřednictvím knihoven, aplikačních programovacích rozhraní (API), jako přímé stahování nebo jako fyzická kopie. Tyto modely lze dále upravovat nebo dolaďovat do nových modelů. Ačkoli jsou modely AI základními součástmi systémů AI, nepředstavují samy o sobě systémy AI. Modely AI vyžadují doplnění dalších součástí, jako je například uživatelské rozhraní, aby se z nich staly systémy AI. Modely AI jsou obvykle začleněny do systémů AI a tvoří jejich součást. Toto nařízení stanoví zvláštní pravidla pro obecné modely AI a pro obecné modely AI, které představují systémová rizika, jež by se měla použít i v případě, že jsou tyto modely začleněny nebo jsou součástí systému AI. Mělo by se mít za to, že povinnosti poskytovatelů obecných modelů AI by měly platit, jakmile budou obecné modely AI uvedeny na trh. Pokud poskytovatel obecného modelu AI do svého vlastního systému AI, který je dodáván na trh nebo uváděn do provozu, začlení vlastní model, měl by být tento model považován za uvedený na trh, a proto by se kromě povinností pro systémy AI měly i nadále uplatňovat povinnosti stanovené v tomto nařízení pro modely. Povinnosti stanovené pro modely by se v žádném případě neměly vztahovat na případy, kdy se vlastní model používá pro čistě interní postupy, které nejsou nezbytné pro poskytování produktu nebo služby třetím stranám, a kdy nejsou dotčena práva fyzických osob. Vzhledem k jejich možným výrazně negativním účinkům by se na obecné modely AI se systémovým rizikem vždy měly vztahovat příslušné povinnosti podle tohoto nařízení. Definice by se neměla vztahovat na modely AI používané před jejich uvedením na trh výhradně za účelem výzkumu, vývoje a tvorby prototypů. Tím není dotčena povinnost dodržovat toto nařízení, pokud je model v návaznosti na tyto činnosti na trh uveden.
(97)
Da bi omogočili pravno varnost, bi moral biti pojem modelov UI za splošne namene jasno opredeljen in ločen od pojma sistemov UI. Opredelitev bi morala temeljiti na ključnih funkcionalnih značilnostih modela UI za splošne namene, zlasti na splošnosti in sposobnosti opravljanja širokega nabora različnih nalog. Ti modeli se običajno učijo s pomočjo velikih količin podatkov z različnimi metodami, kot so samonadzorovano, nenadzorovano ali okrepljeno učenje. Modeli UI za splošne namene se lahko dajo na trg na različne načine, tudi prek knjižnic, vmesnikov za aplikacijsko programiranje (API), kot neposredni prenos ali kot fizična kopija. Ti modeli se lahko dodatno spremenijo ali prilagodijo novim modelom. Čeprav so modeli UI bistvene komponente sistemov UI, sami po sebi niso sistemi UI. Da bi modeli UI postali sistemi UI, jim je treba dodati dodatne komponente, kot je na primer uporabniški vmesnik. Modeli UI so običajno vključeni v sisteme UI in so njihov sestavni del. V tej uredbi so določena posebna pravila za modele UI za splošne namene in modele UI za splošne namene, ki predstavljajo sistemska tveganja, ki bi jih bilo treba uporabljati tudi, kadar so ti modeli vključeni v sistem UI ali tvorijo del sistema UI. Razumeti bi bilo treba, da bi bilo treba obveznosti ponudnikov modelov UI za splošne namene uporabljati, ko bodo ti modeli dani na trg. Če ponudnik modela UI za splošne namene vključi lastni model v svoj sistem UI, ki je dostopen na trgu ali je v uporabi, bi bilo treba šteti, da je ta model dan na trg, zato bi bilo treba še naprej uporabljati obveznosti iz te uredbe za modele, poleg tistih za sisteme UI. Obveznosti, ki so določene za modele, se v nobenem primeru ne bi smeli uporabljati, če se lastni model uporablja za izključno notranje postopke, ki niso bistveni za zagotavljanje proizvoda ali storitve tretjim osebam, in to ne vpliva na pravice fizičnih oseb. Glede na njihove morebitne znatne negativne učinke bi morale za modele UI za splošne namene s sistemskim tveganjem vedno veljati ustrezne obveznosti iz te uredbe. Opredelitev ne bi smela zajemati modelov UI, ki se uporabljajo pred dajanjem na trg izključno za namene raziskav, razvoja in izdelave prototipov. To ne posega v obveznost skladnosti s to uredbo, kadar se po takšnih dejavnostih model da na trg.
(98)
Jelikož obecná povaha modelu by mohla být mimo jiné určena také počtem parametrů, modely s alespoň miliardou parametrů a trénované s velkým množstvím dat za použití rozsáhlé sebekontroly by měly být považovány za modely, které vykazují značnou obecnost a kompetentně plní širokou škálu specifických úkolů.
(98)
Medtem ko bi bilo mogoče splošnost modela med drugim določiti tudi s številnimi parametri, bi bilo treba šteti, da modeli z vsaj milijardo parametrov in naučeni z veliko količino podatkov, ki uporabljajo samonadzor v velikem obsegu, kažejo znatno splošnost in so sposobni kompetentno opravljati širok nabor različnih nalog.
(99)
Typickým příkladem obecného modelu AI jsou velké generativní modely AI, umožňující flexibilní tvorbu obsahu (například ve formě textu, zvuku, obrázků nebo videa), který může snadno plnit širokou škálu specifických úkolů.
(99)
Veliki generativni modeli UI so tipičen primer modela UI za splošne namene, saj omogočajo prilagodljivo ustvarjanje vsebin, kot so besedilo, zvočni zapisi, slike ali videoposnetki, ki se lahko zlahka prilagodijo širokemu spektru različnih nalog.
(100)
Je-li obecný model AI začleněn do systému AI nebo je jeho součástí, měl by být tento systém považován za obecný systém AI, pokud je tento systém díky tomuto začlenění schopen sloužit různým účelům. Obecný systém AI se může používat přímo nebo může být součástí jiných systémů AI.
(100)
Kadar je model UI za splošne namene vključen v sistem UI ali je del sistema UI, bi bilo treba ta sistem šteti za sistem UI za splošne namene, če se lahko zaradi te vključitve ta sistem uporablja za različne namene. Sistem UI za splošne namene se lahko uporablja neposredno ali pa se lahko vključi v druge sisteme UI.
(101)
Poskytovatelé obecných modelů AI mají v celém hodnotovém řetězci AI zvláštní úlohu a odpovědnost, neboť modely, které poskytují, mohou tvořit základ pro řadu navazujících systémů, často poskytovaných navazujícími poskytovateli, kteří musejí těmto modelům a jejich schopnostem dobře rozumět, a to jak pro účely začlenění těchto modelů do vlastních produktů, tak v zájmu plnění svých povinností podle tohoto nebo jiných nařízení. Proto by měla být stanovena přiměřená opatření v oblasti transparentnosti, včetně vypracování a aktualizace dokumentace a poskytování informací o obecném modelu AI pro jeho používání navazujícími poskytovateli. Poskytovatel obecného modelu AI by měl technickou dokumentaci připravit a aktualizovat, aby ji na požádání zpřístupnil úřadu pro AI a příslušným vnitrostátním orgánům. Minimální soubor prvků, které mají být v takové dokumentaci obsaženy, by měl být stanoven v konkrétních přílohách tohoto nařízení. Komise by měla být zmocněna měnit tyto přílohy prostřednictvím aktů v přenesené pravomoci s ohledem na vývoj technologií.
(101)
Ponudniki modelov UI za splošne namene imajo posebno vlogo in odgovornost vzdolž verige vrednosti UI, saj so lahko modeli, ki jih zagotavljajo, podlaga za vrsto sistemov nižje v verigi, ki jih pogosto zagotavljajo ponudniki nižje v verigi, ki potrebujejo dobro razumevanje modelov in njihovih zmogljivosti, da bi omogočili vključitev takih modelov v njihove proizvode in izpolnili svoje obveznosti iz te uredbe ali drugih predpisov. Zato bi bilo treba določiti sorazmerne ukrepe za preglednost, vključno s pripravo in posodabljanjem dokumentacije ter zagotavljanjem informacij o modelu UI za splošne namene, ki ga lahko uporabljajo ponudniki nižje v verigi. Ponudnik modela UI za splošne namene bi moral pripraviti in posodabljati tehnično dokumentacijo, da bi jo na zahtevo dal na voljo Uradu za UI in pristojnim nacionalnim organom. Minimalni sklop elementov, ki jih je treba vključiti v tako dokumentacijo, bi bilo treba določiti v posebnih prilogah k tej uredbi. Na Komisijo bi bilo treba prenesti pooblastilo za spreminjanje navedenih prilog z delegiranimi akti glede na hiter tehnološki razvoj.
(102)
Software a data, včetně modelů, zpřístupněné na základě svobodné licence s otevřeným zdrojovým kódem, která umožňuje jejich otevřené sdílení a v jejichž rámci mohou uživatelé k nim nebo jejich změněným verzím volně přistupovat, používat je, upravovat a přerozdělovat, mohou přispět k výzkumu a inovacím na trhu a mohou hospodářství Unie poskytnout významné příležitosti k růstu. Obecné modely AI zpřístupněné na základě svobodných licencí s otevřeným zdrojovým kódem by měly být považovány za modely zajišťující vysokou úroveň transparentnosti a otevřenosti, pokud jsou jejich parametry, včetně vah, informací o architektuře modelu a informací o používání modelů veřejně dostupné. Licence by měla být považována za svobodnou s otevřeným zdrojovým kódem i v případě, že umožňuje uživatelům provozovat, kopírovat, distribuovat, studovat, měnit a vylepšovat software a data, včetně modelů za podmínky, že je připsána původnímu poskytovateli modelu a že jsou dodrženy totožné nebo srovnatelné podmínky distribuce.
(102)
Programska oprema in podatki, vključno z modeli, objavljenimi na podlagi proste in odprtokodne licence, ki omogoča njihovo prosto izmenjavo in če uporabniki lahko prosto dostopajo do njih ali njihovih spremenjenih različic, jih uporabljajo, spreminjajo in ponovno distribuirajo, lahko prispevajo k raziskavam in inovacijam na trgu ter gospodarstvu Unije zagotovijo znatne priložnosti za rast. Razmisliti bi bilo treba o modelih UI za splošne namene, objavljenih na podlagi prostih in odprtokodnih licenc, da bi zagotovili visoko raven preglednosti in odprtosti, če so njihovi parametri, vključno z utežmi, informacijami o arhitekturi modela in informacijami o uporabi modela, javno dostopni. Licenca bi morala šteti za prosto in odprtokodno, tudi kadar uporabnikom omogoča uporabo, kopiranje, distribucijo, preučevanje, spreminjanje in izboljševanje programske opreme in podatkov, vključno z modeli, pod pogojem, da se navede originalni ponudnik modela in da se upoštevajo enaki ali primerljivi pogoji distribucije.
(103)
Svobodné komponenty AI s otevřeným zdrojovým kódem zahrnují software a data, včetně modelů a obecných modelů AI, nástrojů, služeb nebo procesů systému AI. Svobodné komponenty AI s otevřeným zdrojovým kódem lze poskytovat prostřednictvím různých kanálů, včetně jejich vývoje na otevřených úložištích. Pro účely tohoto nařízení by se výjimky poskytované pro svobodné komponenty AI s otevřeným zdrojovým kódem neměly vztahovat na součásti AI, které jsou poskytovány za cenu nebo jinak zpeněženy, včetně poskytování technické podpory nebo jiných služeb souvisejících s předmětnou komponentou AI, a to i prostřednictvím softwarové platformy, nebo používání osobních údajů z jiných důvodů než výhradně za účelem zlepšení bezpečnosti, kompatibility nebo interoperability softwaru, s výjimkou transakcí mezi mikropodniky. Zpřístupnění komponent AI prostřednictvím otevřených úložišť by samo o sobě nemělo představovat zpeněžení.
(103)
Brezplačne in odprtokodne komponente UI zajemajo programsko opremo in podatke, vključno z modeli in modeli UI za splošne namene, orodji, storitvami ali procesi sistema UI. Brezplačne in odprtokodne komponente UI se lahko zagotovijo prek različnih kanalov, vključno z njihovim razvojem v odprtih odložiščih. Za namene te uredbe komponente UI, ki se zagotavljajo proti plačilu ali so kako drugače monetizirane, med drugim z zagotavljanjem tehnične podpore ali drugih storitev, tudi prek platforme programske opreme, povezane s komponento UI, ali z uporabo osebnih podatkov iz razlogov, ki niso izključno namenjeni izboljšanju varnosti, združljivosti ali interoperabilnosti programske opreme, z izjemo transakcij med mikropodjetji, ne bi smele biti upravičene do izjem, določenih za brezplačne in odprtokodne komponente UI. Dejstvo, da so komponente UI na voljo prek odprtih odložišč, samo po sebi ne bi smelo pomeniti monetizacije.
(104)
Na poskytovatele obecných modelů AI, které jsou zpřístupňovány na základě svobodné licence s otevřeným zdrojovým kódem a jejichž parametry, včetně vah, informací o architektuře modelu a informací o používání modelu, jsou veřejně dostupné, by se měly vztahovat výjimky, pokud jde o požadavky týkající se transparentnosti kladené na obecné modely AI, ledaže je lze považovat za modely představující systémové riziko; v takovém případě by okolnost, že model je transparentní a doprovázený licencí s otevřeným zdrojovým kódem, neměla být považována za dostatečný důvod pro upuštění od souladu s povinnostmi podle tohoto nařízení. V každém případě vzhledem k tomu, že zpřístupnění obecných modelů AI na základě svobodné licence s otevřeným zdrojovým kódem nemusí nutně odhalit podstatné informace o souboru dat použitém pro trénování nebo doladění modelu a o tom, jak bylo zajištěno dodržování autorského práva, neměla by se výjimka stanovená pro obecné modely AI z dodržování požadavků souvisejících s transparentností týkat povinnosti vypracovat shrnutí obsahu použitého pro trénování modelu a povinnosti zavést politiku dodržování autorského práva Unie, zejména pokud jde o identifikaci a dodržování výhrad práv podle čl. 4 odst. 3 směrnice Evropského parlamentu a Rady (EU) 2019/790 (40).
(104)
Za ponudnike modelov UI za splošne namene, ki se objavijo na podlagi proste in odprtokodne licence ter katerih parametri, vključno z utežmi, informacijami o arhitekturi modela in informacijami o uporabi modela, so javno dostopni, bi morale veljati izjeme v zvezi z zahtevami glede preglednosti, ki veljajo za modele UI za splošne namene, razen če lahko šteje, da predstavljajo sistemsko tveganje; v tem primeru okoliščina, da je model pregleden in ga spremlja odprtokodna licenca, ne bi smela šteti za zadosten razlog za izključitev izpolnjevanja obveznosti iz te uredbe. V vsakem primeru pa glede na to, da objava modelov UI za splošne namene v okviru proste in odprtokodne licence ne razkrije nujno bistvenih informacij o naboru podatkov, ki se uporablja za učenje ali izpopolnjevanje modela, in o tem, kako je bila s tem zagotovljena skladnost z avtorskim pravom, se izjema, določena za modele UI za splošne namene, od skladnosti z zahtevami, povezanimi s preglednostjo, ne bi smela nanašati na obveznost priprave povzetka vsebine, ki se uporablja za učenje modelov, in obveznost vzpostavitve politike za skladnost z avtorskim pravom Unije, zlasti za opredelitev in skladnost s pridržkom pravic na podlagi člena 4(3) Direktive (EU) 2019/790 Evropskega parlamenta in Sveta (40).
(105)
Obecné modely AI, zejména velké generativní modely AI schopné vytvářet text, obrázky a další obsah, představují jedinečné inovační příležitosti, ale také výzvy pro umělce, autory a další tvůrce i pro způsoby, jimiž je jejich tvůrčí obsah vytvářen, distribuován, používán a zužitkováván. Vývoj a trénování těchto modelů vyžaduje přístup k obrovskému množství textů, obrázků, videí a dalších dat. V této souvislosti mohou být pro vyhledávání a analýzu takového obsahu, který může být chráněn autorským právem a právy s ním souvisejícími, hojně využívány techniky vytěžování textů a dat. Jakékoli užití obsahu chráněného autorským právem vyžaduje svolení dotčeného nositele práv, pokud neplatí výjimky a omezení z autorských práv. Směrnice (EU) 2019/790 zavedla výjimky a omezení umožňující za určitých podmínek rozmnožování a extrakce děl nebo jiných předmětů ochrany pro účely vytěžování textů a dat. Podle těchto pravidel se nositelé práv mohou rozhodnout, že si práva ke svým dílům nebo jiným předmětům ochrany vyhradí, aby zabránili vytěžování textů a dat, pokud vytěžování neprobíhá pro účely vědeckého výzkumu. Jestliže byla práva na výjimku výslovně a vhodným způsobem vyhrazena, musí poskytovatelé obecných modelů AI od nositelů práv získat povolení, pokud chtějí vytěžování textů a dat u těchto děl provádět.
(105)
Modeli UI za splošne namene, zlasti veliki generativni modeli UI, ki lahko ustvarijo besedilo, slike in druge vsebine, predstavljajo edinstvene priložnosti za inovacije, pa tudi izzive za umetnike, avtorje in druge ustvarjalce ter njihov način ustvarjanja, razširjanja, uporabe in koriščenja njihovih ustvarjalnih vsebin. Za razvoj in učenje takih modelov je potreben dostop do velikih količin besedil, slik, videoposnetkov in drugih podatkov. Za pridobivanje in analizo takih vsebin, ki so lahko zaščitene z avtorskimi in sorodnimi pravicami, se lahko v tem kontekstu obsežno uporabljajo tehnike besedilnega in podatkovnega rudarjenja. Za vsako uporabo avtorsko zaščitenih vsebin je potrebno dovoljenje zadevnega imetnika pravic, razen če se uporabljajo ustrezne izjeme in omejitve avtorskih pravic. Z Direktivo (EU) 2019/790 so bile uvedene izjeme in omejitve, ki pod določenimi pogoji omogočajo reprodukcije in izvlečke del ali drugih zaščitenih predmetov za namene besedilnega in podatkovnega rudarjenja. Na podlagi teh pravil se lahko imetniki pravic odločijo, da bodo svoje pravice pridržali za svoja dela ali druge zaščitene predmete, da bi preprečili besedilno in podatkovno rudarjenje, razen če se to izvaja za namene znanstvenega raziskovanja. Kadar so pravice do izvzetja izrecno in na ustrezen način pridržane, morajo ponudniki modelov UI za splošne namene pridobiti dovoljenje imetnikov pravic, če želijo v zvezi s takimi deli izvajati besedilno in podatkovno rudarjenje.
(106)
Poskytovatelé, kteří uvádějí na trh Unie obecné modely AI, by měli zajistit dodržování příslušných povinností stanovených v tomto nařízení. Za tímto účelem by poskytovatelé obecných modelů AI měli zavést politiky k dodržování práva Unie v oblasti autorského práva a práv s ním souvisejících, zejména s cílem identifikovat a dodržovat výhradu práv vyjádřenou nositeli práv podle čl. 4 odst. 3 směrnice (EU) 2019/790. Každý poskytovatel, který uvádí na trh Unie obecný model AI, by měl tuto povinnost splnit bez ohledu na jurisdikci, v níž dochází k úkonům souvisejícím s autorským právem, na jejichž základě se tyto obecné modely AI trénují. Toto je nezbytné k zajištění rovných podmínek mezi poskytovateli obecných modelů AI, kdy by žádný poskytovatel neměl být schopen získat konkurenční výhodu na trhu Unie tím, že bude uplatňovat nižší standardy autorského práva, než jaké jsou v Unii stanoveny.
(106)
Ponudniki, ki dajejo modele UI za splošne namene na trg Unije, bi morali zagotoviti skladnost z ustreznimi obveznostmi iz te uredbe. V ta namen bi morali ponudniki modelov UI za splošne namene vzpostaviti politiko za skladnost s pravom Unije o avtorskih in sorodnih pravicah, zlasti za opredelitev pridržka pravic, ki jih izrazijo imetniki pravic na podlagi člena 4(3) Direktive (EU) 2019/790, in skladnost z njim. Vsak ponudnik, ki daje model UI za splošne namene na trg Unije, bi moral to obveznost izpolnjevati ne glede na jurisdikcijo, v kateri se izvajajo dejanja, povezana z avtorskimi pravicami, na katerih temelji učenje teh modelov UI za splošno rabo. To je potrebno za zagotovitev enakih konkurenčnih pogojev med ponudniki modelov UI za splošne namene, pri čemer noben ponudnik ne bi smel imeti konkurenčne prednosti na trgu Unije z uporabo standardov avtorskih pravic, ki so nižji od standardov, določenih v Uniji.
(107)
V zájmu zvýšení transparentnosti dat, která se používají v předběžném trénování a trénování obecných modelů AI, včetně textů a dat chráněných autorským právem, je vhodné, aby poskytovatelé těchto modelů vypracovali a zveřejnili dostatečně podrobné shrnutí obsahu, jenž byl pro trénování obecného modelu AI použit. Při řádném zohlednění potřeby chránit obchodní tajemství a důvěrné obchodní informace by toto shrnutí mělo být ve svém rozsahu obecně komplexní, a nikoli technicky podrobné, aby stranám s oprávněnými zájmy, včetně nositelů autorských práv, usnadnilo výkon a prosazování jejich práv podle práva Unie, a například by v něm tak měly být uvedeny hlavní sady nebo soubory dat, které byly při trénování modelu použity, jako jsou rozsáhlé soukromé nebo veřejné databáze nebo datové archivy, a mělo by v něm být obsaženo narativní vysvětlení jiných použitých zdrojů údajů. Je vhodné, aby úřad pro AI poskytl vzor takového shrnutí, který by měl být jednoduchý a účinný a měl by poskytovateli umožnit poskytnout požadované shrnutí v podobě souvislého textu.
(107)
Da bi izboljšali preglednost podatkov, ki se uporabljajo pri predhodnem učenju in učenju modelov UI za splošne namene, vključno z besedilom in podatki, zaščitenimi z avtorskim pravom, je ustrezno, da ponudniki takih modelov pripravijo in objavijo dovolj podroben povzetek vsebine, ki se uporablja za učenje modela UI za splošne namene. Upoštevajoč potrebo po varovanju poslovnih skrivnosti in zaupnih poslovnih informacij bi moral biti ta povzetek v svojem področju uporabe na splošno izčrpen in ne tehnično podroben, da bi strankam z zakonitimi interesi, vključno z imetniki avtorskih pravic, olajšali uveljavljanje in izvajanje njihovih pravic na podlagi prava Unije, na primer z navedbo glavnih zbirk podatkov ali naborov podatkov, ki so bili uporabljeni pri učenju, kot so velike zasebne ali javne podatkovne zbirke ali podatkovni arhivi, ter z opisno razlago drugih uporabljenih virov podatkov. Primerno je, da Urad za UI zagotovi predlogo za povzetek, ki bi moral biti preprost in učinkovit ter ponudniku omogočiti, da zagotovi zahtevani povzetek v opisni obliki.
(108)
Pokud jde o povinnost poskytovatelů obecných modelů AI zavést politiku dodržování autorského práva Unie a o jejich povinnost zveřejnit shrnutí obsahu použitého pro trénování, měl by úřad pro AI sledovat, zda daný poskytovatel tyto povinnosti splnil, aniž by z hlediska dodržování autorského práva ověřoval nebo přistupoval k posuzování trénovacích dat podle jednotlivých činností. Tímto nařízením není dotčeno prosazování pravidel v oblasti autorského práva, jak je stanoveno v právu Unie.
(108)
Kar zadeva obveznosti ponudnikov modelov UI za splošne namene, da vzpostavijo politiko za skladnost z avtorskim pravom Unije in javno objavijo povzetek vsebine, uporabljene za učenje, bi moral Urad za UI spremljati, ali je ponudnik izpolnil te obveznosti brez preverjanja ali ocene učnih podatkov za vsak posamezen primer posebej z vidika njihove skladnosti z avtorskimi pravicami. Ta uredba ne vpliva na izvrševanje pravil o avtorskih pravicah, kot je določeno na podlagi prava Unije.
(109)
Dodržování povinností, které se vztahují na poskytovatele obecných modelů AI, by mělo být úměrné a přiměřené typu poskytovatele modelu, aniž by tyto povinnosti musely dodržovat osoby, které vyvíjejí nebo používají modely pro nekomerční účely nebo pro účely vědeckého výzkumu; tyto osoby by měly být nicméně vybízeny k tomu, aby uvedené požadavky plnily dobrovolně. Aniž je dotčeno právo Unie v oblasti autorského práva, dodržování těchto povinností by mělo náležitě zohlednit velikost poskytovatele a umožnit zjednodušené způsoby jejich dodržování malým a středním podnikům, včetně podniků začínajících, přičemž tyto způsoby by neměly představovat nadměrné náklady a neměly by od používání takových modelů odrazovat. V případě změny nebo doladění modelu by povinnosti poskytovatelů obecných modelů AI měly být omezeny na tuto změnu nebo doladění, například doplněním již existující technické dokumentace o informace o změnách, včetně nových zdrojů trénovacích dat, jako prostředku ke splnění povinností hodnotového řetězce stanovených v tomto nařízení.
(109)
Izpolnjevanje obveznosti, ki veljajo za ponudnike modelov UI za splošne namene, bi moralo biti sorazmerno in primerno vrsti ponudnika modela, pri čemer bi bilo treba izključiti potrebo glede izpolnjevanja teh obveznosti za osebe, ki razvijajo ali uporabljajo modele za nepoklicne ali znanstvenoraziskovalne namene, vendar bi jih bilo treba kljub temu spodbujati k prostovoljnemu izpolnjevanju teh obveznosti. Brez poseganja v avtorsko pravo Unije bi bilo treba pri izpolnjevanju teh obveznosti ustrezno upoštevati velikost ponudnika in omogočiti poenostavljene načine izpolnjevanja obveznosti za MSP, vključno z zagonskimi podjetji, ki ne bi smeli predstavljati pretiranih stroškov in ne bi smeli odvračati od uporabe takih modelov. V primeru spremembe ali izpopolnjevanja modela bi morale biti obveznosti ponudnikov modelov UI za splošne namene omejene na to spremembo ali izpopolnitev, na primer z dopolnitvijo že obstoječe tehnične dokumentacije z informacijami o spremembah, vključno z novimi viri učnih podatkov, da bi izpolnili obveznosti glede verige vrednosti iz te uredbe.
(110)
Obecné modely AI by mohly představovat systémová rizika, která zahrnují mimo jiné jakékoli skutečné nebo rozumně předvídatelné negativní dopady v souvislosti se závažnými haváriemi, narušením kritických odvětví a závažnými důsledky pro veřejné zdraví a bezpečnost; jakékoli skutečné nebo rozumně předvídatelné negativní dopady na demokratické procesy, veřejnou a hospodářskou bezpečnost; šíření nezákonného, nepravdivého nebo diskriminačního obsahu. Systémová rizika by měla být chápána tak, že se zvyšují se schopnostmi a dosahem modelu, mohou vzniknout během celého životního cyklu modelu a jsou ovlivněna podmínkami zneužití, spolehlivostí modelu, poctivostí modelu a bezpečností modelu, úrovní autonomie modelu, jeho přístupem k nástrojům, novými nebo kombinovanými způsoby, strategiemi zpřístupňování a distribuce, potenciálem k odstranění ochranných opatření a dalšími faktory. Mezinárodní přístupy dosud zejména zjistily, že je třeba zaměřit pozornost na rizika vyplývající z možného úmyslného zneužití nebo z nezamýšlených problémů s ovládáním souvisejících se sladěním s lidským záměrem; chemická, biologická, radiologická a jaderná rizika, například způsoby snížení překážek v přístupu, a to i pokud jde o vývoj zbraní, pořizování konstrukce nebo použití; mohou být umožněny ofenzivní kybernetické schopnosti, jako jsou způsoby odhalování zranitelností, zneužívání nebo operační využití; účinky interakce a používání nástrojů, například schopnost ovládat fyzické systémy a zasahovat do kritické infrastruktury; rizika, že modely budou vytvářet kopie sebe sama neboli se „samoreplikovat“ nebo že budou trénovat jiné modely; způsoby, jakými mohou modely vést ke škodlivé předpojatosti a diskriminaci s rizikem pro jednotlivce, komunity nebo společnosti; napomáhání dezinformacím nebo poškozování soukromí s ohrožením demokratických hodnot a lidských práv; riziko, že by konkrétní událost mohla vést k řetězové reakci se značnými negativními dopady, které by mohly ovlivnit až celé město, celou oblast činnosti nebo celou komunitu.
(110)
Modeli UI za splošne namene bi lahko predstavljali sistemska tveganja, ki med drugim vključujejo vse dejanske ali razumno predvidljive negativne učinke v zvezi z večjimi nesrečami, motnjami v kritičnih sektorjih ter resnimi posledicami za javno zdravje in varnost, vse dejanske ali razumno predvidljive negativne učinke na demokratične procese ter javno in gospodarsko varnost ter razširjanje nezakonitih, lažnih ali diskriminatornih vsebin. Sistemska tveganja bi bilo treba razumeti tako, da se povečujejo z zmogljivostmi in dosegom modela, da se lahko pojavijo v celotnem življenjskem ciklu modela in da nanje vplivajo pogoji napačne uporabe, zanesljivost modela, pravičnost modela in varnost modela, stopnja avtonomije modela, njegov dostop do orodij, novi ali kombinirani načini, strategije objave in distribucije, možnost odstranitve varovalnih mehanizmov in drugi dejavniki. V mednarodnih pristopih je bilo do zdaj zlasti ugotovljeno, da je treba pozornost nameniti tveganjem, ki izhajajo iz morebitne namerne napačne uporabe ali nenamernih problemov pri nadzoru v zvezi z usklajevanjem s človeškim namenom; kemičnim, biološkim, radiološkim in jedrskim tveganjem, kot so načini, kako zmanjšati vstopne ovire, vključno z razvojem orožja, nabavo njegove zasnove ali njegove uporabo; ofenzivnim kibernetskim zmogljivostim, kot so načini, ki omogočajo odkrivanje, izkoriščanje ali operativno uporabo šibkih točk; učinkom interakcije in uporabe orodij, vključno na primer z zmogljivostjo za nadzor fizičnih sistemov in motenj v kritični infrastrukturi; tveganjem, povezanimi z modeli, ki izdelujejo kopije ali se „samoreplicirajo“ ali učijo druge modele; načinom, kako lahko modeli povzročijo škodljivo pristranskost in diskriminacijo, ker ustvarjajo tveganja za posameznike, skupnosti ali družbe; omogočanju dezinformacij ali ogrožanju zasebnosti z grožnjami demokratičnim vrednotam in človekovim pravicam; tveganju, da bi določen dogodek lahko povzročil verižno reakcijo z znatnimi negativnimi učinki, ki bi lahko vplivali na celo mesto, celotno domeno dejavnosti ali celotno skupnost.
(111)
Je vhodné stanovit metodiku klasifikace obecných modelů AI jako obecných modelů AI se systémovými riziky. Vzhledem k tomu, že systémová rizika vyplývají ze schopností s obzvláště velkým dopadem, měl by být obecný model AI považován za model představující systémová rizika, pokud má schopnosti s velkým dopadem, hodnocené na základě vhodných technických nástrojů a metodik, nebo významný dopad na vnitřní trh v důsledku svého dosahu. Schopnostmi s velkým dopadem v obecných modelech AI se rozumí schopnosti, které odpovídají schopnostem zaznamenaným v nejpokročilejších obecných modelech AI nebo je překračují. Po uvedení modelu na trh nebo při interakci zavádějících subjektů s modelem by bylo možné lépe porozumět celé škále schopností modelu. Podle aktuálního stavu vývoje v době vstupu tohoto nařízení v platnost je jednou z relevantních aproximací schopností modelu kumulativní množství výpočetních operací použité pro trénování obecného modelu AI, měřené při operacích s pohyblivou řádovou čárkou. Kumulativní množství výpočetních operací použitých pro trénování zahrnuje výpočty používané v rámci činností a metod, které jsou určeny k posílení schopností modelu před zavedením, jako je předběžné trénování, vytváření syntetických dat a doladění. Proto by měla být stanovena počáteční prahová hodnota operací s pohyblivou řádovou čárkou, která v případě, že ji určitý obecný model AI splňuje, vede k domněnce, že daný model je obecným modelem AI se systémovými riziky. Tato prahová hodnota by měla být v průběhu času upravována tak, aby odrážela technologické a průmyslové změny, jako jsou algoritmická zlepšení nebo zvýšená účinnost hardwaru, a měla by být doplněna referenčními hodnotami a ukazateli schopnosti modelu. Za tímto účelem by měl úřad pro AI spolupracovat s vědeckou obcí, průmyslem, občanskou společností a dalšími odborníky. Prahové hodnoty, jakož i nástroje a referenční hodnoty pro posuzování schopností s velkým dopadem by měly být silnými prediktory obecnosti, jejích schopností a souvisejícího systémového rizika obecných modelů AI a mohly by zohledňovat způsob, jakým bude daný model uveden na trh, nebo počet uživatelů, na něž může mít vliv. Za účelem doplnění tohoto systému by Komise měla mít možnost přijímat individuální rozhodnutí určující obecný model AI jako obecný model AI se systémovým rizikem, pokud se zjistí, že tento model má schopnosti nebo dopad odpovídající těm, které jsou zachyceny stanovenou prahovou hodnotou. Toto rozhodnutí by mělo být přijato na základě celkového posouzení kritérií pro určování obecných modelů AI se systémovým rizikem stanovených v příloze tohoto nařízení, jako je kvalita nebo velikost souboru trénovacích dat, počet podnikatelských a koncových uživatelů, způsoby jejich vstupů a výstupů, úroveň autonomie a škálovatelnosti nebo nástroje, k nimž má přístup. Komise by měla zohlednit odůvodněnou žádost poskytovatele, jehož model byl určen jako obecný model AI se systémovým rizikem, a může rozhodnout o přehodnocení, zda lze mít nadále za to, že tento model představuje systémová rizika.
(111)
Treba bi bilo določiti metodologijo za razvrstitev modelov UI za splošne namene kot modelov UI za splošne namene s sistemskimi tveganji. Ker sistemska tveganja izhajajo iz posebno visokih zmogljivosti, bi bilo treba za model UI za splošne namene šteti, da predstavlja sistemska tveganja, če ima zmogljivosti z visoko učinkovitostjo, ocenjene na podlagi ustreznih tehničnih orodij in metodologij, ali znaten vpliv na notranji trg zaradi svojega dosega. Zmogljivosti z visoko učinkovitostjo v modelih UI za splošne namene pomenijo zmogljivosti, ki so enake zmogljivostim, zabeleženim v najbolj naprednih modelih UI za splošne namene, ali jih presegajo. Celoten nabor zmogljivosti modela bi bilo mogoče bolje razumeti po tem, ko se da na trg ali ko so uvajalci v interakciji z modelom. V skladu z najsodobnejšimi tehnološkimi dosežki v času začetka veljavnosti te uredbe je kumulativni znesek izračuna, ki se uporablja za učenje modela UI za splošne namene, merjen z operacijami s plavajočo vejico, eden od ustreznih približkov za zmogljivosti modela. Kumulativni znesek izračuna, ki se uporablja za učenje, vključuje izračun, ki se uporablja za dejavnosti in metode, namenjene povečanju zmogljivosti modela pred uvedbo, kot so predhodno učenje, sintetično ustvarjanje podatkov in izpopolnjevanje. Zato bi bilo treba določiti začetni prag operacij s plavajočo vejico, ki, če ga doseže model UI za splošne namene, privede do domneve, da model šteje za model UI za splošne namene s sistemskimi tveganji. Ta prag bi bilo treba sčasoma prilagoditi, da bi odražal tehnološke in industrijske spremembe, kot so algoritemske izboljšave ali večja učinkovitost strojne opreme, dopolniti pa bi ga bilo treba z referenčnimi vrednostmi in kazalniki za zmogljivost modela. Za to bi moral Urad za UI sodelovati z znanstveno skupnostjo, industrijo, civilno družbo in drugimi strokovnjaki. Pragovi ter orodja in merila za ocenjevanje zmogljivosti z visoko učinkovitostjo bi morali v veliki meri predvideti splošno naravo, zmogljivosti in povezano sistemsko tveganje modelov UI za splošne namene ter bi lahko upoštevali način dajanja modela na trg ali število uporabnikov, na katere bi lahko vplival. Za dopolnitev tega sistema bi morala Komisija imeti možnost, da sprejme posamezne odločitve, s katerimi model UI za splošne namene določi kot model UI za splošne namene s sistemskim tveganjem, če se ugotovi, da ima tak model zmogljivosti ali učinek, enakovreden tistim, zajetim z določenim pragom. To odločitev bi bilo treba sprejeti na podlagi splošne ocene meril za določitev modela UI za splošne namene s sistemskim tveganjem iz ene od prilog k tej uredbi, kot so kakovost ali velikost nabora učnih podatkov, število poslovnih in končnih uporabnikov, načini njihovega vnosa in izhoda, stopnja avtonomije in nadgradljivosti ali orodja, do katerih ima dostop. Komisija bi morala na obrazloženo zahtevo ponudnika, katerega model je bil označen za model UI za splošne namene s sistemskim tveganjem, upoštevati zahtevo in se lahko odloči, da ponovno oceni, ali lahko za model UI za splošne namene še vedno šteje, da predstavlja sistemska tveganja.
(112)
Je rovněž třeba vyjasnit postup pro klasifikaci obecných modelů AI se systémovými riziky. Za obecný model AI se systémovým rizikem by měl být předběžně považován obecný model AI, který splňuje příslušnou prahovou hodnotu pro schopnosti s velkým dopadem. Pokud určitý obecný model AI splnil podmínky dávající vyvstat takové předběžné domněnce nebo pokud začne být zřejmé, že tyto podmínky splní, měl by poskytovatel tuto skutečnost nejpozději do dvou týdnů oznámit úřadu pro AI. To je obzvláště důležité ve vztahu k prahové hodnotě operací s pohyblivou řádovou čárkou, protože trénování obecných modelů AI vyžaduje značné plánování, které zahrnuje předběžné přidělování výpočetních zdrojů, a poskytovatelé obecných modelů AI jsou proto schopni zjistit již před ukončením trénování, zda jejich model prahové hodnoty dosáhne. V souvislosti s tímto oznámením by poskytovatel měl být schopen prokázat, že vzhledem ke svým specifickým vlastnostem daný obecný model AI výjimečně nepředstavuje systémová rizika, a neměl by proto být jako obecný model AI se systémovými riziky klasifikován. Tyto informace jsou cenné pro úřad pro AI, aby mohl předvídat uvádění obecných modelů AI se systémovými riziky na trh, a poskytovatelé tak mohou začít s úřadem pro AI již zkraje spolupracovat. Tyto informace jsou obzvláště důležité, pokud jde o obecné modely AI, které mají být zpřístupněny jako modely s otevřeným zdrojovým kódem, jelikož po zveřejnění modelu s otevřeným zdrojovým kódem může být provádění nezbytných opatření k zajištění souladu s povinnostmi podle tohoto nařízení obtížnější.
(112)
Pojasniti je treba tudi postopek za razvrstitev modela UI za splošne namene s sistemskimi tveganji. Za model UI za splošne namene, ki izpolnjuje veljavni prag za zmogljivosti z visoko učinkovitostjo, bi bilo treba domnevati, da je splošni model UI s sistemskim tveganjem. Ponudnik bi moral Urad za UI obvestiti najpozneje dva tedna po tem, ko so zahteve izpolnjene ali ko je znano, da bo model UI za splošne namene izpolnjeval zahteve, ki vodijo do te domneve. To je zlasti pomembno v zvezi s pragom operacij s plavajočo vejico, saj je pri učenju modelov UI za splošne namene potrebno precejšnje načrtovanje, ki vključuje vnaprejšnjo dodelitev računalniških virov, zato lahko ponudniki modelov UI za splošne namene vedo, ali bi njihov model dosegel prag pred zaključkom učenja. V okviru tega obvestila bi moral biti ponudnik sposoben dokazati, da model UI za splošne namene zaradi svojih posebnih značilnosti izjemoma ne predstavlja sistemskih tveganj in ga zato ne bi smeli razvrstiti kot model UI za splošne namene s sistemskimi tveganji. Te informacije so dragocene za Urad za UI pri predvidevanju dajanja modelov UI za splošne namene s sistemskimi tveganji na trg, ponudniki pa lahko začnejo zgodaj sodelovati z Uradom za UI. Te informacije so zlasti pomembne v zvezi z modeli UI za splošne namene, za katere se načrtuje, da bodo objavljeni kot odprtokodni, saj bo po objavi odprtokodnega modela morda težje izvajati potrebne ukrepe za zagotovitev skladnosti z obveznostmi iz te uredbe.
(113)
Pokud se Komise dozví, že určitý obecný model AI splňuje požadavky na to, aby byl klasifikován jako obecný model AI se systémovým rizikem, což dříve buď nebylo známo, nebo o této skutečnosti příslušný poskytovatel Komisi neinformoval, měla by mít Komise pravomoc jej takto označit. Mělo by být zajištěno systémem kvalifikovaných výstrah, aby byl úřad pro AI informován vědeckou komisí o obecných modelech AI, které by případně měly být klasifikovány jako obecné modely AI se systémovým rizikem, a to nad rámec monitorovacích činností úřadu pro AI.
(113)
Če Komisija ugotovi, da model UI za splošne namene izpolnjuje zahteve za razvrstitev kot model UI za splošne namene s sistemskim tveganjem, ki pred tem ni bil znan ali o njem zadevni ponudnik ni obvestil Komisije, bi morala biti Komisija pooblaščena, da ga tako označi. Sistem kvalificiranih opozoril bi moral zagotavljati, da znanstveni odbor obvešča Urad za UI o modelih UI za splošne namene, ki bi jih morebiti bilo treba razvrstiti kot modele UI za splošne namene s sistemskim tveganjem, ter da ima Urad pregled nad lastnimi dejavnostmi spremljanja.
(114)
Poskytovatelé obecných modelů AI, které představují systémová rizika, by měli kromě povinností stanovených poskytovatelům obecných modelů AI podléhat povinnostem zaměřeným na identifikaci a zmírnění těchto rizik a na zajištění odpovídající úrovně ochrany kybernetické bezpečnosti bez ohledu na to, zda jsou dotyčné modely poskytovány jako modely samostatné, nebo jsou začleněny do určitého systému nebo produktu AI. Za účelem dosažení těchto cílů by toto nařízení mělo vyžadovat, aby poskytovatelé prováděli nezbytná hodnocení modelů, zejména před jejich prvním uvedením na trh, včetně provádění a dokumentace kontradiktorního testování modelů, případně i prostřednictvím interního nebo nezávislého externího testování. Kromě toho by poskytovatelé obecných modelů AI se systémovými riziky měli systémová rizika průběžně posuzovat a zmírňovat, například zavedením politik řízení rizik, jako jsou procesy odpovědnosti a správy, prováděním monitorování po uvedení na trh, přijímáním vhodných opatření v průběhu celého životního cyklu modelu a prostřednictvím spolupráce s příslušnými subjekty v celém hodnotovém řetězci AI.
(114)
Za ponudnike modelov UI za splošne namene s sistemskimi tveganji bi morale poleg obveznosti, ki veljajo za ponudnike modelov UI za splošne namene, veljati tudi obveznosti, namenjene prepoznavanju in zmanjšanju teh tveganj ter zagotavljanju ustrezne ravni kibernetske varnosti, ne glede na to, ali se zagotavljajo kot samostojni modeli ali so vgrajeni v sistem UI ali proizvod. Za doseganje teh ciljev bi morala ta uredba od ponudnikov zahtevati, da izvedejo potrebne ocene modelov, zlasti pred prvim dajanjem na trg, vključno z izvajanjem in dokumentiranjem testiranja modelov po načelu kontradiktornosti, po potrebi tudi z notranjim ali neodvisnim zunanjim testiranjem. Poleg tega bi morali ponudniki modelov UI za splošne namene s sistemskimi tveganji redno ocenjevati in zmanjševati sistemska tveganja, med drugim na primer z uvedbo politik za obvladovanje tveganj, kot so postopki za zagotavljanje odgovornosti in upravljanja, spremljanjem po dajanju na trg, sprejetjem ustreznih ukrepov v celotnem življenjskem ciklu modela in sodelovanjem z ustreznimi akterji v celotni verigi vrednosti UI.
(115)
Poskytovatelé obecných modelů AI se systémovými riziky by měli posuzovat a zmírňovat možná systémová rizika. Pokud navzdory úsilí o identifikaci a prevenci rizik souvisejících s obecným modelem AI, která mohou představovat rizika systémová, vývoj nebo používání modelu způsobí závažný incident, měl by poskytovatel obecného modelu AI bez zbytečného odkladu incident sledovat a oznámit veškeré relevantní informace a případná nápravná opatření Komisi a příslušným vnitrostátním orgánům. Poskytovatelé by dále během celého životního cyklu daného modelu měli zajišťovat náležitou úroveň ochrany jeho kybernetické bezpečnosti a případně jeho fyzické infrastruktury. Ochrana kybernetické bezpečnosti související se systémovými riziky spojenými se zneužitím nebo útoky by měla řádně zohledňovat nahodilý únik modelu, neoprávněné zpřístupnění, obcházení bezpečnostních opatření a obranu před kybernetickými útoky, neoprávněným přístupem nebo krádeží modelu. Tato ochrana by mohla být usnadněna zajištěním modelových vah, algoritmů, serverů a datových souborů, například prostřednictvím provozních bezpečnostních opatření pro bezpečnost informací, specifických politik kybernetické bezpečnosti, odpovídajících technických a zavedených řešení a kontrol kybernetického a fyzického přístupu, které odpovídají příslušným okolnostem a souvisejícím rizikům.
(115)
Ponudniki modelov UI za splošne namene s sistemskimi tveganji bi morali oceniti in zmanjšati morebitna sistemska tveganja. Če razvoj ali uporaba modela kljub prizadevanjem za prepoznavanje in preprečevanje tveganj, povezanih z modelom UI za splošne namene, ki lahko predstavlja sistemska tveganja, povzroči resen incident, bi ga moral ponudnik modela UI za splošne namene brez nepotrebnega odlašanja spremljati ter Komisiji in pristojnim nacionalnim organom poročati o vseh ustreznih informacijah in možnih popravnih ukrepih. Poleg tega bi morali ponudniki po potrebi zagotoviti ustrezno raven kibernetske varnosti modela in njegove fizične infrastrukture v celotnem življenjskem ciklu modela. Pri kibernetski varnosti zaradi sistemskih tveganj, povezanih z zlonamerno uporabo ali napadi, bi bilo treba ustrezno upoštevati naključno uhajanje iz modelov, nedovoljene različice, izogibanje varnostnim ukrepom in obrambo pred kibernetskimi napadi, nepooblaščenim dostopom ali krajo modela. Tovrstno varnost bi bilo mogoče olajšati z zaščito uteži modelov, algoritmov, strežnikov in naborov podatkov, na primer z operativnimi varnostnimi ukrepi za informacijsko varnost, posebnimi politikami na področju kibernetske varnosti, ustreznimi tehničnimi in uveljavljenimi rešitvami ter kibernetskim in fizičnim nadzorom dostopa, ki bi bili prilagojeni zadevnim okoliščinam in povezanim tveganjem.
(116)
Úřad pro AI by měl podporovat a usnadňovat vypracování, přezkum a úpravu kodexů správné praxe s přihlédnutím k mezinárodním přístupům. K účasti by mohli být přizváni všichni poskytovatelé obecných modelů AI. Aby bylo zajištěno, že kodexy správné praxe odrážejí aktuální stav vývoje a náležitě zohledňují různorodý soubor perspektiv, měl by úřad pro AI při vypracovávání těchto kodexů spolupracovat s příslušnými vnitrostátními orgány a případně by mohl konzultovat organizace občanské společnosti a další příslušné zúčastněné strany a odborníky, včetně vědecké komise. Kodexy správné praxe by se měly vztahovat na povinnosti poskytovatelů obecných modelů AI a obecných modelů, které představují systémová rizika. Kromě toho, pokud jde o systémová rizika, měly by kodexy správné praxe pomoci stanovit taxonomii rizik týkající se druhu a povahy systémových rizik na úrovni Unie, včetně jejich zdrojů. Kodexy správné praxe by se měly rovněž zaměřit na konkrétní posouzení rizik a opatření k jejich zmírnění.
(116)
Urad za UI bi moral spodbujati in olajšati pripravo, pregled in prilagoditev kodeksov prakse in pri tem upoštevati mednarodne pristope. K sodelovanju bi lahko bili povabljeni vsi ponudniki modelov UI za splošne namene. Za zagotovitev, da se v kodeksih prakse odrazijo najsodobnejši tehnološki dosežki in ustrezno upoštevajo različni vidiki, bi moral Urad za UI pri pripravi teh kodeksov sodelovati z ustreznimi pristojnimi nacionalnimi organi, po potrebi pa bi se lahko posvetoval z organizacijami civilne družbe ter drugimi ustreznimi deležniki in strokovnjaki, vključno z znanstvenim odborom. V teh kodeksih prakse bi morale biti določene obveznosti za ponudnike modelov UI za splošne namene in modelov UI za splošne namene s sistemskimi tveganji. Kar zadeva sistemska tveganja, bi morali kodeksi prakse poleg tega prispevati k vzpostavitvi taksonomije tveganja za vrsto in naravo sistemskih tveganj na ravni Unije, vključno z njihovimi viri. Kodeksi prakse bi morali biti osredotočeni tudi na specifične ocene tveganja in ukrepe za zmanjšanje tveganj.
(117)
Kodexy správné praxe by měly představovat ústřední nástroj pro řádné dodržování povinností stanovených tímto nařízením pro poskytovatele obecných modelů AI. Poskytovatelé by měli mít možnost kodexy správné praxe využívat, aby dodržování povinností prokázali. Komise může prostřednictvím prováděcích aktů rozhodnout o schválení kodexu správné praxe a o jeho obecné platnosti v rámci Unie, nebo případně o stanovení společných pravidel pro plnění příslušných povinností, pokud v době, kdy se toto nařízení stane použitelným, nemůže být kodex správné praxe dokončen nebo jej úřad pro AI nepovažuje za vhodný. Jakmile je zveřejněna harmonizovaná norma a úřad pro AI ji posoudí jako vhodnou k pokrytí příslušných povinností, měl by soulad s evropskou harmonizovanou normou poskytnout poskytovatelům předpoklad shody. Poskytovatelé obecných modelů AI by dále měli být schopni prokázat soulad přiměřenými alternativními prostředky, nejsou-li kodexy správné praxe nebo harmonizované normy k dispozici nebo rozhodnou-li se je tito poskytovatelé nevyužít.
(117)
Kodeksi prakse bi morali biti osrednje orodje za pravilno izpolnjevanje obveznosti za ponudnike modelov UI za splošne namene, ki so določene v tej uredbi. Ponudniki bi morali imeti možnost, da se pri dokazovanju izpolnjevanja obveznosti oprejo na kodekse prakse. Komisija se lahko odloči, da z izvedbenimi akti odobri kodeks prakse in mu podeli splošno veljavnost v Uniji oziroma, kot nadomestno možnost, določi skupna pravila za izvajanje ustreznih obveznosti, če kodeksa prakse do začetka uporabe te uredbe ni mogoče dokončati ali če ga Urad za UI ne šteje za ustreznega. Ko je harmonizirani standard objavljen in ko ga Urad za UI oceni kot primernega za izpolnjevanje ustreznih obveznosti, bi morala za ponudnike veljati domneva o skladnosti, kadar ti izpolnjujejo evropski harmonizirani standard. Ponudniki modelov UI za splošne namene bi morali biti poleg tega sposobni z nadomestnimi ustreznimi sredstvi dokazati skladnost, če kodeksi prakse ali harmonizirani standardi niso na voljo ali če se odločijo, da se nanje ne bodo zanašali.
(118)
Toto nařízení upravuje systémy AI a modely AI tím, že ukládá určité požadavky a povinnosti relevantním účastníkům trhu, kteří je uvádějí na trh, do provozu nebo používají v Unii, a doplňuje tak povinnosti poskytovatelů zprostředkovatelských služeb, kteří tyto systémy nebo modely začleňují do svých služeb upravených nařízením (EU) 2022/2065. Pokud jsou tyto systémy nebo modely začleněny do určených velmi velkých online platforem nebo velmi velkých internetových vyhledávačů, podléhají rámci pro řízení rizik stanovenému v nařízení (EU) 2022/2065. V důsledku by se tak příslušné povinnosti podle tohoto nařízení měly považovat za splněné, pokud se v těchto modelech neobjeví a nejsou identifikována významná systémová rizika, na něž se nařízení (EU) 2022/2065 nevztahuje. V tomto rámci jsou poskytovatelé velmi velkých online platforem a velmi velkých internetových vyhledávačů povinni posoudit potenciální systémová rizika vyplývající z navrhování, fungování a využívání jejich služeb, včetně toho, jak může k těmto rizikům přispět návrh algoritmických systémů používaných v určité službě, jakož i systémová rizika vyplývající z možného zneužití. Tito poskytovatelé jsou rovněž povinni přijmout vhodná zmírňující opatření při dodržování základních práv.
(118)
Ta uredba ureja sisteme UI in modele UI, saj za zadevne udeležence na trgu, ki te sisteme in modele dajejo na trg, v uporabo ali jih uporabljajo v Uniji, določa nekatere zahteve in obveznosti, s tem pa dopolnjuje obveznosti za ponudnike posredniških storitev, ki take sisteme ali modele vgrajujejo v svoje storitve, ki jih ureja Uredba (EU) 2022/2065. Kolikor so taki sistemi ali modeli vgrajeni v zelo velike spletne platforme ali zelo velike spletne iskalnike, zanje velja okvir za obvladovanje tveganj iz Uredbe (EU) 2022/2065. Zato bi bilo treba domnevati, da so ustrezne obveznosti iz te uredbe izpolnjene, razen če se v takih modelih pojavijo in prepoznajo pomembna sistemska tveganja, ki niso zajeta v Uredbi (EU) 2022/2065. V tem okviru morajo ponudniki zelo velikih spletnih platform in zelo velikih spletnih iskalnikov oceniti morebitna sistemska tveganja, ki izhajajo iz zasnove, delovanja in uporabe njihovih storitev, vključno s tem, kako zasnova algoritemskih sistemov, ki se uporabljajo v storitvi, lahko prispeva k takim tveganjem, pa tudi sistemska tveganja, ki izhajajo iz morebitne napačne uporabe. Ti ponudniki morajo ob spoštovanju temeljnih pravic sprejeti tudi ustrezne ukrepe za zmanjšanje tveganj.
(119)
Vzhledem k rychlému tempu inovací a technologickému vývoji digitálních služeb v oblasti působnosti různých nástrojů práva Unie, zejména s ohledem na používání a vnímání ze strany jejich příjemců, mohou být systémy AI, na něž se toto nařízení vztahuje, poskytovány jako zprostředkovatelské služby nebo jejich části ve smyslu nařízení (EU) 2022/2065, které by mělo být vykládáno technologicky neutrálním způsobem. Systémy AI lze například využít k poskytování internetových vyhledávačů, a to zejména do té míry, že systém AI, jako je online chatbot, v zásadě provádí vyhledávání na všech internetových stránkách, poté výsledky začleňuje do svých stávajících znalostí a využívá aktualizované znalosti k vytvoření jediného výstupu, který kombinuje různé zdroje informací.
(119)
Glede na hiter tempo inovacij in tehnološkega razvoja digitalnih storitev, ki spadajo na področje uporabe različnih instrumentov prava Unije, zlasti glede na uporabo in dojemanje oseb, ki so jim namenjeni, se lahko sistemi UI, za katere se uporablja ta uredba, zagotavljajo kot posredniške storitve ali kot deli posredniških storitev v smislu Uredbe (EU) 2022/2065, ki bi jo bilo treba razlagati na tehnološko nevtralen način. Sistemi UI se lahko na primer uporabljajo za zagotavljanje spletnih iskalnikov, zlasti če sistem UI, kot je spletni klepetalni robot, načeloma izvaja poizvedbe na vseh spletiščih, nato pa rezultate vključi v svoje obstoječe znanje in posodobljeno znanje uporabi za ustvarjanje enega samega izhodnega podatka, v katerem so združeni različni viri informacij.
(120)
Kromě toho jsou pro usnadnění účinného provádění nařízení (EU) 2022/2065 obzvláště důležité povinnosti, které toto nařízení ukládá poskytovatelům a subjektům zavádějícím systémy AI, aby bylo možné odhalit a zveřejnit, že výstupy těchto systémů jsou uměle generovány nebo s nimi bylo manipulováno. To platí zejména pro povinnost poskytovatelů velmi velkých online platforem nebo velmi velkých internetových vyhledávačů identifikovat a jejich povinnost zmírňovat systémová rizika, která mohou vyplývat z šíření obsahu, který byl uměle vytvořen nebo s nímž bylo manipulováno, zejména riziko skutečných nebo předvídatelných negativních dopadů na demokratické procesy, občanský diskurz a volební procesy, a to i prostřednictvím dezinformací.
(120)
Poleg tega so obveznosti za ponudnike in uvajalce nekaterih sistemov UI iz te uredbe, ki omogočajo odkrivanje in razkrivanje dejstva, da so izhodni podatki teh sistemov umetno ustvarjeni ali prirejeni, še zlasti pomembne zato, da se olajša učinkovito izvajanje Uredbe (EU) 2022/2065. To velja zlasti za obveznosti za ponudnike zelo velikih spletnih platform ali zelo velikih spletnih iskalnikov, da prepoznajo in zmanjšajo sistemska tveganja, ki lahko izhajajo iz razširjanja umetno ustvarjenih ali prirejenih vsebin, zlasti tveganje dejanskih ali predvidljivih negativnih učinkov na demokratične procese, državljansko razpravo in volilne procese, tudi z dezinformacijami.
(121)
Klíčovou úlohu při poskytování technických řešení zajišťujících dodržování tohoto nařízení poskytovatelům by měla hrát normalizace, v souladu s aktuálním stavem vývoje, aby se podpořily inovace a konkurenceschopnost a růst na jednotném trhu. Jeden z prostředků, které poskytovatelům umožní prokázat soulad s požadavky tohoto nařízení, by mělo představovat dodržování harmonizovaných norem, jež by měly obvykle odrážet aktuální stav vývoje, definovaných v čl. 2 odst. 1 písm. c) nařízení Evropského parlamentu a Rady (EU) č. 1025/2012 (41). Proto by mělo být podporováno vyvážené zastoupení zájmů se zapojením všech příslušných zúčastněných stran do tvorby norem, zejména malých a středních podniků, spotřebitelských organizací a zúčastněných stran v oblasti životního prostředí a v sociální oblasti v souladu s články 5 a 6 nařízení (EU) č. 1025/2012. Aby se usnadnilo dodržování předpisů, měla by Komise žádosti o normalizaci vydávat bez zbytečného odkladu. Při přípravě žádosti o normalizaci by Komise měla konzultovat poradní fórum a radu s cílem shromáždit příslušné odborné znalosti. Pokud však příslušné odkazy na harmonizované normy neexistují, měla by mít Komise možnost stanovit prostřednictvím prováděcích aktů a po konzultaci s poradním fórem společné specifikace pro určité požadavky podle tohoto nařízení. Společná specifikace by měla být výjimečným záložním řešením, které usnadní povinnost poskytovatele splnit požadavky tohoto nařízení, pokud žádost o normalizaci nebyla přijata žádnou z evropských normalizačních organizací nebo pokud příslušné harmonizované normy dostatečně neřeší obavy týkající se základních práv nebo pokud harmonizované normy nejsou v souladu s žádostí nebo pokud při přijímání vhodné harmonizované normy dochází ke zpoždění. Pokud je toto zpoždění při přijímání harmonizované normy způsobeno technickou složitostí dané normy, Komise by před posuzováním možnosti stanovit společné specifikace měla tuto skutečnost zohlednit. Komise vyzývá, aby při vypracovávání společných specifikací spolupracovala s mezinárodními partnery a mezinárodními normalizačními orgány.
(121)
Standardizacija bi morala imeti ključno vlogo pri zagotavljanju tehničnih rešitev ponudnikom, da se zagotovi skladnost s to uredbo, ob upoštevanju najsodobnejših tehnoloških dosežkov, ter pri spodbujanju inovacij, konkurenčnosti in rasti na enotnem trgu. Skladnost s harmoniziranimi standardi, kot so opredeljeni v členu 2, točka 1(c), Uredbe (EU) št. 1025/2012 Evropskega parlamenta in Sveta (41) in od katerih se običajno pričakuje, da odražajo najsodobnejše tehnološke dosežke, bi morala predstavljati sredstvo, s katerim ponudniki dokažejo skladnost z zahtevami iz te uredbe. Zato bi bilo treba spodbujati uravnoteženo zastopanost interesov z vključitvijo vseh ustreznih deležnikov v razvoj standardov, zlasti MSP, potrošniških organizacij ter okoljskih in socialnih deležnikov v skladu s členoma 5 in 6 Uredbe (EU) št. 1025/2012. Da bi lažje dosegli skladnost, bi morala Komisija brez nepotrebnega odlašanja izdati zahteve za standardizacijo. Pri pripravi zahteve za standardizacijo se Komisija posvetuje s svetovalnim forumom in Odborom, da zbere ustrezno strokovno znanje. Ker pa ustrezni sklici na harmonizirane standarde še ne obstajajo, bi morala imeti Komisija možnost, da z izvedbenimi akti in po posvetovanju s svetovalnim forumom določi skupne specifikacije za nekatere zahteve iz te uredbe. Skupna specifikacija bi morala biti izjemna nadomestna rešitev, da se ponudniku olajša izpolnjevanje obveznosti glede skladnosti z zahtevami iz te uredbe, kadar nobena od evropskih organizacij za standardizacijo ne sprejme zahteve za standardizacijo ali kadar ustrezni harmonizirani standardi nezadostno obravnavajo pomisleke glede temeljnih pravic ali kadar harmonizirani standardi niso skladni z zahtevo ali kadar pride do zamud pri sprejetju ustreznega harmoniziranega standarda. Kadar je vzrok za takšno zamudo pri sprejetju harmoniziranega standarda tehnična kompleksnost zadevnega standarda, bi morala Komisija to upoštevati preden se odloči za določitev skupnih specifikacij. Komisija naj pri pripravi skupnih specifikacij sodeluje z mednarodnimi partnerji in mednarodnimi organi za standardizacijo.
(122)
Aniž je dotčeno používání harmonizovaných norem a společných specifikací, je vhodné předpokládat, že poskytovatelé vysoce rizikového systému AI, který byl trénován a testován na datech odrážejících specifické zeměpisné, behaviorální, kontextuální nebo funkční prostředí, v němž má být systém AI používán, splňují příslušné opatření stanovené v rámci požadavku na správu dat stanoveného v tomto nařízení. Aniž jsou dotčeny požadavky týkající se spolehlivosti a přesnosti stanovené v tomto nařízení, mělo by se v souladu s čl. 54 odst. 3 nařízení (EU) 2019/881 předpokládat, že vysoce rizikové systémy AI, které byly certifikovány nebo pro něž bylo vydáno prohlášení o shodě v rámci systému kybernetické bezpečnosti podle uvedeného nařízení a na něž byly zveřejněny odkazy v Úředním věstníku Evropské unie, splňují požadavek tohoto nařízení na kybernetickou bezpečnost, pokud se certifikát kybernetické bezpečnosti nebo prohlášení o shodě nebo jejich části vztahují na požadavek na kybernetickou bezpečnost stanovený v tomto nařízení. Tím není dotčena dobrovolná povaha tohoto systému kybernetické bezpečnosti.
(122)
Brez poseganja v uporabo harmoniziranih standardov in skupnih specifikacij je primerno, da se za ponudnike visokotveganega sistema UI, ki je bil naučen in testiran na podlagi podatkov, ki odražajo specifično geografsko, vedenjsko, vsebinsko ali funkcionalno okolje, v katerem naj bi se ta sistem uporabljal, domneva, da delujejo skladno z ustreznim ukrepom, določenim na podlagi zahteve glede upravljanja podatkov iz te uredbe. Brez poseganja v zahteve glede robustnosti in točnosti iz te uredbe bi bilo treba v skladu s členom 54(3) Uredbe (EU) 2019/881 domnevati, da so visokotvegani sistemi UI, ki so bili certificirani ali za katere je bila izdana izjava o skladnosti v okviru sheme za kibernetsko varnost na podlagi navedene uredbe, ob tem pa so bili sklici na zadevno shemo objavljeni v Uradnem listu Evropske unije, skladni z zahtevo glede kibernetske varnosti iz te uredbe, če certifikat kibernetske varnosti ali izjava o skladnosti ali njen del vključuje zahtevo glede kibernetske varnosti iz te uredbe. To ne posega v prostovoljno naravo navedene sheme za kibernetsko varnost.
(123)
Aby byla zajištěna vysoká úroveň důvěryhodnosti vysoce rizikových systémů AI, mělo by být u těchto systémů před jejich uvedením na trh nebo do provozu provedeno posouzení shody.
(123)
Da bi zagotovili visoko raven zaupanja v visokotvegane sisteme UI, bi bilo treba za te sisteme pred dajanjem na trg ali v uporabo opraviti ugotavljanje skladnosti.
(124)
V případě vysoce rizikových systémů AI vztahujících se k produktům upraveným stávajícími harmonizačními právními předpisy Unie na základě nového legislativního rámce je v zájmu minimalizace zátěže provozovatelů a předcházení případnému zdvojování vhodné, aby byl soulad těchto systémů AI s požadavky tohoto nařízení posuzován v rámci posuzování shody, které uvedené právo již stanovují. Použitelnost požadavků tohoto nařízení by tedy neměla mít vliv na konkrétní logiku, metodiku nebo obecnou strukturu posuzování shody podle příslušných harmonizačních právních předpisů Unie.
(124)
Da bi čim bolj zmanjšali breme za operaterje in se izognili morebitnemu podvajanju, je primerno, da bi skladnost visokotveganih sistemov UI, povezanih s proizvodi, za katere velja obstoječa harmonizacijska zakonodaja Unije, ki temelji na novem zakonodajnem okviru, z zahtevami te uredbe ocenili v okviru ugotavljanja skladnosti, kot je že določeno navedena zakonodaja. Uporaba zahtev iz te uredbe torej ne bi smela vplivati na posebno logiko, metodologijo ali splošno strukturo ugotavljanja skladnosti na podlagi ustrezne harmonizacijske zakonodaje Unije.
(125)
Vzhledem ke složitosti vysoce rizikových systémů AI a rizikům, která jsou s nimi spojena, je důležité vyvinout pro vysoce rizikové systémy AI odpovídající postup posuzování shody zahrnující oznámené subjekty, tzv. posuzování shody třetí stranou. Vzhledem ke stávajícím zkušenostem profesionálních ověřovatelů před uvedením na trh v oblasti bezpečnosti produktů a k odlišné povaze souvisejících rizik je však vhodné alespoň v počáteční fázi uplatňování tohoto nařízení omezit oblast působnosti posuzování shody vysoce rizikových systémů AI třetími stranami v případech, které se netýkají produktů. Posuzování shody těchto systémů by proto měl provádět zpravidla poskytovatel na vlastní odpovědnost s jedinou výjimkou, kterou tvoří systémy AI určené pro biometriku.
(125)
Zaradi kompleksnosti visokotveganih sistemov UI in z njimi povezanih tveganj je pomembno razviti ustrezen postopek ugotavljanja skladnosti visokotveganih sistemov UI, ki vključuje priglašene organe, tako imenovano ugotavljanje skladnosti s strani tretjih oseb. Glede na sedanje izkušnje poklicnih izdajateljev potrdil pred dajanjem na trg na področju varnosti proizvodov in glede na različno naravo zadevnih tveganj, pa je primerno, da se vsaj v začetni fazi uporabe te uredbe omeji področje uporabe ugotavljanja skladnosti s strani tretjih oseb na visokotvegane sisteme UI, ki niso povezani s proizvodi. Zato bi moral ugotavljanje skladnosti takih sistemov praviloma opraviti ponudnik na lastno odgovornost, z edino izjemo sistemov UI, namenjenih uporabi za biometriko.
(126)
Příslušné vnitrostátní orgány by v souladu s tímto nařízením měly, pokud je to požadováno, oznámit oznámené subjekty pro účely posouzení shody třetími stranami pod podmínkou, že splňují určitý soubor požadavků, zejména požadavku na nezávislost, způsobilost a neexistenci střetu zájmů a vhodných požadavků na kybernetickou bezpečnost. Oznámení těchto subjektů by měly příslušné vnitrostátní orgány zasílat Komisi a ostatním členským státům prostřednictvím elektronického nástroje pro oznamování vyvinutého a spravovaného Komisí podle článku R23 přílohy I rozhodnutí č. 768/2008/ES.
(126)
Za izvedbo ugotavljanja skladnosti s strani tretjih oseb, kadar je potrebno, bi morali pristojni nacionalni organi na podlagi te uredbe priglasiti priglašene organe, pod pogojem, da izpolnjujejo vrsto zahtev, zlasti glede neodvisnosti, kompetenc, neobstoja navzkrižja interesov, pa tudi zahtev glede kibernetske varnosti. Pristojni nacionalni organi bi morali priglasitev teh organov poslati Komisiji in drugim državam članicam prek elektronskega orodja za priglasitev, ki ga razvije in upravlja Komisija na podlagi člena R23 Priloge I k Sklepu št. 768/2008/ES.
(127)
V souladu se závazky Unie podle Dohody Světové obchodní organizace o technických překážkách obchodu je vhodné usnadnit vzájemné uznávání výsledků posuzování shody vypracovaných příslušnými subjekty posuzování shody nezávisle na území, na němž jsou usazeny, za předpokladu, že tyto subjekty posuzování shody zřízené podle práva třetí země splňují příslušné požadavky tohoto nařízení a že Unie v tomto ohledu uzavřela dohodu. V této souvislosti by Komise měla za uvedeným účelem aktivně prozkoumat možné mezinárodní nástroje, a zejména usilovat o uzavření dohod o vzájemném uznávání se třetími zeměmi.
(127)
V skladu z zavezami Unije iz Sporazuma Svetovne trgovinske organizacije o tehničnih ovirah v trgovini je ustrezno olajšati vzajemno priznavanje rezultatov ugotavljanja skladnosti, ki jih pridobijo pristojni organi za ugotavljanje skladnosti ne glede na to, kje imajo sedež, pod pogojem, da navedeni organi za ugotavljanje skladnosti, ustanovljeni na podlagi prava tretje države, izpolnjujejo veljavne zahteve iz te uredbe in če je Unija v ta namen sklenila sporazum. V zvezi s tem bi morala Komisija v ta namen dejavno preučiti morebitne mednarodne instrumente in si zlasti prizadevati za sklenitev sporazumov s tretjimi državami o vzajemnem priznavanju.
(128)
V souladu s obecně zavedeným pojmem „podstatná změna“ u produktů regulovaných harmonizačními právními předpisy Unie je vhodné aby pokaždé, když dojde ke změně, která může ovlivnit soulad vysoce rizikového systému AI s tímto nařízením (např. změna operačního systému nebo softwarové architektury), nebo pokud se změní zamýšlený účel tohoto systému, byl tento systém AI považován za nový systém AI, který by měl být podroben novému posouzení shody. Změny, k nimž dochází v algoritmu a výkonnosti systémů AI, které se i po uvedení na trh nebo do provozu dále „učí“, tj. automaticky přizpůsobují způsob výkonu funkcí, by však podstatnou změnu představovat neměly, pokud byly tyto změny předem stanoveny poskytovatelem a posouzeny v okamžiku posuzování shody.
(128)
V skladu s skupno uveljavljenim pojmom bistvene spremembe za proizvode, ki jih ureja harmonizacijska zakonodaja Unije, je primerno, da ob vsaki spremembi, ki bi lahko vplivala na skladnost visokotveganega sistema UI s to uredbo (npr. spremembi arhitekture operacijskega sistema ali programske opreme), ali kadar se spremeni predvideni namen sistema, ta sistem UI šteje za nov sistem UI, za katerega bi bilo treba opraviti novo ugotavljanje skladnosti. Vendar spremembe algoritma in zmogljivosti sistemov UI, ki se po tem, ko so dani na trg ali v uporabo, še naprej „učijo“, tj. samodejno prilagajajo način izvajanja funkcij, ne bi smele pomeniti bistvene spremembe, če jih je ponudnik določil vnaprej in ocenil v okviru ugotavljanja skladnosti.
(129)
Vysoce rizikové systémy AI by měly být opatřeny označením CE prokazujícím jejich shodu s tímto nařízením, aby jim byl umožněn volný pohyb v rámci vnitřního trhu. Na vysoce rizikových systémech AI začleněných do produktu by mělo být připevněno fyzické označení CE, které může být doplněno digitálním označením CE. U vysoce rizikových systémů AI poskytovaných pouze digitálně by se mělo používat digitální označení CE. Členské státy by neměly vytvářet neodůvodněné překážky uvádění na trh nebo do provozu u vysoce rizikových systémů AI, které jsou v souladu s požadavky stanovenými v tomto nařízení a jsou opatřeny označením CE.
(129)
Visokotvegani sistemi UI bi morali imeti oznako CE, ki označuje njihovo skladnost s to uredbo, da se lahko prosto gibljejo na notranjem trgu. Visokotvegani sistemi UI, ki so vgrajeni v proizvod, bi morali biti označeni s fizično oznako CE, ki jo lahko dopolnjuje digitalna oznaka CE. Za visokotvegane sisteme UI, ki se zagotavljajo samo digitalno, bi bilo treba uporabljati digitalno oznako CE. Države članice ne bi smele neupravičeno ovirati dajanja na trg ali v uporabo visokotveganih sistemov UI, ki izpolnjujejo zahteve iz te uredbe in nosijo oznako CE.
(130)
Rychlá dostupnost inovativních technologií může mít za určitých podmínek zásadní význam pro zdraví a bezpečnost osob, ochranu životního prostředí a změnu klimatu i pro společnost jako celek. Je proto vhodné, aby orgány dozoru nad trhem mohly z výjimečných důvodů veřejné bezpečnosti nebo ochrany života a zdraví fyzických osob, ochrany životního prostředí a ochrany klíčových průmyslových a infrastrukturních aktiv povolit uvedení na trh nebo do provozu v případě systémů AI, u nichž posouzení shody nebylo provedeno. V řádně odůvodněných situacích, jak je stanoveno v tomto nařízení, mohou donucovací orgány nebo orgány civilní ochrany uvést konkrétní vysoce rizikový systém AI do provozu bez povolení orgánu dozoru nad trhem, pokud je o takové povolení požádáno během používání nebo po něm bez zbytečného odkladu.
(130)
V določenih okoliščinah je lahko hitra razpoložljivost inovativnih tehnologij ključnega pomena za zdravje in varnost ljudi, varstvo okolja in podnebne spremembe ter za družbo kot celoto. Zato je primerno, da bi iz izjemnih razlogov javne varnosti ali varstva življenja in zdravja fizičnih oseb, varstva okolja ter zaščite ključne industrijskih in infrastrukturnih sredstev organi za nadzor trga lahko dovolili dajanje na trg ali v uporabo sistemov UI, za katere ugotavljanje skladnosti ni bilo opravljeno. V ustrezno utemeljenih primerih, kot je določeno v tej uredbi, lahko organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj ali organi civilne zaščite dajo določen visokotvegani sistem UI v uporabo brez dovoljenja organa za nadzor trga, če se za tako dovoljenje brez nepotrebnega odlašanja zaprosi med uporabo ali po njej.
(131)
Pro usnadnění práce Komise a členských států v oblasti AI a zvýšení transparentnosti vůči veřejnosti by poskytovatelé vysoce rizikových systémů AI s výjimkou těch, které se vztahují k produktům spadajícím do oblasti působnosti příslušných stávajících harmonizačních právních předpisů Unie, jakož i poskytovatelé, kteří se domnívají, že systém AI uvedený mezi příklady vysoce rizikového použití v příloze tohoto nařízení není vysoce rizikový na základě výjimky, měli mít povinnost se zaregistrovat, jakož i zaregistrovat informace o svém vysoce rizikovém systému AI do databáze EU, kterou zřídí a bude spravovat Komise. Před použitím systému AI uvedeného mezi příklady vysoce rizikového použití by se subjekty zavádějící vysoce rizikové systémy AI, které jsou veřejnými orgány, agenturami nebo subjekty, měly zaregistrovat do této databáze a vybrat systém, který hodlají používat. Ostatní zavádějící subjekty by měly mít právo tak učinit dobrovolně. Tento oddíl databáze EU by měl být veřejně přístupný, bezplatný, informace by měly být snadno dohledatelné, srozumitelné a strojově čitelné. Databáze EU by rovněž měla být uživatelsky přívětivá, například tím, že bude poskytovat funkce vyhledávání, a to i prostřednictvím klíčových slov, což umožní široké veřejnosti nalézt relevantní informace, které mají být předloženy při registraci vysoce rizikových systémů AI a o příkladech vysoce rizikového použití systémů AI stanovených v přílohách tohoto nařízení, jimž vysoce rizikové systémy AI odpovídají. Veškeré podstatné změny vysoce rizikových systémů AI by se rovněž měly zaregistrovat v databázi EU. U vysoce rizikových systémů AI v oblasti vymáhání práva, migrace, azylu a řízení ochrany hranic by registrační povinnosti měly být splněny v zabezpečeném neveřejném oddílu databáze EU. Přístup k zabezpečenému neveřejnému oddílu by měl být přísně omezen na Komisi, jakož i na orgány dozoru nad trhem, pokud jde o jejich vnitrostátní část této databáze. Vysoce rizikové systémy AI v oblasti kritické infrastruktury by měly být registrovány pouze na vnitrostátní úrovni. V souladu s nařízením 2018/1725 by správcem databáze EU pro přeshraniční výměnu informací měla být Komise. Aby byla zajištěna plná funkčnost databáze EU při jejím zavedení, měl by postup při vytváření databáze zahrnovat vytvoření funkčních specifikací ze strany Komise a nezávislou zprávu o auditu. Komise by měla při plnění svých úkolů správce údajů v databázi EU zohlednit rizika spojená s kybernetickou bezpečností. Aby byla databáze EU co nejvíce dostupná a využívaná veřejností, měla by spolu s informacemi, které jsou jejím prostřednictvím zpřístupňovány, splňovat požadavky směrnice (EU) 2019/882.
(131)
Da bi olajšali delo Komisije in držav članic na področju UI ter povečanje preglednosti za javnost, bi bilo treba od ponudnikov visokotveganih sistemov UI, razen tistih, povezanih s proizvodi, ki spadajo na področje uporabe ustrezne obstoječe harmonizacijske zakonodaje Unije, ter ponudnikov, ki menijo, da sistem UI s seznama visokotveganih primerov uporabe iz priloge k tej uredbi, ni visokotvegan na podlagi odstopanja, zahtevati, da se registrirajo v podatkovni zbirki EU, ki jo vzpostavi in upravlja Komisija, in da v tej zbirki beležijo tudi informacije o svojih sistemih UI. Pred uporabo sistema UI s seznama visokotveganih primerov uporabe iz priloge k tej uredbi bi se morali uvajalci visokotveganih sistemov UI, ki so javni organi, agencije ali telesa, registrirati v taki zbirki in izbrati sistem, ki ga nameravajo uporabljati. Drugi uvajalci bi morali imeti pravico do prostovoljne registracije. Ta del podatkovne zbirke EU bi moral biti javno dostopen in brezplačen, informacije pa bi morale biti zlahka dostopne, razumljive in strojno berljive. Podatkovna zbirka EU bi prav tako morala biti prilagojena uporabnikom, na primer z zagotavljanjem funkcije iskanja, tudi s ključnimi besedami, da bi širša javnost lahko našla ustrezne informacije, ki se predložijo ob registraciji visokotveganih sistemov UI in o primeru uporabe visokotveganih sistemov UI iz priloge k tej uredbi za zadevne visokotvegane sisteme UI. V podatkovni zbirki EU bi bilo treba registrirati tudi bistvene spremembe visokotveganih sistemov UI. Za visokotvegane sisteme UI na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, migracij, azila in upravljanja nadzora meja bi bilo treba obveznosti registracije izpolniti v varnem, nejavnem delu podatkovne zbirke EU. Dostop do varnega dela, ki ni dostopen javnosti, bi moral biti strogo omejen na Komisijo in organe za nadzor trga, kar zadeva njihov nacionalni del te podatkovne zbirke. Visokotvegani sistemi UI na področju kritične infrastrukture bi morali biti registrirani le na nacionalni ravni. Komisija bi morala biti upravljavec podatkovne zbirke EU v skladu z Uredbo (EU) 2018/1725. Za zagotovitev polne funkcionalnosti podatkovne zbirke ob njeni uvedbi bi moral postopek za njeno vzpostavitev vključevati razvoj funkcionalnih specifikacij s strani Komisije in neodvisno revizijsko poročilo. Komisija bi morala pri opravljanju nalog upravljavca podatkov v podatkovni zbirki EU upoštevati tveganja, povezana s kibernetsko varnostjo. Podatkovna zbirka EU, vključno z informacijami, ki so prek nje na voljo, bi morala izpolnjevati zahteve iz Direktive (EU) 2019/882, da bi bila javnosti čim bolj dostopna in uporabna.
(132)
Určité systémy AI určené k interakci s fyzickými osobami nebo ke generování obsahu mohou představovat specifická rizika vydávání se za jinou osobu nebo podvodu bez ohledu na to, zda je lze, či nelze označit za vysoce rizikové. Na používání těchto systémů by se proto měly za určitých okolností vztahovat zvláštní povinnosti transparentnosti, aniž by tím byly dotčeny požadavky a povinnosti kladené na vysoce rizikové systémy AI, a s výhradou cílených výjimek, které zohledňují zvláštní potřeby spojené s vymáháním práva. Zejména fyzické osoby by měly být upozorněny, že komunikují se systémem AI, není-li tato skutečnost zřejmá z pohledu fyzické osoby, která je přiměřeně informovaná, pozorná a obezřetná, při zohlednění okolností a kontextu použití. Při plnění této povinnosti by měly být zohledněny vlastnosti fyzických osob náležejících ke zranitelným skupinám vzhledem k jejich věku nebo zdravotnímu postižení, a to v rozsahu, v jakém je systém AI určen i pro komunikaci s těmito skupinami. Fyzické osoby by navíc měly být informovány v případě, že jsou vystaveny systémům AI, které zpracováním jejich biometrických údajů mohou identifikovat nebo odvodit jejich emoce nebo záměry nebo je zařadit do konkrétních kategorií. Tyto konkrétní kategorie se mohou týkat takových aspektů, jako je pohlaví, věk, barva vlasů, barva očí, tetování, osobnostní rysy, etnický původ, osobní preference a zájmy. Tyto informace a oznámení by měly být poskytovány ve formátech přístupných pro osoby se zdravotním postižením.
(132)
Nekateri sistemi UI, namenjeni stikom s fizičnimi osebami ali ustvarjanju vsebine, lahko predstavljajo posebna tveganja izdajanja za drugo osebo ali zavajanja, ne glede na to, ali se uvrščajo med sisteme visokega tveganja ali ne. V določenih okoliščinah bi zato za uporabo teh sistemov morale veljati posebne obveznosti glede preglednosti, brez poseganja v zahteve in obveznosti za visokotvegane sisteme UI, in ciljne izjeme, da bi upoštevali posebne potrebe na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj. Zlasti bi bilo treba fizične osebe obvestiti, da so v interakciji s sistemom UI, razen če je to očitno z vidika fizične osebe, ki je razmeroma dobro obveščena, pozorna in preudarna, ob upoštevanju okoliščin in okvira uporabe. Pri izvajanju te obveznosti bi bilo treba upoštevati značilnosti fizičnih oseb, ki zaradi svoje starosti ali invalidnosti pripadajo ranljivim skupinam, kolikor je namen sistema UI tudi interakcija s temi skupinami. Poleg tega bi bilo treba fizične osebe obvestiti, kadar so izpostavljene sistemom UI, ki lahko z obdelavo njihovih biometričnih podatkov prepoznajo čustva ali namere teh oseb ali sklepajo o njih oziroma te osebe razvrstijo v posebne kategorije. Tovrstne posebne kategorije se lahko nanašajo na značilnosti, kot so spol, starost, barva las, barva oči, tetovaže, osebne lastnosti, etnično poreklo, osebne želje in interesi. Take informacije in obvestila bi bilo treba zagotoviti v invalidom dostopnih oblikah.
(133)
Různé systémy AI mohou generovat velké množství syntetického obsahu, který je pro člověka stále obtížnější odlišit od autentického obsahu vytvořeného člověkem. Široká dostupnost a rostoucí schopnosti těchto systémů mají významný dopad na integritu a důvěru v informační ekosystém, neboť zvyšují nová rizika zavádějících informací a manipulace ve velkém měřítku, podvodů, vydávání se za jinou osobu a klamání spotřebitelů. Vzhledem k těmto dopadům, rychlému technologickému tempu a potřebě nových metod a technik pro vysledování původu informací je vhodné požadovat, aby poskytovatelé těchto systémů zavedli technická řešení, která umožňují označení ve strojově čitelném formátu a zjištění, že výstup vytvořil nebo s ním manipuloval systém AI, a nikoli člověk. Tyto techniky a metody by měly být dostatečně spolehlivé, interoperabilní, účinné a robusní, pokud je to technicky proveditelné, s přihlédnutím k dostupným technikám nebo kombinaci těchto technik, jako jsou vodoznaky, identifikace metadat, kryptografické metody prokazování původu a pravosti obsahu, metody vedení protokolů, otisky prstů nebo případně jiné techniky. Při plnění této povinnosti by poskytovatelé měli rovněž zohlednit specifika a omezení různých typů obsahu a příslušný technologický a tržní vývoj v této oblasti, jak se odráží v obecně uznávaném aktuálním stavu vývoje. Tyto techniky a metody lze uplatňovat na úrovni systému AI nebo na úrovni modelu AI, včetně obecných modelů AI, které generují obsah, čímž se usnadní plnění této povinnosti navazujícímu poskytovateli systému AI. V zájmu zachování proporcionality je vhodné předpokládat, že by se tato povinnost označování neměla vztahovat na systémy AI, které plní především asistenční funkci pro standardní editaci, nebo na systémy AI, které podstatně nemění vstupní údaje poskytnuté zavádějícím subjektem nebo jejich sémantiku.
(133)
Različni sistemi UI lahko ustvarijo velike količine sintetičnih vsebin, ki jih ljudje vse težje razlikujejo od vsebin, ki jih ustvari človek, in verodostojnih vsebin. Široka razpoložljivost in večje zmogljivosti teh sistemov pomembno vplivajo na integriteto informacijskega ekosistema in zaupanje vanj, saj se pojavljajo nova tveganja dezinformacij in obsežnega prirejanja, goljufij, izdajanja za drugo osebo in zavajanja potrošnikov. Glede na navedene vplive, hiter tempo tehnološkega razvoja ter potrebo po novih metodah in tehnikah za sledenje izvoru informacij je primerno od ponudnikov navedenih sistemov zahtevati, da vključijo tehnične rešitve, ki v strojno berljivi obliki omogočajo označevanje in zaznavanje, da je izhodne podatke ustvaril ali priredil sistem UI in ne človek. Take tehnike in metode bi morale biti dovolj zanesljive, interoperabilne, učinkovite in robustne, kolikor je to tehnično izvedljivo, ob upoštevanju razpoložljivih tehnik ali kombinacije takih tehnik, kot so vodni žigi, prepoznavanje metapodatkov, kriptografske metode za dokazovanje izvora in pristnosti vsebine, metode beleženja, prstni odtisi ali druge tehnike, kot je ustrezno. Ponudniki bi morali pri izvajanju te obveznosti upoštevati tudi posebnosti in omejitve različnih vrst vsebin ter zadevni tehnološki in tržni razvoj na tem področju, pokazatelj katerega so splošno priznani najsodobnejši tehnološki dosežki. Takšne tehnike in metode se lahko izvajajo na ravni sistema UI ali na ravni modela UI, vključno z modeli UI za splošne namene, ki ustvarjajo vsebino, da se ponudniku sistema UI nižje v verigi omogoči lažje izpolnjevanje te obveznosti. Da bi ta obveznost označevanja ostala sorazmerna, je primerno predvideti, da ne bi smela zajemati sistemov UI, ki zagotavljajo predvsem podporno funkcijo za standardno urejanje, ali sistemov UI, ki ne spreminjajo bistveno vhodnih podatkov, ki jih zagotovi uvajalec, ali njihove semantike.
(134)
Kromě technických řešení používaných poskytovateli systému by zavádějící subjekty, které používají systém AI k vytváření obrazového, zvukového nebo video obsahu nebo k manipulaci s ním, přičemž tento obsah se znatelně podobá existujícím osobám, objektům, místům, subjektům nebo událostem, a určité osobě by se falešně jevil jako autentický nebo pravdivý (deep fakes), měly rovněž jasně a zřetelně uvádět, že obsah byl vytvořen uměle nebo s ním bylo manipulováno, a to tak, že odpovídajícím způsobem označí výstup umělé inteligence a zveřejní jeho umělý původ. Splnění této povinnosti týkající se transparentnosti by nemělo být vykládáno tak, že naznačuje, že používání systému AI nebo jeho výstupu brání právu na svobodu projevu a právu na svobodu umění a vědy zaručeným Listinou, zejména pokud je obsah součástí zjevně tvůrčího, satirického, uměleckého nebo fiktivního nebo obdobného díla nebo programu, s výhradou vhodných záruk práv a svobod třetích osob. V těchto případech je povinnost transparentnosti pro „deep fakes“ stanovená v tomto nařízení omezena na zveřejnění existence takového vytvořeného nebo zmanipulovaného obsahu vhodným způsobem, který nebrání zobrazení díla nebo požitku z něj, včetně jeho běžného využívání a používání, při zachování užitečnosti a kvality díla. Kromě toho je rovněž vhodné stanovit podobnou povinnost zveřejňování v souvislosti s textem vytvořeným nebo zmanipulovaným umělou inteligencí, pokud je zveřejněn za účelem informování veřejnosti o záležitostech veřejného zájmu, pokud obsah vytvořený umělou inteligencí neprošel procesem lidského přezkumu nebo redakční kontroly a redakční odpovědnost za zveřejnění obsahu nese fyzická nebo právnická osoba.
(134)
Poleg tehničnih rešitev, ki jih uporabljajo ponudniki sistema UI, bi morali uvajalci, ki sistem UI uporabljajo za ustvarjanje ali prirejanje slikovnih, zvočnih ali video vsebin, ki v znatni meri spominjajo na obstoječe osebe, predmete, mesta ali dogodke in bi se osebi zmotno zdele verodostojne ali resnične (globoki ponaredki), na jasen in razpoznaven način tudi razkriti, da je bila vsebina umetno ustvarjena ali prirejena, tako da ustrezno označijo izhodne podatke UI in razkrijejo njihov umetni izvor. Skladnost s to obveznostjo glede preglednosti se ne bi smela razlagati tako, da pomeni, da uporaba sistema UI ali njegovih izhodnih podatkov ovira pravico do svobode izražanja ter pravico do svobode umetnosti in znanosti, ki ju zagotavlja Listina, zlasti kadar je vsebina del očitno ustvarjalnega, satiričnega, umetniškega, izmišljenega ali podobnega dela ali programa, ob upoštevanju ustreznih zaščitnih ukrepov za pravice in svoboščine tretjih oseb. V teh primerih je obveznost glede preglednosti za globoke ponaredke iz te uredbe omejena na to, da se obstoj tako ustvarjenih ali prirejenih vsebin ustrezno razkrije na način, ki ne ovira prikazovanja dela ali uživanja v njem, vključno z njegovo običajno eksploatacijo in uporabo, ob ohranjanju uporabnosti in kakovosti dela. Primerno je tudi predvideti podobno obveznost razkritja v zvezi z besedilom, ustvarjenim ali prirejenim z UI, če je objavljeno z namenom obveščanja javnosti o zadevah javnega interesa, razen če je vsebino, ustvarjeno z UI, pregledal človek ali urednik, ob tem pa fizična ali pravna oseba nosi uredniško odgovornost za objavo vsebine.
(135)
Aniž je dotčena závazná povaha a plná použitelnost povinností týkajících se transparentnosti, může Komise rovněž podporovat a usnadňovat vypracování kodexů správné praxe na úrovni Unie s cílem usnadnit účinné provádění povinností týkajících se odhalování a označování uměle vytvořeného nebo zmanipulovaného obsahu, včetně podpory praktických opatření pro případné zpřístupnění detekčních mechanismů a usnadnění spolupráce s dalšími subjekty v celém hodnotovém řetězci, šíření obsahu nebo ověřování jeho pravosti a původu, aby veřejnost mohla obsah vytvořený umělou inteligencí účinně odlišit.
(135)
Komisija lahko brez poseganja v obvezno naravo in polno uporabo obveznosti glede preglednosti prav tako spodbuja in olajšuje pripravo kodeksov prakse na ravni Unije, da se olajša učinkovito izvajanje obveznosti v zvezi z odkrivanjem in označevanjem umetno ustvarjenih ali prirejenih vsebin, po potrebi vključno s podporo praktičnim ureditvam za omogočanje dostopa do mehanizmov odkrivanja, in olajšanje sodelovanja z drugimi akterji vzdolž verige vrednosti, razširjanje vsebine ali preverjanje njene pristnosti in izvora, da se javnosti omogoči učinkovito razlikovanje vsebin, ustvarjenih z UI.
(136)
Pro usnadnění účinného provádění nařízení (EU) 2022/2065 jsou obzvláště důležité povinnosti, které toto nařízení ukládá poskytovatelům a subjektům zavádějícím systémy AI, aby bylo možné odhalit a zveřejnit, že výstupy těchto systémů jsou uměle generovány nebo s nimi bylo manipulováno. Toto platí zejména pro povinnost poskytovatelů velmi velkých online platforem nebo velmi velkých internetových vyhledávačů identifikovat a zmírňovat systémová rizika, která mohou vyplývat z šíření obsahu, který byl uměle vytvořen nebo s nímž bylo manipulováno, zejména riziko skutečných nebo předvídatelných negativních dopadů na demokratické procesy, občanský diskurz a volební procesy, a to i prostřednictvím dezinformací. Požadavkem na označování obsahu vytvořeného systémy AI podle tohoto nařízení není dotčena povinnost uvedená v čl. 16. odst. 6 nařízení (EU) 2022/2065, podle něhož poskytovatelé hostingových služeb musejí zpracovávat oznámení o nezákonném obsahu obdržená podle čl. 16 odst. 1 uvedeného nařízení, a tento požadavek by neměl ovlivňovat posouzení a rozhodnutí o nezákonnosti konkrétního obsahu. Toto posouzení by mělo být provedeno výhradně s ohledem na pravidla upravující legalitu obsahu.
(136)
Obveznosti za ponudnike in uvajalce nekaterih sistemov UI iz te uredbe, da omogočijo odkrivanje in razkrivanje dejstva, da so izhodni podatki teh sistemov umetno ustvarjeni ali prirejeni, so še zlasti pomembne, da se olajša učinkovito izvajanje Uredbe (EU) 2022/2065. To velja zlasti za obveznosti za ponudnike zelo velikih spletnih platform ali zelo velikih spletnih iskalnikov, da prepoznajo in zmanjšajo sistemska tveganja, ki lahko izhajajo iz razširjanja umetno ustvarjenih ali prirejenih vsebin, zlasti tveganje dejanskih ali predvidljivih negativnih učinkov na demokratične procese, državljansko razpravo in volilne procese, tudi z dezinformacijami. Zahteva za označevanje s sistemi UI ustvarjenih vsebin na podlagi te uredbe ne posega v obveznost iz člena 16(6) Uredbe (EU) 2022/2065, da ponudniki storitev gostovanja obravnavajo prijave nezakonitih vsebin, prejete na podlagi člena 16(1) navedene uredbe, ter ne bi smela vplivati na oceno in odločitev o nezakonitosti določene vsebine. To oceno bi bilo treba opraviti izključno ob upoštevanju pravil, ki urejajo zakonitost vsebine.
(137)
Dodržování povinností týkajících se transparentnosti pro systémy AI, na něž se vztahuje toto nařízení, by nemělo být vykládáno tak, že se uvádí, že používání daného systému AI nebo jeho výstupu je podle tohoto nařízení nebo jiného práva Unie a členských států zákonné, a neměly by jím být dotčeny jiné povinnosti týkající se transparentnosti pro subjekty zavádějící systémy AI stanovené v unijním nebo vnitrostátním právu.
(137)
Skladnosti z navedenimi obveznostmi glede preglednosti za sisteme UI iz te uredbe ne bi smeli razlagati tako, da pomeni, da je uporaba sistema UI ali njegovih izhodnih podatkov zakonita na podlagi te uredbe ali drugega prava Unije in prava držav članic, ter ne bi smela posegati v druge obveznosti uvajalcev sistemov UI glede preglednosti, določene v pravu Unije ali nacionalnem pravu.
(138)
AI je rychle se vyvíjející skupina technologií, která vyžaduje regulační dohled a bezpečný a kontrolovaný prostor pro experimentování při současném zajištění odpovědných inovací a integrace vhodných záruk a opatření ke zmírnění rizika. Aby byl zajištěn právní rámec, který inovace podporuje, obstojí i v budoucnu a je odolný vůči narušení, měly by členské státy zajistit, aby jejich příslušné vnitrostátní orgány zřídily alespoň jeden regulační sandbox pro AI na vnitrostátní úrovni s cílem usnadnit vývoj a testování inovativních systémů AI pod přísným regulačním dohledem, než budou tyto systémy uvedeny na trh nebo jiným způsobem do provozu. Členské státy by mohly tuto povinnost splnit také účastí v již existujících regulačních sandboxech nebo společným zřízením sandboxu s příslušnými orgány jednoho nebo více členských států, pokud tato účast poskytuje zúčastněným členským státům rovnocennou úroveň vnitrostátního pokrytí. Regulační sandboxy pro AI by mohly být zřízeny ve fyzické, digitální nebo hybridní podobě a mohou být určeny pro fyzické i digitální produkty. Zřizující orgány by rovněž měly zajistit, aby regulační sandboxy pro AI měly odpovídající zdroje pro své fungování, včetně finančních a lidských zdrojů.
(138)
UI je hitro razvijajoča se skupina tehnologij, ki zahteva regulativni nadzor ter varen in nadzorovan prostor za eksperimentiranje, ob zagotavljanju odgovornih inovacij ter vključevanja ustreznih zaščitnih ukrepov in ukrepov za zmanjšanje tveganj. Da bi zagotovili pravni okvir, ki spodbuja inovacije ter je primeren za prihodnost in odporen na motnje, bi morale države članice zagotoviti, da njihovi nacionalni pristojni organi na nacionalni ravni vzpostavijo vsaj en regulativni peskovnik za UI, da bi olajšali razvoj in testiranje inovativnih sistemov UI pod strogim regulativnim nadzorom, preden se ti sistemi dajo na trg ali kako drugače v uporabo. Države članice bi lahko to obveznost izpolnile tudi s sodelovanjem v že obstoječih regulativnih peskovnikih ali z vzpostavitvijo peskovnika skupaj s pristojnimi organi ene ali več držav članic, če tako sodelovanje sodelujočim državam članicam zagotavlja enakovredno raven nacionalne pokritosti. Regulativni peskovniki za UI bi lahko bili vzpostavljeni v fizični, digitalni ali hibridni obliki ter za fizične in digitalne izdelke. Organi, ki vzpostavijo regulativne peskovnike za UI, bi morali tudi zagotoviti, da imajo ti peskovniki ustrezne vire za svoje delovanje, vključno s finančnimi in človeškimi viri.
(139)
Cílem těchto regulačních sandboxů pro AI by měla být podpora inovací AI na základě vytvoření kontrolovaného experimentálního a testovacího prostředí ve fázi vývoje a před uvedením na trh, aby byl zajištěn soulad inovativních systémů AI s tímto nařízením a s dalšími příslušným právem Unie i s vnitrostátním právem. Regulační sandboxy pro AI by dále měly vést k posílení právní jistoty inovátorů, dohledu příslušných orgánů a jejich porozumění příležitostem, vznikajícím rizikům a dopadům používání AI, usnadnění regulačního učení orgánů a podniků, a to i s ohledem na budoucí úpravy právního rámce, podpora spolupráce a sdílení osvědčených postupů s orgány zapojenými do regulačního sandboxu pro AI, jakož i urychlení přístupu na trhy, mimo jiné odstraněním překážek pro malé a střední podniky včetně podniků začínajících. Regulační sandboxy pro AI by měly být široce dostupné v celé Unii a zvláštní pozornost by měla být věnována jejich dostupnosti pro malé a střední podniky, včetně podniků začínajících. Účast v regulačním sandboxu pro AI by se měla zaměřit na otázky, které zvyšují právní nejistotu pro poskytovatele a potenciální poskytovatele, pokud jde o inovace, experimentování s AI v Unii a přispívání k fakticky podloženému regulačnímu učení. Dohled nad systémy AI v regulačním sandboxu pro AI by proto měl zahrnovat jejich vývoj, trénování, testování a validaci před uvedením systémů na trh nebo do provozu, jakož i pojem podstatných změn, které mohou vyžadovat nový postup posuzování shody, a výskyt takových změn. Veškerá významná rizika, která budou zjištěna během vývoje a testování těchto systémů AI, by měla být následně náležitě zmírněna, přičemž v případě neúspěchu by měl být proces vývoje a testování pozastaven.Příslušné vnitrostátní orgány, které zřizují regulační sandboxy pro AI, by případně měly spolupracovat s dalšími příslušnými orgány, včetně těch, které dohlížejí na ochranu základních práv, a mohly by umožnit zapojení dalších subjektů v rámci ekosystému AI, jako jsou vnitrostátní nebo evropské normalizační organizace, oznámené subjekty, testovací a experimentální zařízení, výzkumné a experimentální laboratoře, evropská centra pro digitální inovace a příslušné zúčastněné strany a organizace občanské společnosti. Aby bylo zajištěno jednotné provádění v celé Unii a úspory z rozsahu, je vhodné stanovit společná pravidla pro zavádění regulačních sandboxů pro AI a rámec spolupráce mezi příslušnými orgány, které se podílejí na dohledu nad těmito sandboxy. Regulačními sandboxy pro AI zřízenými podle tohoto nařízení by nemělo být dotčeno jiné právo umožňující zřízení jiných sandboxů, jejichž cílem je zajistit soulad s jiným právem, než je toto nařízení. Příslušné orgány odpovědné za tyto jiné regulační sandboxy by případně měly zvážit přínosy používání těchto sandboxů rovněž pro účely zajištění souladu systémů AI s tímto nařízením. Na základě dohody mezi příslušnými vnitrostátními orgány a účastníky regulačního sandboxu pro AI může být v rámci regulačního sandboxu pro AI rovněž prováděno a kontrolováno testování v reálných podmínkách.
(139)
Cilji regulativnih peskovnikov za UI bi morali biti spodbujanje inovacij na področju UI z vzpostavitvijo nadzorovanega okolja za eksperimentiranje in testiranje v fazi razvoja ter pred trženjem, da se zagotovi skladnost inovativnih sistemov UI s to uredbo ter drugim ustreznim pravom Unije in nacionalnim pravom. Poleg tega bi moral biti cilj regulativnih peskovnikov za UI okrepitev pravne varnosti za inovatorje ter nadzora pristojnih organov in njihovega razumevanja priložnosti, nastajajočih tveganj in vplivov uporabe UI, olajšanje regulativnega učenja za organe in podjetja, tudi zaradi prihodnjih prilagoditev pravnega okvira, podpiranje sodelovanja in izmenjave najboljših praks z organi, vključenimi v regulativni peskovnik za UI, pa tudi pospešitev dostopa do trgov, med drugim z odpravo ovir za MSP, vključno z zagonskimi podjetji. Regulativni peskovniki za UI bi morali biti široko dostopni po vsej Uniji, posebno pozornost pa bi bilo treba nameniti njihovi dostopnosti za MSP, vključno z zagonskimi podjetji. Sodelovanje v regulativnem peskovniku za UI bi moralo biti osredotočeno na vprašanja, ki ustvarjajo pravno negotovost za ponudnike in potencialne ponudnike pri inovacijah, eksperimentiranju z UI v Uniji in prispevanju k regulativnemu učenju, ki temelji na dokazih. Nadzor sistemov UI v regulativnem peskovniku za UI bi zato moral zajemati njihov razvoj, učenje, testiranje in validacijo, preden so sistemi dani na trg ali v uporabo, ter pojem in pojav bistvenih sprememb, zaradi katerih bi lahko bil potreben nov postopek ugotavljanja skladnosti. Vsa pomembna tveganja, prepoznana med razvojem in testiranjem takih sistemov UI, bi bilo treba ustrezno zmanjšati, če to ni mogoče, pa postopek razvoja in testiranja ustaviti. Kadar je primerno, bi morali pristojni nacionalni organi, ki vzpostavijo regulativne peskovnike za UI, sodelovati z drugimi ustreznimi organi, vključno s tistimi, ki nadzirajo varstvo temeljnih pravic, in bi lahko omogočili sodelovanje drugih akterjev v ekosistemu UI, kot so nacionalne ali evropske organizacije za standardizacijo, priglašeni organi, centri za testiranje in eksperimentiranje, laboratoriji za raziskave in eksperimentiranje, evropska vozlišča za digitalne inovacije ter ustrezne organizacije deležnikov in civilne družbe. Za zagotovitev enotnega izvajanja po vsej Uniji in ekonomije obsega je primerno določiti skupna pravila za izvajanje regulativnih peskovnikov za UI in okvir za sodelovanje med ustreznimi organi, vključenimi v nadzor peskovnikov. Regulativni peskovniki za UI, vzpostavljeni na podlagi te uredbe, ne bi smeli posegati v drugo pravo, ki omogoča vzpostavitev drugih peskovnikov, katerih namen je zagotoviti skladnost s pravom, ki ni ta uredba. Ustrezni pristojni organi, odgovorni za te druge regulativne peskovnike, bi morali, kadar je primerno, upoštevati koristi uporabe teh peskovnikov tudi za namen zagotavljanja skladnosti sistemov UI s to uredbo. Po dogovoru med pristojnimi nacionalnimi organi in udeleženci v regulativnem peskovniku za UI se lahko testiranje v realnih razmerah izvaja in nadzira tudi v okviru regulativnega peskovnika za UI.
(140)
Toto nařízení by mělo poskytovatelům a potenciálním poskytovatelům v regulačním sandboxu pro AI poskytnout právní základ pro to, aby v rámci regulačního sandboxu pro AI mohli k vývoji určitých systémů AI ve veřejném zájmu použít osobní údaje shromážděné pro jiné účely, a to pouze za určitých podmínek, v souladu s čl. 6 odst. 4 a čl. 9 odst. 2 písm. g) nařízení (EU) 2016/679 a s článkem 5, 6 a 10 nařízení (EU) 2018/1725, aniž je dotčen čl. 4 odst. 2 a článek 10 směrnice (EU) 2016/680. Nadále platí všechny ostatní povinnosti správců údajů a práva subjektů údajů podle nařízení (EU) 2016/679, nařízení (EU) 2018/1725 a směrnice (EU) 2016/680. Toto nařízení by zejména nemělo poskytovat právní základ ve smyslu čl. 22 odst. 2 písm. b) nařízení (EU) 2016/679 a čl. 24 odst. 2 písm. b) nařízení (EU) 2018/1725. Poskytovatelé a potenciální poskytovatelé by v regulačních sandboxech pro AI by měli zajistit vhodné záruky a spolupracovat s příslušnými orgány, mimo jiné postupovat podle jejich pokynů a jednat rychle a v dobré víře, aby náležitě zmírnili veškerá zjištěná významná rizika pro bezpečnost, zdraví a základní práva, která v průběhu vývoje, testování a experimentování v rámci sandboxu případně vzniknou.
(140)
Ta uredba bi morala zagotoviti pravno podlago, da ponudniki in potencialni ponudniki v regulativnem peskovniku za UI osebne podatke, zbrane za druge namene, uporabijo za razvoj nekaterih sistemov UI v javnem interesu v okviru regulativnega peskovnika za UI samo pod določenimi pogoji v skladu s členom 6(4) in členom 9(2), točka (g), Uredbe (EU) 2016/679, členi 5, 6 in 10 Uredbe (EU) 2018/1725 ter brez poseganja v člen 4(2) in člen 10 Direktive (EU) 2016/680. Vse druge obveznosti upravljavcev podatkov in pravice posameznikov, na katere se nanašajo osebni podatki, na podlagi uredb (EU) 2016/679 in (EU) 2018/1725 ter Direktive (EU) 2016/680 se še naprej uporabljajo. Ta uredba zlasti ne bi smela zagotavljati pravne podlage v smislu člena 22(2), točka (b), Uredbe (EU) 2016/679 in člena 24(2), točka (b), Uredbe (EU) 2018/1725. Ponudniki in potencialni ponudniki v regulativnemu peskovniku za UI bi morali zagotoviti ustrezne zaščitne ukrepe in sodelovati s pristojnimi organi, tudi z upoštevanjem njihovih smernic ter hitrim in dobronamernim ukrepanjem, da bi ustrezno zmanjšali vsa prepoznana znatna tveganja za varnost, zdravje in temeljne pravice, ki se lahko pojavijo med razvojem, testiranjem in eksperimentiranjem v tem peskovniku.
(141)
V zájmu urychlení procesu vývoje vysoce rizikových systémů AI uvedených v příloze tohoto nařízení a jejich uvádění na trh je důležité, aby poskytovatelé nebo potenciální poskytovatelé těchto systémů mohli rovněž využívat zvláštního režimu pro testování těchto systémů v reálných podmínkách, aniž by se účastnili regulačního sandboxu pro AI. V takových případech, s ohledem na možné důsledky takového testování pro jednotlivce by však mělo být zajištěno, aby toto nařízení pro poskytovatele nebo potenciální poskytovatele zavedlo vhodné a dostatečné záruky a podmínky. Tyto záruky by měly mimo jiné zahrnovat požadavek na informovaný souhlas fyzických osob s účastí na testování v reálných podmínkách, s výjimkou vymáhání práva v případech, kdy by získání informovaného souhlasu bránilo testování systému AI. Souhlas subjektů údajů s účastí na takovém testování podle tohoto nařízení je odlišný od souhlasu subjektů údajů se zpracováním jejich osobních údajů podle příslušného práva v oblasti ochrany údajů, který jím není dotčen. Je rovněž důležité minimalizovat rizika a umožnit dohled ze strany příslušných orgánů, a proto požadovat, aby potenciální poskytovatelé předložili příslušnému orgánu dozoru nad trhem plán testování v reálných podmínkách, zaregistrovali testování ve specializovaných oddílech v databázi EU s výhradou určitých omezených výjimek, stanovili omezení doby, po kterou lze testování provádět, a vyžadovali další záruky pro osoby patřící do některé ze zranitelných skupin, jakož i písemnou dohodu vymezující úlohy a povinnosti potenciálních poskytovatelů a zavádějících subjektů a účinný dohled ze strany příslušných pracovníků zapojených do testování v reálném provozu. Dále je vhodné stanovit další záruky, které zajistí, aby predikce, doporučení nebo rozhodnutí systému AI mohly být účinně zrušeny a ignorovány a aby byly osobní údaje chráněny a vymazány, pokud subjekty odvolají svůj souhlas s účastí na testování, aniž by byla dotčena jejich práva jakožto subjektů údajů podle práva Unie o ochraně údajů. Pokud jde o předávání údajů, je rovněž vhodné předpokládat, že údaje shromážděné a zpracovávané pro účely testování v reálných podmínkách by měly být předávány do třetích zemí pouze v případě, že jsou zavedeny vhodné a použitelné záruky podle práva Unie, zejména v souladu se základy pro předávání osobních údajů podle práva Unie o ochraně údajů, zatímco pro neosobní údaje jsou zavedeny vhodné záruky v souladu s právem Unie, jako jsou nařízení Evropského parlamentu a Rady (EU) 2022/868 (42) a (EU) 2023/2854 (43).
(141)
Da bi pospešili proces razvoja visokotveganih sistemov UI s seznama v eni od prilog k tej uredbi in njihovega dajanja na trg, je pomembno, da imajo tudi ponudniki ali potencialni ponudniki takih sistemov koristi od posebne ureditve za testiranje teh sistemov v realnih razmerah brez sodelovanja v regulativnem peskovniku za UI. Vendar bi bilo treba v takih primerih, ob upoštevanju možnih posledic takega testiranja za posameznike zagotoviti, da se s to uredbo za ponudnike ali potencialne ponudnike uvedejo ustrezna in zadostna jamstva in pogoji. Taka jamstva bi morala med drugim vključevati zahtevo, da je za sodelovanje fizičnih oseb pri testiranju v realnih razmerah potrebna informirana privolitev, razen ko gre za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, ko bi pridobitev informirane privolitve preprečila testiranje sistema UI. Privolitev posameznikov, da sodelujejo pri takem testiranju na podlagi te uredbe, se razlikuje od privolitve posameznikov, na katere se nanašajo osebni podatki, v obdelavo njihovih osebnih podatkov na podlagi ustrezne zakonodaje o varstvu podatkov in vanjo ne posega. Pomembno je tudi čim bolj zmanjšati tveganja in pristojnim organom omogočiti nadzor ter zato od potencialnih ponudnikov zahtevati, da imajo načrt testiranja v dejanskih razmerah, ki ga predložijo pristojnemu organu za nadzor trga, da testiranje registrirajo v namenskih delih podatkovne zbirke EU, ob upoštevanju nekaterih omejenih izjem, da določijo omejitve obdobja, v katerem je mogoče opraviti testiranje, in da zahtevajo dodatne zaščitne ukrepe za osebe, ki pripadajo določenim ranljivim s skupinami, ter da imajo pisni dogovor, v katerem so opredeljene vloge in odgovornosti potencialnih ponudnikov in uvajalcev, ter učinkovit nadzor, ki ga izvaja usposobljeno osebje, vključeno v testiranje v realnih razmerah. Poleg tega je primerno predvideti dodatne zaščitne ukrepe za zagotovitev, da se lahko napovedi, priporočila ali odločitve sistema UI učinkovito izničijo in zanemarijo ter da so osebni podatki zaščiteni in izbrisani, ko posamezniki umaknejo privolitev za sodelovanje v testiranju, brez poseganja v njihove pravice, ki jih imajo kot posamezniki, na katere se nanašajo osebni podatki, na podlagi prava Unije o varstvu podatkov. Kar zadeva prenos podatkov, je primerno predvideti tudi, da bi bilo treba podatke, zbrane in obdelane za namene testiranja v realnih razmerah, prenesti v tretje države le, če se izvajajo ustrezni in veljavni zaščitni ukrepi na podlagi prava Unije, zlasti v skladu z osnovami za prenos osebnih podatkov na podlagi prava Unije o varstvu podatkov, medtem ko so za neosebne podatke ustrezni zaščitni ukrepi vzpostavljeni v skladu s pravom Unije, kot sta uredbi (EU) 2022/868 (42) in (EU) 2023/2854 (43) Evropskega parlamenta in Sveta.
(142)
V zájmu zajištění sociálně a environmentálně prospěšných výsledků AI se členské státy vybízejí, aby podporovaly a prosazovaly výzkum a vývoj řešení v oblasti AI, která sociálně a environmentálně prospěšné výsledky podporují, jako jsou řešení založená na AI, jejichž cílem je zvýšit přístupnost pro osoby se zdravotním postižením, řešit socioekonomické nerovnosti nebo plnit environmentální cíle, a aby za tímto účelem přidělily dostatečné zdroje, včetně veřejných a unijních finančních prostředků, a případně aby se zaměřily zejména na projekty, které sledují uvedené cíle, jsou-li splněna kritéria způsobilosti a výběru. Tyto projekty by měly být založeny na zásadě interdisciplinární spolupráce mezi vývojáři AI, odborníky na nerovnost a nediskriminaci, přístupnost, spotřebitelská, environmentální a digitální práva, jakož i akademickými pracovníky.
(142)
Da bi zagotovili, da bo UI privedla do družbeno in okoljsko koristnih rezultatov, se države članice spodbuja, naj podpirajo in spodbujajo raziskave in razvoj rešitev UI v podporo družbeno in okoljsko koristnim rezultatom, kot so rešitve, ki temeljijo na umetni inteligenci, za povečanje dostopnosti za invalide, odpravo socialno-ekonomskih neenakosti ali doseganje okoljskih ciljev, in sicer z dodelitvijo zadostnih sredstev, vključno z javnimi sredstvi in financiranjem Unije, ter, kadar je ustrezno in pod pogojem, da so izpolnjena merila za upravičenost in izbor, zlasti upoštevajoč projekte, ki vključujejo takšne cilje Takšni projekti bi morali temeljiti na načelu interdisciplinarnega sodelovanja med razvijalci UI, strokovnjaki za neenakost in nediskriminacijo, dostopnost, potrošnike, okolje in digitalne pravice ter akademskimi krogi.
(143)
V zájmu podpory a ochrany inovací je důležité, aby byly obzvláště zohledněny zájmy malých a středních podniků, včetně podniků začínajících, které jsou poskytovateli nebo zavádějícími subjekty systémů AI. Za tímto účelem by členské státy měly vyvíjet iniciativy zaměřené na tyto provozovatele, a to včetně zvyšování povědomí a informační komunikace. Členské státy by měly poskytnout malým a středním podnikům, včetně podniků začínajících, které mají sídlo nebo pobočku v Unii, přednostní přístup k regulačním sandboxům pro AI za předpokladu, že splňují podmínky způsobilosti a kritéria výběru, a aniž by bránily jiným poskytovatelům a potenciálním poskytovatelům v přístupu k sandboxům za předpokladu, že jsou splněny stejné podmínky a kritéria. Členské státy by měly využít stávající kanály a případně vytvořit nové specializované kanály pro komunikaci s malými a středními podniky, včetně začínajících podniků, zavádějícími subjekty, dalšími inovátory a případně místními veřejnými orgány, aby podpořily malé a střední podniky v průběhu vývoje tím, že jim budou poskytovat pokyny a zodpovídat dotazy týkající se provádění tohoto nařízení. Tyto kanály by ve vhodných případech měly spolupracovat na vytváření synergií a zajištění jednotných pokynů pro malé a střední podniky, včetně podniků začínajících, a zavádějící subjekty. Členské státy by navíc měly usnadňovat účast malých a středních podniků a dalších příslušných zúčastněných stran na procesech rozvoje normalizace. Kromě toho by poskytovatelé měli při stanovování poplatků za posouzení shody oznámenými subjekty zohlednit zvláštní zájmy a potřeby poskytovatelů, kterými jsou malé a střední podniky včetně podniků začínajících. Komise by měla pravidelně posuzovat náklady malých a středních podniků, včetně podniků začínajících, na certifikaci a dodržování předpisů, mimo jiné na základě transparentních konzultací, a měla by spolupracovat s členskými státy na snižování těchto nákladů. Značné náklady pro poskytovatele a další provozovatele, zejména jedná-li se o poskytovatele a provozovatele menšího rozsahu, mohou představovat například náklady na překlady související s povinnou dokumentací a s komunikací s úřady. Členské státy by případně měly zajistit, aby jedním z jazyků, který určí a přijmou pro účely dokumentace příslušných poskytovatelů a komunikace s provozovateli, byl jazyk, kterému obecně rozumí co nejvyšší počet přeshraničních zavádějících subjektů. Za účelem řešení specifických potřeb malých a středních podniků, včetně podniků začínajících, by Komise měla na žádost rady poskytnout standardizované šablony pro oblasti, na něž se vztahuje toto nařízení. Kromě toho by Komise měla doplnit úsilí členských států tím, že všem poskytovatelům a zavádějícím subjektům poskytne jednotnou informační platformu se snadno použitelnými informacemi o tomto nařízení, uspořádá vhodné komunikační kampaně s cílem zvýšit povědomí o povinnostech vyplývajících z tohoto nařízení a vyhodnotí a podpoří sbližování osvědčených postupů při zadávání veřejných zakázek v souvislosti se systémy AI. K těmto podpůrným opatřením by měly mít přístup střední podniky, které donedávna splňovaly kritéria pro malé podniky ve smyslu přílohy doporučení Komise 2003/361/ES (44), neboť tyto nové střední podniky mohou někdy postrádat právní zdroje a odbornou přípravu nezbytnou k zajištění řádného porozumění tomuto nařízení a jeho dodržování.
(143)
Za spodbujanje in zaščito inovacij je pomembno, da se upoštevajo interesi MSP, vključno z zagonskimi podjetji, ki so ponudniki ali uvajalci sistemov UI. V ta namen bi morale države članice razviti pobude, namenjene tem operaterjem, vključno z ozaveščanjem in sporočanjem informacij. Države članice bi morale MSP, vključno z zagonskimi podjetji, ki imajo registrirani sedež ali podružnico v Uniji, zagotoviti prednostni dostop do regulativnih peskovnikov za UI, če ti izpolnjujejo pogoje za upravičenost in merila za izbor, ter drugim ponudnikom in potencialnim ponudnikom ne preprečujejo dostopa do peskovnikov, če so izpolnjeni enaki pogoji in merila. Države članice bi morale uporabljati obstoječe kanale in po potrebi vzpostaviti nove namenske kanale za komunikacijo z MSP, vključno z zagonskimi podjetji, uvajalci, drugimi inovatorji in po potrebi z lokalnimi javnimi organi, da se MSP z zagotavljanjem smernic in odgovarjanjem na vprašanja o izvajanju te uredbe zagotovi podpora v celotnem razvojnem procesu. Ti kanali bi morali po potrebi sodelovati, da bi ustvarili sinergije in zagotovili homogenost svojih smernic za MSP, vključno z zagonskimi podjetji, in uvajalce. Države članice bi poleg tega morale olajševati sodelovanje MSP in drugih ustreznih deležnikov v postopkih razvoja standardizacije. Poleg tega bi se pri določanju pristojbin s strani priglašenih organov za ugotavljanje skladnosti morali upoštevati posebni interesi in potrebe ponudnikov, ki so MSP, vključno z zagonskimi podjetji. Komisija bi morala stroške certificiranja in skladnosti za MSP, vključno z zagonskimi podjetji, redno ocenjevati, in sicer s preglednimi posvetovanji, ter sodelovati z državami članicami za znižanje teh stroškov. Na primer, stroški prevajanja, povezani z obvezno dokumentacijo in komuniciranjem z organi, lahko predstavljajo znaten strošek za ponudnike in druge operaterje, zlasti tiste manjšega obsega. Države članice bi morale po možnosti zagotoviti, da je eden od jezikov, ki jih določijo in sprejmejo za dokumentacijo zadevnih ponudnikov in za komunikacijo z operaterji, jezik, ki ga na splošno razume največje možno število čezmejnih uvajalcev. Za obravnavanje posebnih potreb MSP, vključno z zagonskimi podjetji, bi morala Komisija na zahtevo Odbora zagotoviti standardizirane predloge za področja, zajeta v tej uredbi. Poleg tega bi morala Komisija dopolniti prizadevanja držav članic z zagotovitvijo enotne informacijske platforme, ki vsebuje enostavno uporabne informacije v zvezi s to uredbo za vse ponudnike in uvajalce, organiziranjem ustreznih komunikacijskih kampanj za ozaveščanje o obveznostih, ki izhajajo iz te uredbe, ter ocenjevanjem in spodbujanjem zbliževanja najboljših praks v postopkih javnega naročanja v zvezi s sistemi UI. Srednja podjetja, ki so bila do nedavno opredeljena kot mala podjetja v smislu Priloge k Priporočilu Komisije 2003/361/ES (44), bi morala imeti dostop do teh podpornih ukrepov, saj ta nova srednja podjetja včasih morda nimajo pravnih sredstev in niso pridobila ustreznih usposabljanj, potrebnih za zagotovitev ustreznega razumevanja te uredbe in skladnosti z njo.
(144)
Za účelem podpory a ochrany inovací by k dosažení cílů tohoto nařízení případně měly přispívat platforma AI na vyžádání, všechny příslušné unijní programy a projekty financování, jako je program Digitální Evropa a program Horizont Evropa, prováděné Komisí a členskými státy na unijní nebo vnitrostátní úrovni.
(144)
Za spodbujanje in zaščito inovacij bi morali platforma za UI na zahtevo, vsi ustrezni programi in projekti Unije za financiranje, kot sta programa Digitalna Evropa in Obzorje Evropa, ki jih izvajajo Komisija in države članice na ravni Unije ali nacionalni ravni, prispevati k doseganju ciljev te uredbe.
(145)
K provádění tohoto nařízení s cílem minimalizovat rizika v oblasti provádění vyplývající z nedostatku věcných a odborných znalostí na trhu, jakož i usnadnit dodržování povinností poskytovatelů, zejména malých a středních podniků včetně podniků začínajících, a oznámených subjektů podle tohoto nařízení, by mohly potenciálně přispět platformy pro AI na vyžádání, evropská centra pro digitální inovace a zkušební a experimentální zařízení zřízená Komisí a členskými státy na unijní nebo vnitrostátní úrovni. Platforma pro AI na vyžádání, evropská centra pro digitální inovace a zkušební a experimentální zařízení mohou v rámci svých úkolů a oblastí působnosti poskytovatelům a oznámeným subjektům poskytovat zejména technickou a vědeckou podporu.
(145)
K izvajanju te uredbe bi morali prispevati platforma za UI na zahtevo, evropska vozlišča za digitalne inovacije ter centri za testiranje in eksperimentiranje, ki so jih vzpostavile Komisija in države članice na ravni Unije ali nacionalni ravni, in sicer da bi čim bolj zmanjšali tveganja za izvajanje, ki so posledica pomanjkanja znanja in strokovnega znanja na trgu, ter da bi ponudnikom, predvsem MSP, vključno z zagonskimi podjetji, in priglašenim organom olajšali izpolnjevanje njihovih obveznosti iz te uredbe. Platforma za UI na zahtevo, evropska vozlišča za digitalne inovacije ter centri za preskušanje in eksperimentiranje lahko ponudnikom in priglašenim organom v okviru svojih mandatov in pristojnosti zagotavljajo zlasti tehnično in znanstveno podporo.
(146)
Kromě toho je s ohledem na velmi malou velikost některých provozovatelů a v zájmu zajištění proporcionality, pokud jde o náklady na inovace, vhodné umožnit mikropodnikům, aby jednu z nejnákladnějších povinností, konkrétně zavedení systému řízení kvality, splnily zjednodušeným způsobem, který by snížil jejich administrativní zátěž a náklady, aniž by to ovlivnilo úroveň ochrany a potřebu splňovat požadavky na vysoce rizikové systémy AI. Komise by měla vypracovat pokyny pro upřesnění prvků systému řízení kvality, které mohou mikropodniky realizovat tímto zjednodušeným způsobem.
(146)
Poleg tega je zaradi majhnosti nekaterih operaterjev in da se zagotovi sorazmernost, kar zadeva stroške inovacij, primerno, da se mikropodjetjem omogoči izpolnjevanje ene od najdražjih obveznosti, tj. vzpostavitve sistema upravljanja kakovosti, na poenostavljen način, kar bi zmanjšalo upravno breme in stroške za ta podjetja in ne bi vplivalo na raven varstva in potrebo po skladnosti z zahtevami za visokotvegane sisteme UI. Komisija bi morala pripraviti smernice za opredelitev elementov sistema upravljanja kakovosti, ki jih morajo mikropodjetja izpolnjevati na ta poenostavljen način.
(147)
Je vhodné, aby Komise v maximální možné míře usnadnila přístup ke zkušebním a experimentálním zařízením orgánům, skupinám nebo laboratořím, které jsou zřízeny nebo akreditovány podle příslušných harmonizačních právních předpisů Unie a které plní úkoly v souvislosti s posuzováním shody produktů nebo zařízení, na něž se uvedené harmonizační právní předpisy Unie vztahují. To platí zejména pro odborné skupiny, odborné laboratoře a referenční laboratoře v oblasti zdravotnických prostředků podle nařízení (EU) 2017/745 a (EU) 2017/746.
(147)
Primerno je, da Komisija organom, skupinam ali laboratorijem, ustanovljenim ali akreditiranim na podlagi katere koli ustrezne harmonizacijske zakonodaje Unije, ki izpolnjujejo naloge v okviru ugotavljanja skladnosti proizvodov ali pripomočkov, zajetih v navedeni harmonizacijski zakonodaji Unije, čim bolj olajša dostop do centrov za testiranje in eksperimentiranje. To velja zlasti za strokovne odbore, strokovne laboratorije in referenčne laboratorije na področju medicinskih pripomočkov na podlagi uredb (EU) 2017/745 in (EU) 2017/746.
(148)
Toto nařízení by mělo vytvořit rámec správy, který umožní koordinovat a podporovat uplatňování tohoto nařízení na vnitrostátní úrovni, jakož i budovat kapacity na úrovni Unie a integrovat zúčastněné strany v oblasti AI. Účinné provádění a prosazování tohoto nařízení vyžaduje rámec správy, který umožní koordinaci a budování ústředních odborných znalostí na úrovni Unie. Úřad pro AI byl zřízen rozhodnutím Komise (45) a jeho úkolem je rozvíjet odborné znalosti a schopnosti Unie v oblasti AI a přispívat k provádění práva Unie v oblasti AI. Členské státy by měly usnadnit úkoly úřadu pro AI s cílem podpořit rozvoj odborných znalostí a schopností Unie na úrovni Unie a posílit fungování jednotného digitálního trhu. Kromě toho by měla být zřízena rada složená ze zástupců členských států, vědecká komise pro integraci vědecké obce a poradní fórum, které bude přispívat prostřednictvím zúčastněných stran k provádění tohoto nařízení na unijní a vnitrostátní úrovni. Rozvoj odborných znalostí a schopností Unie by měl rovněž zahrnovat využití stávajících zdrojů a odborných znalostí, zejména prostřednictvím synergií se strukturami vytvořenými v souvislosti s vymáháním jiného práva na úrovni Unie a synergií se souvisejícími iniciativami na úrovni Unie, jako je společný podnik EuroHPC a zkušební a experimentální zařízení pro AI v rámci programu Digitální Evropa.
(148)
S to uredbo bi bilo treba vzpostaviti okvir upravljanja, ki bi omogočal tako usklajevanje uporabe te uredbe in podporo uporabi na nacionalni ravni kot tudi krepitev zmogljivosti na ravni Unije in sodelovanje deležnikov s področja UI. Za učinkovito izvajanje in izvrševanje te uredbe je potreben okvir upravljanja, ki omogoča usklajevanje in pridobivanje centraliziranega strokovnega znanja na ravni Unije. Urad za UI je bil ustanovljen s sklepom Komisije (45) z mandatom razvijati strokovno znanje in zmogljivosti Unije na področju UI ter prispevati k izvajanju prava Unije o umetni inteligenci. Države članice bi morale olajšati naloge Urada za UI, da bi podpirale razvoj strokovnega znanja in zmogljivosti Unije na ravni Unije ter okrepile delovanje enotnega digitalnega trga. Poleg tega bi bilo treba ustanoviti odbor, sestavljen iz predstavnikov držav članic, znanstveni odbor za vključitev znanstvene skupnosti in svetovalni forum, da se omogoči prispevanje deležnikov k izvajanju te uredbe na ravni Unije in nacionalni ravni. Razvoj strokovnega znanja in zmogljivosti Unije bi moral vključevati tudi uporabo obstoječih virov in strokovnega znanja, zlasti s pomočjo sinergij s strukturami, vzpostavljenimi v okviru izvrševanja drugega prava na ravni Unije, in sinergij s povezanimi pobudami na ravni Unije, kot so Skupno podjetje EuroHPC ter centri za testiranje in eksperimentiranje na področju UI v okviru programa Digitalna Evropa.
(149)
V zájmu usnadnění hladkého, účinného a harmonizovaného provádění tohoto nařízení by měla být zřízena rada. Tato rada by měla odrážet různé zájmy ekosystému AI a měla by se skládat ze zástupců členských států. Tato rada by měla odpovídat za řadu poradenských úkolů, včetně vydávání stanovisek, doporučení, rad nebo příspěvků k pokynům v záležitostech souvisejících s prováděním tohoto nařízení, včetně otázek prosazování, technických specifikací nebo stávajících norem týkajících se požadavků stanovených v tomto nařízení a poskytování poradenství Komisi a členským státům a jejich vnitrostátních orgánům v konkrétních otázkách týkajících se AI. S cílem poskytnout členským státům určitou flexibilitu při jmenování svých zástupců do rady mohou být těmito zástupci jakékoli osoby patřící k veřejným subjektům, které by měly mít příslušné kompetence a pravomoci, aby usnadnily koordinaci na vnitrostátní úrovni a přispívaly k plnění úkolů rady. Rada by měla zřídit dvě stálé podskupiny, které by poskytovaly platformu pro spolupráci a výměnu mezi orgány dozoru nad trhem a oznamujícími orgány v otázkách týkajících se dozoru nad trhem a oznámených subjektů. Stálá podskupina pro dozor nad trhem by měla působit jako skupina pro správní spolupráci (ADCO) pro toto nařízení ve smyslu článku 30 nařízení (EU) 2019/1020. V souladu s článkem 33 uvedeného nařízení by Komise měla podporovat činnosti stálé podskupiny pro dozor nad trhem tím, že bude provádět hodnocení trhu nebo studie, zejména s cílem určit aspekty tohoto nařízení, které vyžadují zvláštní a naléhavou koordinaci mezi orgány dozoru nad trhem. Rada může podle potřeby zřizovat další stálé nebo dočasné podskupiny pro účely zkoumání konkrétních otázek. Rada by měla rovněž případně spolupracovat s příslušnými subjekty Unie, skupinami odborníků a sítěmi působícími v oblasti příslušného práva Unie, zejména s těmi, které působí v oblasti příslušného práva Unie upravujícího data, digitální produkty a služby.
(149)
Da bi omogočili nemoteno, učinkovito in harmonizirano izvajanje te uredbe, bi bilo treba ustanoviti Odbor. Odbor bi moral odražati različne interese ekosistema UI in sestavljati bi ga morali predstavniki držav članic. Odgovoren bi moral biti za številne svetovalne naloge, med drugim za izdajanje mnenj, priporočil in nasvetov ali za prispevanje k dajanju smernic o zadevah, povezanih z izvajanjem te uredbe, vključno z zadevami glede izvrševanja, tehničnimi specifikacijami ali obstoječimi standardi v zvezi z zahtevami iz te uredbe, ter za svetovanje Komisiji ter državam članicam in njihovim pristojnim nacionalnim organom pri posebnih vprašanjih v zvezi z UI. Da bi državam članicam omogočili nekaj prožnosti pri imenovanju njihovih predstavnikov v Odbor, so lahko ti predstavniki katere koli osebe, ki pripadajo javnim subjektom, ter bi morale imeti ustrezne pristojnosti in pooblastila za lažje usklajevanje na nacionalni ravni in prispevanje k izpolnjevanju nalog Odbora. Odbor bi moral ustanoviti dve stalni podskupini, da bi zagotovili platformo za sodelovanje in izmenjavo med organi za nadzor trga in priglasitvenimi organi o vprašanjih, povezanih z nadzorom trga oziroma priglašenimi organi. Stalna podskupina za nadzor trga bi morala delovati kot skupina za upravno koordinacijo (ADCO) za to uredbo v smislu člena 30 Uredbe (EU) 2019/1020. V skladu s členom 33 navedene uredbe bi morala Komisija podpirati dejavnosti stalne podskupine za nadzor trga z ocenjevanji ali študijami trga, zlasti z namenom opredelitve vidikov te uredbe, pri katerih je potrebno posebno in nujno usklajevanje med organi za nadzor trga. Odbor lahko ustanovi druge stalne ali začasne podskupine za preučitev posebnih vprašanj. Po potrebi bi moral sodelovati tudi z ustreznimi organi, strokovnimi skupinami in mrežami Unije, dejavnimi v okviru ustreznega prava Unije, zlasti tudi s tistimi, dejavnimi na podlagi ustreznega prava Unije o podatkih, digitalnih proizvodih in storitvah.
(150)
S cílem zajistit zapojení zúčastněných stran do provádění a uplatňování tohoto nařízení by mělo být zřízeno poradní fórum, které by poskytovalo poradenství a technické odborné znalosti radě a Komisi. Aby bylo zajištěno různorodé a vyvážené zastoupení zúčastněných stran mezi komerčními a nekomerčními zájmy, jakož i mezi středními a malými podniky a dalšími podniky v rámci kategorie komerčních zájmů, mělo by poradní fórum zahrnovat mimo jiné průmysl, začínající podniky, malé a střední podniky, akademickou obec, občanskou společnost, včetně sociálních partnerů, jakož i Agenturu pro základní práva, agenturu ENISA, Evropský výbor pro normalizaci (CEN), Evropský výbor pro normalizaci v elektrotechnice (CENELEC) a Evropský ústav pro telekomunikační normy (ETSI).
(150)
Za zagotavljanje sodelovanja deležnikov pri izvajanju in uporabi te uredbe, bi bilo treba vzpostaviti svetovalni forum, ki bi Odboru in Komisiji svetoval in jima zagotavljal tehnično strokovno znanje. Da bi zagotovili raznoliko in uravnoteženo zastopanost deležnikov glede na komercialne in nekomercialne interese, znotraj kategorije poslovnih interesov pa v zvezi z MSP in drugimi podjetji, bi moral biti svetovalni forum med drugim sestavljen iz predstavnikov industrije, zagonskih podjetij, MSP, akademskih krogov, civilne družbe, vključno s socialnimi partnerji, pa tudi Agencije za temeljne pravice, ENISA, Evropskega odbora za standardizacijo (CEN), Evropskega odbora za elektrotehniško standardizacijo (CENELEC) in Evropskega inštituta za telekomunikacijske standarde (ETSI).
(151)
Na podporu provádění a prosazování tohoto nařízení, zejména monitorovacích činností úřadu pro AI, pokud jde o obecné modely AI, by měla být zřízena vědecká komise složená z nezávislých odborníků. Nezávislí odborníci tvořící vědeckou komisi by měli být vybíráni na základě aktuálních vědeckých nebo technických odborných znalostí v oblasti AI a měli by plnit své úkoly nestranně, objektivně a zajišťovat důvěrnost informací a údajů získaných při plnění svých úkolů a činností. Aby bylo možné posílit vnitrostátní kapacity nezbytné pro účinné prosazování tohoto nařízení, měly by mít členské státy možnost požádat o podporu skupinu odborníků tvořících vědeckou komisi pro své činnosti v oblasti prosazování práva.
(151)
Za podporo izvajanju in izvrševanju te uredbe, zlasti dejavnosti spremljanja, ki jih v zvezi z modeli UI za splošne namene izvaja Urad za UI, bi bilo treba ustanoviti znanstveni odbor neodvisnih strokovnjakov. Neodvisni strokovnjaki, ki sestavljajo znanstveni odbor, bi morali biti izbrani zaradi najnovejšega znanstvenega ali tehničnega strokovnega znanja na področju UI in bi morali svoje naloge opravljati nepristransko in objektivno ter zagotavljati zaupnost informacij in podatkov, pridobljenih pri izvajanju njihovih nalog in dejavnosti. Da bi omogočili okrepitev nacionalnih zmogljivosti, potrebnih za učinkovito izvrševanje te uredbe, bi morale imeti države članice možnost, da strokovnjake, ki sestavljajo znanstveni odbor, zaprosijo, da jim pomagajo pri dejavnostih izvrševanja.
(152)
S cílem podpořit odpovídající prosazování, pokud jde o systémy AI, a posílit kapacity členských států by měly být zřízeny podpůrné struktury Unie pro testování AI, které by měly být členským státům zpřístupněny.
(152)
Da bi podprli ustrezno izvrševanje v zvezi s sistemi UI in okrepili zmogljivosti držav članic, bi bilo treba vzpostaviti podporne strukture Unije za testiranje UI in jih dati na voljo državam članicam.
(153)
Při uplatňování a prosazování tohoto nařízení hrají klíčovou roli členské státy. V tomto ohledu by měl každý členský stát určit alespoň jeden oznamující orgán a alespoň jeden orgán dozoru nad trhem jako příslušné vnitrostátní orgány pro účely dohledu nad uplatňováním a prováděním tohoto nařízení. Členské státy mohou rozhodnout, že určí jakýkoli druh veřejného subjektu, který bude plnit úkoly příslušných vnitrostátních orgánů ve smyslu tohoto nařízení, v souladu s jejich specifickými vnitrostátními organizačními charakteristikami a potřebami. V zájmu zvýšení efektivity organizace na straně členských států a stanovení jednotného kontaktního místa pro veřejnost a další protistrany na úrovni členských států a Unie by měl každý členský stát určit orgán dozoru nad trhem, který bude působit jako jednotné kontaktní místo.
(153)
Države članice imajo ključno vlogo pri uporabi in izvrševanju te uredbe. V zvezi s tem bi morala vsaka država članica za pristojne nacionalne organe za namen nadzora uporabe in izvajanja te uredbe imenovati vsaj en priglasitveni organ in vsaj en organ za nadzor trga. Države članice se lahko v skladu s svojimi specifičnimi nacionalnimi organizacijskimi značilnostmi in potrebami odločijo, da za opravljanje nalog pristojnih nacionalnih organov v smislu te uredbe imenujejo kateri koli javni subjekt. Da bi na strani držav članic izboljšali učinkovitost organizacije ter vzpostavili enotno kontaktno točko za stike z javnostjo in drugimi partnerji na ravni držav članic in Unije, bi morala vsaka država članica imenovati organ za nadzor trga, ki deluje kot enotna kontaktna točka.
(154)
Příslušné vnitrostátní orgány by měly vykonávat své pravomoci nezávisle, nestranně a nezaujatě, aby chránily zásady objektivity svých činností a úkolů a zajistily uplatňování a provádění tohoto nařízení. Členové těchto orgánů by se měli zdržet jakéhokoli jednání neslučitelného s jejich povinnostmi a měli by podléhat pravidlům důvěrnosti podle tohoto nařízení.
(154)
Pristojni nacionalni organi bi svoja pooblastila morali izvajati neodvisno, nepristransko in brez predsodkov, da bi zaščitili objektivnost svojih dejavnosti in nalog ter zagotovili uporabo in izvajanje te uredbe. Člani teh organov bi se morali vzdržati vseh dejanj, ki niso združljiva z njihovimi dolžnostmi, in zanje bi se morala uporabljati pravila o zaupnosti na podlagi te uredbe.
(155)
Všichni poskytovatelé vysoce rizikových systémů AI by měli mít zaveden systém monitorování po uvedení na trh s cílem zajistit, že budou schopni zohlednit zkušenosti s používáním vysoce rizikových systémů AI při zlepšování svých systémů a procesu návrhu a vývoje, případně že budou schopni včas přijmout veškerá případná nápravná opatření. Monitorování po uvedení na trh by mělo případně zahrnovat analýzu interakce s jinými systémy AI, včetně jiných zařízení a softwaru. Monitorování po uvedení na trh by se nemělo vztahovat na citlivé provozní údaje subjektů zavádějících systémy AI, které jsou donucovacími orgány. Tento systém je rovněž klíčovým předpokladem zajištění účinnějšího a včasnějšího řešení potenciálních rizik vyplývajících ze systémů AI, které se po uvedení na trh nebo do provozu dále „učí“. Poskytovatelé by měli mít v této souvislosti rovněž povinnost zavést systém oznamování veškerých závažných incidentů, k nimž dojde v důsledku používání jejich systémů AI, příslušným orgánům, čímž se rozumí incident nebo porucha vedoucí k úmrtí nebo vážnému poškození zdraví, vážnému a nevratnému narušení řízení a provozu kritické infrastruktury, porušení povinností podle práva Unie, jejichž cílem je ochrana základních práv, nebo vážné škody na majetku nebo životním prostředí.
(155)
Da bi zagotovili, da ponudniki visokotveganih sistemov UI izkušnje pri uporabi visokotveganih sistemov UI lahko upoštevajo za izboljšanje svojih sistemov ter postopka zasnove in razvoja ali da lahko pravočasno izvedejo morebitne popravne ukrepe, bi morali imeti vsi ponudniki vzpostavljen sistem spremljanja po dajanju na trg. Po potrebi bi spremljanje po dajanju na trg moralo vključevati analizo interakcije z drugimi sistemi UI, tudi drugimi napravami in programsko opremo. V spremljanje po dajanju na trg ne bi smeli biti zajeti občutljivi operativni podatki uvajalcev, ki so organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj. Ta sistem je tudi ključen za zagotovitev učinkovitejše in pravočasnejše obravnave morebitnih tveganj, ki izhajajo iz sistemov UI, ki se po dajanju na trg ali v uporabo še naprej „učijo“. V zvezi s tem bi bilo treba od ponudnikov zahtevati tudi, da imajo vzpostavljen sistem za poročanje ustreznim organom o vseh resnih incidentih, ki so posledica uporabe njihovih sistemov UI, tj. incidentih ali okvarah, ki povzročijo smrt ali resno ogroženost zdravja, hude in nepopravljive motnje v upravljanju in delovanju kritične infrastrukture, kršitve obveznosti na podlagi prava Unije o zaščiti temeljnih pravic ali hudo škodo premoženju ali okolju.
(156)
V zájmu zajištění náležitého a účinného vymáhání požadavků a povinností stanovených tímto nařízením, které představuje harmonizační právní předpis Unie, by se měl v plném rozsahu uplatňovat systém dozoru nad trhem a souladu výrobků s předpisy stanovený nařízením (EU) 2019/1020. Orgány dozoru nad trhem určené podle tohoto nařízení by měly mít veškeré donucovací pravomoci stanovené v tomto nařízení a v nařízení (EU) 2019/1020 a měly by vykonávat své pravomoci a plnit své povinnosti nezávisle, nestranně a nezaujatě. Ačkoli většina systémů AI nepodléhá zvláštním požadavkům a povinnostem podle tohoto nařízení, mohou orgány dozoru nad trhem přijmout opatření ve vztahu ke všem systémům AI, pokud představují riziko v souladu s tímto nařízením. Vzhledem ke zvláštní povaze orgánů, institucí a jiných subjektů Unie spadajících do oblasti působnosti tohoto nařízení je vhodné pro ně jmenovat jako příslušný orgán dozoru nad trhem evropského inspektora ochrany údajů. Tím by nemělo být dotčeno určení příslušných vnitrostátních orgánů členskými státy. Činnostmi v oblasti dozoru nad trhem by neměla být dotčena schopnost subjektů, nad nimiž je dozor vykonáván, plnit své úkoly nezávisle, pokud tuto nezávislost vyžaduje právo Unie.
(156)
Za zagotovitev ustreznega in učinkovitega izvrševanja zahtev in obveznosti iz te uredbe, ki je harmonizacijska zakonodaja Unije, bi bilo treba v celoti uporabljati sistem nadzora trga in skladnosti proizvodov, vzpostavljen z Uredbo (EU) 2019/1020. Organi za nadzor trga, imenovani na podlagi te uredbe, bi morali imeti vsa izvršilna pooblastila, določena v tej uredbi in Uredbi (EU) 2019/1020, ter bi morali svoja pooblastila in dolžnosti izvajati neodvisno, nepristransko in brez predsodkov. Čeprav za večino sistemov UI ne veljajo posebne zahteve in obveznosti iz te uredbe, lahko organi za nadzor trga sprejmejo ukrepe v zvezi z vsemi sistemi UI, če ti predstavljajo tveganje v skladu s to uredbo. Zaradi posebne narave institucij, agencij in organov Unije, ki spadajo na področje uporabe te uredbe, je za organ za nadzor trga, ki bo pristojen zanje, primerno imenovati Evropskega nadzornika za varstvo podatkov. To ne bi smelo posegati v imenovanje pristojnih nacionalnih organov s strani držav članic. Dejavnosti nadzora trga ne bi smele vplivati na zmožnost nadzorovanih subjektov, da svoje naloge opravljajo neodvisno, kadar je taka neodvisnost zahtevana po pravu Unije.
(157)
Tímto nařízením nejsou dotčeny kompetence, úkoly, pravomoci a nezávislost příslušných vnitrostátních veřejných orgánů nebo subjektů veřejného sektoru, které dohlížejí na uplatňování práva Unie na ochranu základních práv, včetně orgánů pro rovné zacházení a úřadů pro ochranu osobních údajů. Pokud je to nutné pro výkon jejich pověření, tyto vnitrostátní veřejné orgány nebo subjekty veřejného sektoru by rovněž měly mít přístup k veškeré dokumentaci vytvořené podle tohoto nařízení. Měl by být stanoven zvláštní ochranný postup pro zajištění přiměřeného a včasného prosazování předpisů proti systémům AI, které představují riziko pro zdraví, bezpečnost a základní práva. Postup pro tyto systémy AI představující riziko by se měl vztahovat na vysoce rizikové systémy AI představující riziko, zakázané systémy, které byly uvedeny na trh nebo do provozu nebo používány v rozporu se zakázanými praktikami stanovenými v tomto nařízení, a na systémy AI, které byly dodány na trh v rozporu s požadavky na transparentnost stanovenými v tomto nařízení a představují riziko.
(157)
Ta uredba ne posega v pristojnosti, naloge, pooblastila in neodvisnost ustreznih nacionalnih javnih organov ali teles, ki nadzorujejo uporabo prava Unije o varstvu temeljnih pravic, tudi ne organov za enakost in organov za varstvo podatkov. Kadar je to potrebno za njihov mandat, bi morali imeti navedeni nacionalni javni organi ali telesa tudi dostop do kakršne koli dokumentacije, pripravljene na podlagi te uredbe. Določiti bi bilo treba poseben zaščitni postopek za zagotavljanje ustreznega in pravočasnega izvrševanja v zvezi s sistemi UI, ki predstavljajo tveganje za zdravje, varnost in temeljne pravice. Postopek za take sisteme UI, ki predstavljajo tveganje, bi bilo treba uporabljati za visokotvegane sisteme UI, ki predstavljajo tveganje, prepovedane sisteme, ki so bili dani na trg ali v uporabo oziroma se uporabljajo v skladu s prepovedanimi praksami iz te uredbe, in sisteme UI, ki predstavljajo tveganje in katerih dostopnost je bila omogočena v nasprotju z zahtevami glede preglednosti iz te uredbe.
(158)
Právo Unie týkající se finančních služeb zahrnují pravidla a požadavky vnitřní správy a řízení rizik, které se vztahují na regulované finanční instituce v průběhu poskytování těchto služeb, včetně případů, kdy využívají systémy AI. V zájmu zajištění jednotného uplatňování a vymáhání povinností vyplývajících z tohoto nařízení a příslušných pravidel a požadavků právních předpisů Unie o finančních službách by měly být v rámci svých příslušných pravomocí jako příslušné orgány pro účely dohledu nad prováděním tohoto nařízení, včetně činností dozoru nad trhem ve vztahu k systémům AI poskytovaným nebo používaným finančními institucemi, které jsou předmětem regulace nebo dozoru, určeny příslušné orgány pro účely dohledu nad právními předpisy o finančních službách a jejich vymáhání, zejména příslušné orgány definované v nařízení Evropského parlamentu a Rady (EU) č. 575/2013 (46) a ve směrnicích Evropského parlamentu a Rady 2008/48/ES (47), 2009/138/ES (48), 2013/36/EU (49), 2014/17/EU (50) a (EU) 2016/97 (51), ledaže se členské státy rozhodnou ke splnění těchto úkolů dozoru nad trhem určit orgán jiný. Tyto příslušné orgány by měly mít veškeré pravomoci podle tohoto nařízení a nařízení (EU) 2019/1020, aby mohly prosazovat požadavky a povinnosti podle tohoto nařízení, včetně pravomoci provádět následné činnosti dozoru nad trhem, které mohou být případně začleněny do jejich stávajících mechanismů a postupů dohledu podle příslušného práva Unie v oblasti finančních služeb. Je vhodné stanovit, že při jednání jakožto orgány dozoru nad trhem podle tohoto nařízení by vnitrostátní orgány odpovědné za dohled nad úvěrovými institucemi, na něž se vztahuje směrnice 2013/36/EU a které se účastní jednotného mechanismu dohledu zřízeného nařízením Rady (EU) č. 1024/2013 (52), měly neprodleně podat Evropské centrální bance zprávu o veškerých informacích zjištěných v průběhu své činností v oblasti dozoru nad trhem, které by mohly mít potenciální význam pro úkoly Evropské centrální banky v oblasti obezřetnostního dohledu podle uvedeného nařízení. V zájmu dalšího posílení souladu mezi tímto nařízením a pravidly platnými pro úvěrové instituce podléhající směrnici 2013/36/EU je rovněž vhodné začlenit některé procesní povinnosti poskytovatelů v souvislosti s řízením rizik, monitorováním po uvedení na trh a dokumentací do stávajících povinností a postupů podle směrnice 2013/36/EU. Aby nedocházelo k překrývání, je třeba počítat rovněž s omezenými výjimkami ve vztahu k systému řízení kvality poskytovatelů a k povinnosti monitorování uložené zavádějícím subjektům vysoce rizikových systémů AI v rozsahu, v jakém se vztahují na úvěrové instituce podléhající směrnici 2013/36/EU. Stejný režim by se měl vztahovat na pojišťovny, zajišťovny a pojišťovací holdingové společnosti podle směrnice 2009/138/ES a na zprostředkovatele pojištění podle směrnice (EU) 2016/97 a na další typy finančních institucí, na něž se vztahují požadavky týkající se vnitřní správy, opatření nebo postupů zavedených podle příslušného práva Unie v oblasti finančních služeb, aby byla zajištěna soudržnost a rovné zacházení ve finančním sektoru.
(158)
Pravo Unije o finančnih storitvah vključuje pravila in zahteve glede notranjega upravljanja in obvladovanja tveganj, ki veljajo za regulirane finančne institucije med opravljanjem teh storitev, tudi kadar uporabljajo sisteme UI. Za zagotovitev usklajene uporabe in izvrševanja obveznosti na podlagi te uredbe ter ustreznih pravil in zahtev iz pravnih aktov Unije o finančnih storitvah bi bilo treba pristojne organe za nadzor in izvrševanje navedenih pravnih aktov, zlasti pristojne organe, opredeljene v Uredbi (EU) št. 575/2013 Evropskega parlamenta in Sveta (46) ter direktivah 2008/48/ES (47), 2009/138/ES (48), 2013/36/EU (49), 2014/17/EU (50) in (EU) 2016/97 (51) Evropskega parlamenta in Sveta, glede na njihove zadevne pristojnosti imenovati za pristojne organe za namen nadzora izvajanja te uredbe, vključno z dejavnostmi nadzora trga, v zvezi s sistemi UI, ki jih zagotavljajo ali uporabljajo regulirane in nadzorovane finančne institucije, razen če se država članica ne odloči, da bo za opravljanje teh nalog nadzora trga imenovala drug organ. Ti pristojni organi bi morali imeti vsa pooblastila na podlagi te uredbe in Uredbe (EU) 2019/1020 za izvrševanje zahtev in obveznosti iz te uredbe, vključno s pooblastili za izvajanje naknadnih dejavnosti nadzora trga, ki jih lahko, če je to primerno, vključijo v svoje obstoječe nadzorne mehanizme in postopke na podlagi zadevnega prava Unije o finančnih storitvah. Primerno je predvideti, da bi morali nacionalni organi, ki so odgovorni za nadzor kreditnih institucij, ki jih ureja Direktiva 2013/36/EU, in sodelujejo v enotnem mehanizmu nadzora, vzpostavljenem z Uredbo Sveta (EU) št. 1024/2013 (52), kadar delujejo kot organi za nadzor trga na podlagi te uredbe, Evropski centralni banki nemudoma sporočiti vse informacije, pridobljene v okviru njihovih dejavnosti nadzora trga, ki bi lahko bile zanimive za naloge bonitetnega nadzora Evropske centralne banke, kot so določene v navedeni uredbi. Za nadaljnjo krepitev skladnosti med to uredbo in pravili, ki se uporabljajo za kreditne institucije, ki jih ureja Direktiva 2013/36/EU, je primerno v obstoječe obveznosti in postopke iz Direktive 2013/36/EU vključiti tudi nekatere postopkovne obveznosti ponudnikov v zvezi z obvladovanjem tveganj, spremljanjem po dajanju na trg ter dokumentacijo. Da bi se izognili prekrivanju, bi bilo treba predvideti tudi omejena odstopanja v zvezi s sistemom ponudnikov za upravljanje kakovosti in obveznostjo spremljanja, naloženo uvajalcem visokotveganih sistemov UI, če se ta uporabljajo za kreditne institucije, ki jih ureja Direktiva 2013/36/EU. Isto ureditev bi bilo treba uporabljati za zavarovalnice in pozavarovalnice ter zavarovalne holdinge na podlagi Direktive 2009/138/ES in zavarovalne posrednike na podlagi Direktive (EU) 2016/97 ter druge vrste finančnih institucij, za katere veljajo zahteve glede notranjega upravljanja, ureditev ali postopkov, vzpostavljenih na podlagi ustreznega prava Unije o finančnih storitvah, da se zagotovita doslednost in enaka obravnava v finančnem sektorju.
(159)
Každý orgán dozoru nad trhem pro vysoce rizikové systémy AI v oblasti biometriky, který je uveden v příloze tohoto nařízení, pokud jsou tyto systémy používány pro účely vymáhání práva, řízení migrace, azylu a kontroly hranic nebo pro účely výkonu spravedlnosti a demokratických procesů, by měl mít účinné vyšetřovací a nápravné pravomoci, včetně přinejmenším pravomoci získat přístup ke všem zpracovávaným osobním údajům a ke všem informacím nezbytným pro plnění svých úkolů. Orgány dozoru nad trhem by měly mít možnost vykonávat své pravomoci zcela nezávisle. Jakýmkoli omezením jejich přístupu k citlivým provozním údajům podle tohoto nařízení by neměly být dotčeny pravomoci, které jim byly svěřeny směrnicí (EU) 2016/680. Žádnou výjimkou z poskytování údajů vnitrostátním úřadům pro ochranu osobních údajů podle tohoto nařízení by neměly být dotčeny stávající ani budoucí pravomoci těchto orgánů nad rámec tohoto nařízení.
(159)
Vsak organ za nadzor trga za visokotvegane sisteme UI na področju biometrike, kot so navedeni v eni od prilog k tej uredbi, če se ti sistemi uporabljajo za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, migracij, azila in upravljanja nadzora meja ali za pravosodje in demokratične procese, bi moral imeti pooblastila za preiskovanje in popravne ukrepe, vključno vsaj s pooblastilom za pridobitev dostopa do vseh osebnih podatkov, ki se obdelujejo, in do vseh informacij, potrebnih za opravljanje njegovih nalog. Organi za nadzor trga bi morali imeti možnost, da svoja pooblastila izvajajo popolnoma neodvisno. Morebitne omejitve njihovega dostopa do občutljivih operativnih podatkov na podlagi te uredbe ne bi smele posegati v pooblastila, ki so jim podeljena z Direktivo (EU) 2016/680. Nobena izključitev glede razkritja podatkov nacionalnim organom za varstvo podatkov na podlagi te uredbe ne bi smela vplivati na sedanja ali prihodnja pooblastila teh organov zunaj področja uporabe te uredbe.
(160)
Orgány dozoru nad trhem a Komise by měly mít možnost navrhovat společné činnosti, včetně společných šetření, prováděné orgány dozoru nad trhem nebo orgány dozoru nad trhem společně s Komisí, jejichž cílem je podporovat dodržování předpisů, zjišťovat nesoulad, zvyšovat povědomí a poskytovat pokyny v souvislosti s tímto nařízením, pokud jde o konkrétní kategorie vysoce rizikových systémů AI, u nichž se zjistí, že představují vážné riziko ve dvou nebo více členských státech. Společné činnosti na podporu dodržování předpisů by měly být prováděny v souladu s článkem 9 nařízení (EU) 2019/1020. Úřad pro AI by měl pro společná šetření poskytovat koordinační podporu.
(160)
Organom za nadzor trga in Komisiji bi moralo biti omogočeno, da predlagajo skupne dejavnosti – vključno s skupnimi preiskavami, ki jih izvajajo organi za nadzor trga sami ali skupaj s Komisijo –, katerih cilj je spodbujanje skladnosti, odkrivanje neskladnosti, ozaveščanje ali zagotavljanje smernic v zvezi s to uredbo, kar zadeva posebne kategorije visokotveganih sistemov UI, za katere se ugotovi, da predstavljajo resno tveganje v dveh ali več državah članicah. Skupne dejavnosti za spodbujanje skladnosti bi bilo treba izvajati v skladu s členom 9 Uredbe (EU) 2019/1020. Urad za UI bi moral zagotavljati usklajevalno podporo za skupne preiskave.
(161)
Je nezbytné vyjasnit povinnosti a pravomoci na úrovni Unie a na vnitrostátní úrovni, pokud jde o systémy AI, které jsou založeny na obecných modelech AI. Aby se zabránilo překrývání pravomocí, pokud je systém AI založen na obecném modelu AI a daný model a systém poskytuje tentýž poskytovatel, měl by dohled probíhat na úrovni Unie prostřednictvím úřadu pro AI, který by za tímto účelem měl mít pravomoci orgánu dozoru nad trhem ve smyslu nařízení (EU) 2019/1020. Ve všech ostatních případech zůstávají za dohled nad systémy AI odpovědné vnitrostátní orgány dozoru nad trhem. V případě obecných systémů AI, které mohou zavádějící subjekty přímo používat alespoň k jednomu účelu, který je klasifikován jako vysoce rizikový, by však orgány dozoru nad trhem měly spolupracovat s úřadem pro AI na provádění hodnocení souladu a odpovídajícím způsobem informovat radu a další orgány dozoru nad trhem. Kromě toho by orgány dozoru nad trhem měly mít možnost požádat úřad pro AI o pomoc v případech, kdy určitý orgán dozoru nad trhem není schopen dokončit šetření týkající se konkrétního vysoce rizikového systému AI, protože nemá možnost získat přístup k určitým informacím týkajícím se obecného modelu AI, na němž je daný vysoce rizikový systém AI postaven. V takových případech by se měl obdobně použít postup týkající se vzájemné pomoci v přeshraničních případech podle kapitoly VI nařízení (EU) 2019/1020.
(161)
Pojasniti je treba odgovornosti in pristojnosti na ravni Unije in nacionalni ravni v zvezi z sistemi UI, ki temeljijo na modelih UI za splošne namene. Da bi se izognili prekrivanju pristojnosti, kadar sistem UI temelji na modelu UI za splošne namene ter kadar model in sistem zagotavlja isti ponudnik, bi moral biti za nadzor na ravni Unije pristojen Urad za UI, ki bi moral v ta namen imeti pooblastila organa za nadzor trga v smislu Uredbe (EU) 2019/1020. V vseh drugih primerih so za nadzor sistemov UI še naprej odgovorni nacionalni organi za nadzor trga. Vendar bi morali organi za nadzor trga za sisteme UI za splošne namene, ki jih lahko uvajalci neposredno uporabljajo za vsaj en namen, ki je razvrščen kot visoko tveganje, sodelovati z Uradom za UI pri izvedbi ocen skladnosti ter o tem ustrezno obvestili Odbor in druge organe za nadzor trga. Poleg tega bi morali imeti organi za nadzor trga možnost, da Urad za UI zaprosijo za pomoč, kadar organ za nadzor trga ne more zaključiti preiskave visokotveganega sistema UI, ker ne more dostopati do nekaterih informacij, ki se nanašajo na model UI za splošne namene, na katerem temelji visokotvegani sistem UI. V takih primerih bi se moral smiselno uporabljati postopek v zvezi s čezmejno medsebojno pomočjo iz poglavja VI Uredbe (EU) 2019/1020.
(162)
V zájmu co nejlepšího využití centralizovaných odborných znalostí a synergií Unie na úrovni Unie by pravomoci dohledu nad povinnostmi poskytovatelů obecných modelů AI a jejich vymáhání měly být v pravomoci Komise. Úřad pro AI by měl mít možnost provádět veškerá nezbytná opatření ke sledování účinného provádění tohoto nařízení, pokud jde o obecné modely AI. Měl by mít možnost vyšetřovat případná porušení pravidel pro poskytovatele obecných modelů AI, a to jak z vlastního podnětu, tak na základě výsledků svých monitorovacích činností nebo na žádost orgánů dozoru nad trhem v souladu s podmínkami stanovenými v tomto nařízení. V zájmu podpory účinného sledování ze strany úřadu pro AI by měl tento úřad stanovit možnost, aby navazující poskytovatelé podávali stížnosti na možná porušení pravidel týkajících se poskytovatelů obecných modelů a systémů AI.
(162)
Da bi na ravni Unije čim bolje izkoristili centralizirano strokovno znanje in sinergije Unije, bi morala biti pooblastila za nadzor in izvrševanje obveznosti za ponudnike modelov UI za splošne namene v pristojnosti Komisije. Urad za UI bi moral imeti možnost, da izvede vse potrebne ukrepe za spremljanje učinkovitega izvajanja te uredbe v zvezi z modeli UI za splošne namene. Imeti bi moral možnost, da na lastno pobudo na podlagi rezultatov njegovih dejavnosti spremljanja ali na zahtevo organov za nadzor trga v skladu s pogoji iz te uredbe razišče morebitne kršitve pravil o ponudnikih modelov UI za splošne namene. Da bi podprli učinkovito spremljanje Urada za UI, bi bilo treba določiti možnost, da lahko ponudniki nižje v verigi vložijo pritožbe zaradi morebitnih kršitev pravil o ponudnikih modelov UI za splošne namene in sistemov UI.
(163)
S cílem doplnit systémy správy pro obecné modely AI by vědecká komise měla podporovat monitorovací činnosti úřadu pro AI a v některých případech může úřadu pro AI poskytovat kvalifikované výstrahy, které povedou k následným opatřením, jako jsou šetření. Tak by tomu mělo být v případě, kdy má vědecká komise důvod se domnívat, že obecný model AI představuje konkrétní a identifikovatelné riziko na úrovni Unie. Dále by tomu tak mělo být v případě, kdy má vědecká komise důvod se domnívat, že obecný model AI splňuje kritéria, která by vedla ke klasifikaci modelu AI jako obecného modelu AI se systémovým rizikem. Aby vědecká komise měla k dispozici informace nezbytné pro plnění těchto úkolů, měl by existovat mechanismus, na jehož základě může vědecká komise požádat Komisi, aby si vyžádala dokumentaci nebo informace od poskytovatele.
(163)
Da bi dopolnili sisteme upravljanja modelov UI za splošne namene, bi moral znanstveni odbor prispevati k dejavnostim spremljanja Urada za UI, ki mu v nekaterih primerih lahko pošlje kvalificirana opozorila, ki sprožijo nadaljnje ukrepanje, kot so preiskave. To bi se moralo zgoditi, kadar znanstveni odbor utemeljeno sumi, da model UI za splošne namene predstavlja konkretno in prepoznavno tveganje na ravni Unije. To bi se prav tako moralo zgoditi, kadar znanstveni odbor utemeljeno sumi, da model UI za splošne namene izpolnjuje merila, na podlagi katerih bi moral biti razvrščen kot model UI za splošne namene s sistemskim tveganjem. Da se znanstvenemu svetu zagotovijo informacije, potrebne za opravljanje teh nalog, bi moral obstajati mehanizem, s katerim lahko znanstveni odbor zaprosi Komisijo, da od ponudnika zahteva dokumentacijo ali informacije.
(164)
Úřad pro AI by měl mít možnost přijímat nezbytná opatření ke sledování účinného provádění a dodržování povinností poskytovatelů obecných modelů AI stanovených v tomto nařízení. Úřad pro AI by měl mít možnost vyšetřovat případná porušení v souladu s pravomocemi stanovenými v tomto nařízení, mimo jiné si vyžádat dokumentaci a informace, provádět hodnocení a vyžádat si opatření od poskytovatelů obecných modelů AI. Při provádění hodnocení a za účelem využití nezávislých odborných znalostí by měl mít úřad pro AI možnost zapojit nezávislé odborníky, aby prováděli hodnocení jeho jménem. Dodržování povinností by mělo být vymahatelné mimo jiné prostřednictvím žádostí o přijetí vhodných opatření, včetně opatření ke zmírnění rizik v případě zjištěných systémových rizik, jakož i prostřednictvím omezení dodávání daného modelu na trh nebo jeho stažení z trhu či z oběhu. Měla by existovat záruka spočívající v tom, že by poskytovatelé obecných modelů AI disponovali, v případě potřeby nad rámec procesních práv stanovených v tomto nařízení, procesními právy stanovenými v článku 18 nařízení (EU) 2019/1020, která by se měla použít obdobně, aniž jsou dotčena konkrétnější procesní práva stanovená tímto nařízením.
(164)
Urad za UI bi moral imeti možnost, da sprejme potrebne ukrepe za spremljanje učinkovitega izvajanja in izpolnjevanja obveznosti za ponudnike modelov UI za splošne namene iz te uredbe. Urad za UI bi moral imeti možnost, da razišče morebitne kršitve v skladu s pooblastili na podlagi te uredbe, tudi tako, da zahteva dokumentacijo in informacije, izvaja ocenjevanje ter od ponudnikov modelov UI za splošne namene zahteva ukrepe. Pri izvajanju ocenjevanja in zato, da bi uporabili neodvisno strokovno znanje, bi moral Urad za UI imeti možnost vključiti neodvisne strokovnjake, da v njegovem imenu izvedejo ocenjevanje. Izpolnjevanje obveznosti bi moralo biti izvršljivo, med drugim z zahtevami za sprejetje ustreznih ukrepov, vključno z ukrepi za zmanjšanje tveganja v primeru prepoznanih sistemskih tveganj, ter z omejevanjem omogočanja dostopnosti modela na trgu, njegovim umikom ali odpoklicem. Kot zaščitni ukrepi, kadar je to potrebno poleg procesnih pravic iz te uredbe, bi morali imeti ponudniki modelov UI za splošne namene procesne pravice iz člena 18 Uredbe (EU) 2019/1020, ki bi se morale uporabljati smiselno in brez poseganja v bolj specifične procesne pravice iz te uredbe.
(165)
Vývoj systémů AI s výjimkou vysoce rizikových systémů AI v souladu s požadavky tohoto nařízení může vést k rozsáhlejšímu zavádění etické a důvěryhodné AI v Unii. Poskytovatelé systémů AI, které nejsou vysoce rizikové, by měli být vybízeni k vytváření kodexů chování, včetně souvisejících mechanismů správy, určených k podpoře dobrovolného uplatňování některých nebo veškerých povinných požadavků platných pro vysoce rizikové systémy AI, přizpůsobených zamýšlenému účelu systémů a nižšímu souvisejícímu riziku a s přihlédnutím k dostupným technickým řešením a osvědčeným postupům v odvětví, jako jsou modely a datové karty. Poskytovatelé a případně subjekty zavádějící veškeré vysoce rizikové či nerizikové systémy AI a modely AI by také měli být povzbuzováni k tomu, aby dobrovolně uplatňovali další požadavky týkající se například prvků etických pokynů Unie pro zajištění důvěryhodnosti AI, udržitelnosti životního prostředí, opatření týkajících se gramotnosti v oblasti AI, inkluzivního a rozmanitého návrhu a vývoje systémů AI, včetně pozornosti věnované zranitelným osobám a přístupnosti pro osoby se zdravotním postižením, účasti zúčastněných stran, případně se zapojením příslušných zúčastněných stran, jako jsou podniky a organizace občanské společnosti, akademická obec, výzkumné organizace, odbory a organizace na ochranu spotřebitelů do návrhu a vývoje systémů AI a rozmanitosti vývojových týmů, včetně genderové vyváženosti. Aby se zajistila účinnost dobrovolných kodexů chování, měly by být založeny na jasných cílech a klíčových ukazatelích výkonnosti pro měření plnění těchto cílů. Měly by být rovněž vypracovány inkluzivním způsobem případně se zapojením příslušných zúčastněných stran, jako jsou podniky a organizace občanské společnosti, akademická obec, výzkumné organizace, odbory a organizace na ochranu spotřebitelů. Komise může vyvíjet iniciativy, včetně iniciativ odvětvové povahy, s cílem usnadnit snižování technických překážek bránících přeshraniční výměně dat pro účely rozvoje AI, a to i ohledně infrastruktury pro přístup k datům a sémantické a technické interoperability různých druhů dat.
(165)
Razvoj sistemov UI, ki niso visokotvegani sistemi UI, v skladu z zahtevami iz te uredbe lahko pripelje do večjega koriščenja etične in zaupanja vredne UI v Uniji. Ponudnike sistemov UI, ki niso sistemi visokega tveganja, bi bilo treba spodbujati k oblikovanju kodeksov ravnanja, vključno s povezanimi mehanizmi upravljanja, ki bodo namenjeni spodbujanju prostovoljne uporabe nekaterih ali vseh obveznih zahtev, ki se uporabljajo za visokotvegane sisteme UI, prilagojeni predvidenemu namenu sistemov in manjšemu tveganju ter bodo v njih upoštevane razpoložljive tehnične rešitve in najboljše prakse v industriji, kot so modeli in podatkovne kartice. Ponudnike in po potrebi uvajalce vseh sistemov UI, ne glede na to, ali so sistemi visokega tveganja ali ne, in modelov UI bi bilo treba spodbujati tudi k prostovoljni uporabi dodatnih zahtev, povezanih na primer z elementi etičnih smernic Unije za zaupanja vredno UI, okoljsko trajnostnostjo, ukrepi za pismenost na področju UI, zasnovo in razvojem sistemov UI, ki zagotavljata inkluzivnost in raznolikost, vključno s poudarkom na ranljivih osebah in dostopnostjo za invalide, sodelovanjem deležnikov, po potrebi s sodelovanjem ustreznih deležnikov, kot so podjetja in organizacije civilne družbe, akademski krogi, raziskovalne organizacije, sindikati in organizacije za varstvo potrošnikov, pri zasnovi in razvoju sistemov UI, ter z raznolikostjo razvojnih skupin, vključno z uravnoteženo zastopanostjo spolov. Da bi zagotovili učinkovitost prostovoljnih kodeksov ravnanja, bi morali ti temeljiti na jasnih ciljih in ključnih kazalnikih uspešnosti za merjenje doseganja teh ciljev. Prav tako bi jih bilo treba razvijati na inkluziven način, kot je ustrezno, ob sodelovanju ustreznih deležnikov, kot so podjetja in organizacije civilne družbe, akademski krogi, raziskovalne organizacije, sindikati in organizacije za varstvo potrošnikov. Komisija lahko pripravi pobude, tudi sektorske narave, da se omogoči zmanjšanje tehničnih ovir za čezmejno izmenjavo podatkov za razvoj UI, tudi na infrastrukturi za dostop do podatkov, ter semantično in tehnično interoperabilnost različnih vrst podatkov.
(166)
Je důležité, aby systémy AI související s produkty, které podle tohoto nařízení nejsou vysoce rizikové, a proto nemusí splňovat požadavky, které jsou stanoveny pro vysoce rizikové systémy AI, byly při uvedení na trh nebo do provozu přesto bezpečné. Jako záchranná síť pro přispění k tomuto cíli by se uplatnila nařízení Evropského parlamentu a Rady (EU) 2023/988 (53).
(166)
Pomembno je, da so sistemi UI, ki so povezani s proizvodi brez visokega tveganja v skladu s to uredbo in jim zato ni treba izpolnjevati zahtev za visokotvegane sisteme UI, kljub temu varni, ko so dani na trg ali v uporabo. Da bi prispevali k temu cilju, bi se Uredba (EU) 2023/988 Evropskega parlamenta in Sveta (53) uporabljala kot varnostna mreža.
(167)
V zájmu zajištění důvěryhodné a konstruktivní spolupráce příslušných orgánů na úrovni Unie a na vnitrostátní úrovni by měly všechny strany zapojené do uplatňování tohoto nařízení respektovat důvěrnost informací a údajů získaných při plnění svých úkolů, v souladu s unijním a vnitrostátním právem. Své úkoly a činnosti by měly vykonávat tak, aby chránily zejména práva duševního vlastnictví, důvěrné obchodní informace a obchodní tajemství, účinné provádění tohoto nařízení, veřejné a národní bezpečnostní zájmy, integritu trestního a správního řízení a integritu utajovaných informací.
(167)
Za zagotovitev zaupanja vrednega in konstruktivnega sodelovanja pristojnih organov na ravni Unije in nacionalni ravni bi morale vse strani, ki sodelujejo pri uporabi te uredbe, spoštovati zaupnost informacij in podatkov, ki so jih pridobili pri opravljanju svojih nalog, v skladu s pravom Unije ali nacionalnim pravom. Svoje naloge in dejavnosti bi morali opravljati tako, da varujejo zlasti pravice intelektualne lastnine, zaupne poslovne informacije in poslovne skrivnosti, učinkovito izvajanje te uredbe, javne in nacionalne varnostne interese, celovitost kazenskih in upravnih postopkov ter celovitost tajnih podatkov.
(168)
Dodržování tohoto nařízení by mělo být vymahatelné ukládáním sankcí a jiných donucovacích opatření. Členské státy by měly přijmout veškerá nezbytná opatření k zajištění toho, aby byla ustanovení tohoto nařízení prováděna, a to i stanovením účinných, přiměřených a odrazujících sankcí za jejich porušení a dodržováním zásady ne bis in idem. Za účelem posílení a harmonizace správních sankcí za porušení tohoto nařízení by měly být stanoveny horní hranice pro stanovení správních pokut za určitá konkrétní porušení. Při posuzování výše pokut by členské státy měly v každém jednotlivém případě zohlednit všechny relevantní okolnosti konkrétní situace, s náležitým ohledem zejména na povahu, závažnost a dobu trvání protiprávního jednání a jeho důsledků a na velikost poskytovatele, zejména pokud je poskytovatelem malý nebo střední podnik nebo začínající podnik. Evropský inspektor ochrany údajů by měl být oprávněn ukládat pokuty orgánům, institucím a subjektům Unie spadajícím do oblasti působnosti tohoto nařízení.
(168)
Skladnost s to uredbo bi morala biti izvršljiva z naložitvijo kazni in drugimi izvršilnimi ukrepi. Države članice bi morale sprejeti vse potrebne ukrepe za zagotovitev izvajanja določb te uredbe, tudi z določitvijo učinkovitih, sorazmernih in odvračilnih kazni za njihovo kršitev, in za upoštevanje načela ne bis in idem. Za okrepitev in uskladitev upravnih kazni za kršitev te uredbe bi bilo treba določiti zgornje meje za določitev upravnih glob za nekatere posebne kršitve. Države članice bi morale pri določanju višine glob v vsakem posameznem primeru upoštevati vse ustrezne okoliščine konkretne situacije, zlasti pa naravo, težo in trajanje kršitve ter njene posledice in velikost ponudnika, zlasti če je ponudnik MSP, vključno z zagonskim podjetjem. Evropski nadzornik za varstvo podatkov bi moral biti pooblaščen za nalaganje glob institucijam, agencijam in organom Unije, ki spadajo na področje uporabe te uredbe.
(169)
Dodržování povinností uložených poskytovatelům obecných modelů AI podle tohoto nařízení by mělo být vymahatelné mimo jiné prostřednictvím pokut. Za tímto účelem by měly být rovněž stanoveny přiměřené úrovně pokut za porušení těchto povinností, včetně nedodržení opatření požadovaných Komisí v souladu s tímto nařízením, s výhradou přiměřených promlčecích lhůt v souladu se zásadou proporcionality. Všechna rozhodnutí přijatá Komisí podle tohoto nařízení podléhají v souladu se Smlouvou o fungování EU přezkumu Soudním dvorem Evropské unie, včetně neomezené jurisdikce Soudního dvora Evropské unie ve vztahu k sankcím podle článku 261 Smlouvy o fungování EU.
(169)
Izpolnjevanje obveznosti za ponudnike modelov UI za splošne namene, določenih na podlagi te uredbe, bi moralo med drugim biti izvršljivo z globami. V ta namen bi bilo treba določiti tudi ustrezne ravni glob za kršitev navedenih obveznosti, vključno z neizpolnjevanjem ukrepov, ki jih Komisija zahteva v skladu s to uredbo, ob upoštevanju ustreznih zastaralnih rokov v skladu z načelom sorazmernosti. Vse odločitve, ki jih Komisija sprejme na podlagi te uredbe, so podvržene nadzoru Sodišča Evropske unije v skladu s PDEU, vključno z neomejeno pristojnostjo Sodišča glede kazni na podlagi člena 261 PDEU.
(170)
Unijní a vnitrostátní právo již poskytují účinné prostředky ochrany fyzickým a právnickým osobám, jejichž práva a svobody jsou používáním systémů AI nepříznivě ovlivněny. Aniž jsou tyto prostředky ochrany dotčeny, měla by být každá fyzická nebo právnická osoba, která má důvod se domnívat, že došlo k porušení tohoto nařízení, oprávněna podat stížnost příslušnému orgánu dozoru nad trhem.
(170)
Pravo Unije in nacionalno pravo fizičnim in pravnim osebam, na pravice in svoboščine katerih negativno vpliva uporaba sistemov UI, že zagotavljata učinkovita pravna sredstva. Brez poseganja v ta pravna sredstva lahko pritožbo pri ustreznem organu za nadzor trga vloži vsaka fizična ali pravna oseba, ki upravičeno meni, da je prišlo do kršitve te uredbe.
(171)
Dotčené osoby by měly mít právo obdržet vysvětlení, pokud je rozhodnutí zavádějícího subjektu založeno především na výstupech z určitých vysoce rizikových systémů AI, které spadají do oblasti působnosti tohoto nařízení, a pokud toto rozhodnutí má právní účinky nebo se jich podobně významně dotýká způsobem, který podle jejich názoru má nepříznivý dopad na jejich zdraví, bezpečnost nebo základní práva. Toto vysvětlení by mělo být jasné a smysluplné a mělo by poskytnout základ, na němž mohou dotčené osoby vykonávat svá práva. Právo na vysvětlení by se nemělo vztahovat na používání systémů AI, pro něž vyplývají výjimky nebo omezení z unijního nebo vnitrostátního práva, a mělo by se uplatňovat pouze v rozsahu, v jakém toto právo není již stanoveno právem Unie.
(171)
Osebe, na katere vpliva uporaba sistemov UI, bi morale imeti pravico do pojasnila, kadar odločitev uvajalca temelji predvsem na izhodnih podatkih nekaterih visokotveganih sistemov UI, ki spadajo na področje uporabe te uredbe, in kadar ima ta odločitev pravne učinke za te osebe ali nanje podobno znatno vpliva na način, za katerega menijo, da ima negativne učinke na njihovo zdravje, varnost in temeljne pravice. To pojasnilo bi moralo biti jasno in smiselno ter temelj, na podlagi katerega osebe, na katere vpliva uporaba sistemov UI, lahko uveljavljajo svoje pravice. Pravica do pojasnila se ne bi smela uporabljati za uporabo sistemov UI, za katere izjeme ali omejitve izhajajo iz prava Unije ali nacionalnega prava, temveč bi se morala uporabljati le, če ta pravica še ni določena na podlagi prava Unije.
(172)
Osoby jednající jako oznamovatelé porušení tohoto nařízení by měly být chráněny právem Unie. Oznamování porušení tohoto nařízení a ochrana osob oznamujících taková porušení by se proto mělo řídit směrnicí Evropského parlamentu a Rady (EU) 2019/1937 (54).
(172)
Osebe, ki kot žvižgači opozarjajo na kršitve te uredbe, bi morale biti zaščitene na podlagi prava Unije. Za prijavo kršitev te uredbe in zaščito oseb, ki te kršitve prijavijo, bi se zato morala uporabljati Direktiva (EU) 2019/1937 Evropskega parlamenta in Sveta (54).
(173)
Aby bylo zajištěno, že v případě potřeby bude možné regulační rámec upravit, by měla být na Komisi přenesena pravomoc přijímat akty v souladu s článkem 290 Smlouvy o fungování EU, pokud jde o změnu podmínek, za nichž systém AI nemá být nepovažován za vysoce rizikový, seznamu vysoce rizikových systémů AI, ustanovení týkajících se technické dokumentace, obsahu EU prohlášení o shodě, ustanovení týkajících se postupů posuzování shody a ustanovení zavádějících vysoce rizikové systémy AI, na které by se měl vztahovat postup posuzování shody založený na posouzení systému řízení kvality a posouzení technické dokumentace, prahových hodnot, referenčních hodnot a ukazatelů, mimo jiné doplněním těchto referenčních hodnot a ukazatelů, pravidel pro klasifikaci obecných modelů AI se systémovým rizikem, kritérií pro určení obecných modelů AI se systémovým rizikem, technické dokumentace pro poskytovatele obecných modelů AI a informací o transparentnosti pro poskytovatele obecných modelů AI. Je obzvláště důležité, aby Komise vedla v rámci přípravné činnosti odpovídající konzultace, a to i na odborné úrovni, a aby tyto konzultace probíhaly v souladu se zásadami stanovenými v interinstitucionální dohodě ze dne 13. dubna 2016 o zdokonalení tvorby právních předpisů (55). Pro zajištění rovné účasti na vypracovávání aktů v přenesené pravomoci obdrží Evropský parlament a Rada veškeré dokumenty současně s odborníky z členských států a jejich odborníci mají automaticky přístup na setkání skupin odborníků Komise, jež se přípravě aktů v přenesené pravomoci věnují.
(173)
Za zagotovitev, da se regulativni okvir lahko po potrebi prilagodi, bi bilo treba na Komisijo prenesti pooblastilo, da v skladu s členom 290 PDEU sprejme akte za spremembo pogojev, pod katerimi se sistem UI ne sme šteti za sistem visokega tveganja, seznama visokotveganih sistemov UI, določb o tehnični dokumentaciji, vsebine EU izjave o skladnosti, določb o postopkih ugotavljanja skladnosti, določb o vzpostavitvi visokotveganih sistemov UI, za katere bi se moral uporabljati postopek ugotavljanja skladnosti na podlagi ocene sistema upravljanja kakovosti in ocene tehnične dokumentacije, praga, meril uspešnosti in kazalnikov, tudi z njihovo dopolnitvijo, kot so opredeljeni v pravilih za razvrščanje modelov UI za splošne namene s sistemskim tveganjem, meril za označevanje modelov UI za splošne namene s sistemskim tveganjem, tehnične dokumentacije za ponudnike modelov UI za splošne namene in informacij o preglednosti za ponudnike modelov UI za splošne namene. Zlasti je pomembno, da se Komisija pri svojem pripravljalnem delu ustrezno posvetuje, tudi na ravni strokovnjakov, in da se ta posvetovanja izvedejo v skladu z načeli, določenimi v Medinstitucionalnem sporazumu z dne 13. aprila 2016 o boljši pripravi zakonodaje (55). Za zagotovitev enakopravnega sodelovanja pri pripravi delegiranih aktov Evropski parlament in Svet zlasti prejmeta vse dokumente sočasno s strokovnjaki iz držav članic, njuni strokovnjaki pa se lahko sistematično udeležujejo sestankov strokovnih skupin Komisije, ki zadevajo pripravo delegiranih aktov.
(174)
Vzhledem k rychlému technologickému vývoji a technickým odborným znalostem potřebným pro účinné uplatňování tohoto nařízení by Komise měla toto nařízení vyhodnotit a přezkoumat do 2. srpna 2029 a poté každé čtyři roky a podat zprávu Evropskému parlamentu a Radě. Dále by Komise měla s ohledem na důsledky pro oblast působnosti tohoto nařízení jednou ročně provést posouzení potřeby změnit seznam vysoce rizikových systémů AI a seznam zakázaných postupů. Kromě toho by Komise měla do 2. srpna 2028 a poté každé čtyři roky vyhodnotit potřebu změnit seznam nadpisů vysoce rizikových oblastí v příloze tohoto nařízení, systémy AI spadající do oblasti působnosti povinností v oblasti transparentnosti, účinnost systému dohledu a správy a pokrok ve vývoji produktů normalizace pro energeticky účinný vývoj obecných modelů AI, včetně potřeby dalších opatření nebo kroků, a podat o nich zprávu Evropskému parlamentu a Radě. Do 2. srpna 2028 a poté každé tři roky by Komise měla zhodnotit dopad a účinnost dobrovolných kodexů chování, které mají podpořit uplatňování požadavků stanovených pro vysoce rizikové systémy AI v případě jiných než vysoce rizikových systémů AI a případně dalších požadavků na takovéto systémy AI.
(174)
Glede na hiter tehnološki razvoj in tehnično strokovno znanje, potrebno za učinkovito izvajanje te uredbe bi morala Komisija oceniti in pregledati to uredbo do 2. avgusta 2029 in nato vsaka štiri leta ter poročati Evropskemu parlament in Svetu. Poleg tega bi morala Komisija ob upoštevanju posledic za področje uporabe te uredbe enkrat letno oceniti potrebo po spremembi seznama visokotveganih sistemov UI in seznama prepovedanih praks. Komisija bi morala do 2. avgusta 2028 in nato vsaka štiri leta oceniti tudi potrebo po spremembi seznama področij z visokim tveganjem iz ene od prilog k tej uredbi, sisteme UI, ki spadajo na področje uporabe obveznosti glede preglednosti, učinkovitost sistema nadzora in upravljanja ter napredek pri razvoju standardizacijskih dokumentov o energetsko učinkovitem razvoj modelov UI za splošno rabo, vključno s potrebo po nadaljnjih ukrepih ali dejavnostih, ter o tem poročati Evropskemu parlamentu in Svetu. Komisija bi morala do 2. avgusta 2028 ter nato vsaka tri leta oceniti učinek in učinkovitost prostovoljnih kodeksov ravnanja za spodbujanje uporabe zahtev, ki veljajo za visokotvegane sisteme UI, za sisteme UI, ki niso visokotvegani sistemi UI, ter morebitnih drugih dodatnih zahtev za takšne sisteme UI.
(175)
Za účelem zajištění jednotných podmínek k provedení tohoto nařízení by měly být Komisi svěřeny prováděcí pravomoci. Tyto pravomoci by měly být vykonávány v souladu s nařízením Evropského parlamentu a Rady (EU) č. 182/2011 (56).
(175)
Da se zagotovijo enotni pogoji za izvajanje te uredbe, bi bilo treba na Komisijo prenesti izvedbena pooblastila. Ta pooblastila bi bilo treba izvajati v skladu z Uredbo (EU) št. 182/2011 Evropskega parlamenta in Sveta (56).
(176)
Jelikož cíle tohoto nařízení, totiž zlepšit fungování vnitřního trhu a podpořit zavádění důvěryhodné AI zaměřené na člověka při současném zajištění vysoké úrovně ochrany zdraví, bezpečnosti a základních práv zakotvených v Listině, včetně demokracie, právního státu a ochrany životního prostředí před škodlivými účinky systémů AI v Unii a podpory inovací, nemůže být uspokojivě dosaženo na úrovni členských států, avšak z důvodu rozsahu nebo účinků jich může být lépe dosaženo na úrovni Unie, může Unie přijmout opatření v souladu se zásadou subsidiarity stanovenou v článku 5 Smlouvy o EU. V souladu se zásadou proporcionality stanovenou v uvedeném článku nepřekračuje toto nařízení rámec toho, co je nezbytné pro dosažení tohoto cíle.
(176)
Ker cilja te uredbe, in sicer izboljšati delovanje notranjega trga in spodbujati uvajanje na človeka osredotočene in zaupanja vredne UI, ob zagotavljanju visoke ravni varovanja zdravja, varnosti, temeljnih pravic iz Listine, vključno z demokracijo, pravno državo in varstvom okolja, pred škodljivimi učinki sistemov UI v Uniji ter podpiranju inovacij, države članice ne morejo zadovoljivo doseči, temveč se zaradi obsega ali učinka ukrepa lažje doseže na ravni Unije, lahko Unija sprejme ukrepe v skladu z načelom subsidiarnosti iz člena 5 PEU. V skladu z načelom sorazmernosti iz navedenega člena ta uredba ne presega tistega, kar je potrebno za doseganje navedenega cilja.
(177)
V zájmu zabezpečení právní jistoty, zajištění vhodného adaptačního období pro provozovatele a zabránění narušení trhu, mimo jiné zajištěním kontinuity používání systémů AI, je vhodné, aby se toto nařízení vztahovalo na vysoce rizikové systémy AI, které byly uvedeny na trh nebo do provozu před obecným datem jeho použitelnosti, pouze pokud od uvedeného data dojde k významným změnám jejich návrhu nebo zamýšleného účelu. Je vhodné vyjasnit, že v tomto ohledu by pojem „významná změna“ měl být v podstatě chápán jako rovnocenný pojmu „podstatná změna“, který se používá pouze ve vztahu k vysoce rizikovým systémům AI podle tohoto tomto nařízení. Ve výjimečných případech a s ohledem na veřejnou odpovědnost by provozovatelé systémů AI, které jsou součástí rozsáhlých informačních systémů zřízených právními akty uvedenými v příloze tohoto nařízení, a provozovatelé vysoce rizikových systémů AI, které jsou určeny k použití orgány veřejné moci, měli přijmout nezbytná opatření ke splnění požadavků tohoto nařízení do konce roku 2030 a do 2. srpna 2030.
(177)
Da se zagotovita pravna varnost in ustrezno prilagoditveno obdobje za operaterje ter preprečijo motnje na trgu, vključno z zagotavljanjem neprekinjene uporabe sistemov UI, je primerno, da se ta uredba uporablja za visokotvegane sisteme UI, ki so bili dani na trg ali v uporabo pred splošnim datumom začetka njene uporabe, le, če se pri navedenih sistemih z navedenim datumom bistveno spremeni njihova zasnova ali predvideni namen. Primerno je pojasniti, da bi bilo treba v zvezi s tem koncept bistvene spremembe razumeti kot vsebinsko enakovreden pojmu bistvene spremembe, ki se uporablja samo za visokotvegane sisteme UI na podlagi te uredbe. Tako upravljavci sistemov UI, ki so komponente obsežnih informacijskih sistemov, vzpostavljenih s pravnimi akti iz ene od prilog k tej uredbi, kot tudi operaterji visokotveganih sistemov UI, ki naj bi jih uporabljali javni organi, bi morali izjemoma in glede na javno odgovornost sprejeti potrebne ukrepe za dosego skladnosti z zahtevami iz te uredbe do konca leta 2030 oziroma do 2. avgusta 2030.
(178)
Poskytovatelé vysoce rizikových systémů AI se vyzývají, aby začali dobrovolně plnit příslušné povinnosti vyplývající z tohoto nařízení již během přechodného období.
(178)
Ponudnike visokotveganih sistemov UI se spodbuja, da že v prehodnem obdobju začnejo prostovoljno izpolnjevati ustrezne obveznosti iz te uredbe.
(179)
Toto nařízení by se mělo použít ode dne 2. srpna 2026. S ohledem na nepřijatelné riziko spojené s používáním AI určitými způsoby by se však zákazy, stejně jako obecná ustanovení tohoto nařízení, měly použít již od 2. února 2025. Ačkoli plný účinek těchto zákazů následuje po zavedení správy a prosazování tohoto nařízení, je důležité předvídat uplatňování zákazů, aby se zohlednila nepřijatelná rizika a aby se ovlivnily další postupy, například v občanském právu. Infrastruktura související se správou a se systémem posuzování shody by navíc měla být funkční již před 2. srpnem 2026, a proto by se ustanovení o oznámených subjektech a o struktuře řízení měla použít ode dne 2. srpna 2025. Vzhledem k rychlému tempu technologického pokroku a přijímání obecných modelů AI by povinnosti poskytovatelů obecných modelů AI měly platit od 2. srpna 2025. Kodexy správné praxe by měly být připraveny do 2. května 2025, aby poskytovatelé mohli včas prokázat soulad. Úřad pro AI by měl zajistit, aby klasifikační pravidla a postupy byly aktuální s ohledem na technologický vývoj. Kromě toho by členské státy měly stanovit pravidla ukládání sankcí, včetně správních pokut, a oznámit je Komisi a zajistit, aby byla řádně a účinně provedena do data použitelnosti tohoto nařízení. Ustanovení o sankcích se proto použijí ode dne 2. srpna 2025.
(179)
Ta uredba se uporablja od 2. avgusta 2026. Vendar bi bilo treba zaradi nesprejemljivega tveganja, povezanega z uporabo UI na določene načine, prepovedi ter splošne določbe te uredbe uporabljati že od 2. februarja 2025. Čeprav bodo te prepovedi polno učinkovale šele po vzpostavitvi upravljanja in izvrševanja te uredbe, je pomembno predvideti uporabo prepovedi, da se upoštevajo nesprejemljiva tveganja in zato, da bi to vplivalo na druge postopke, kot denimo v civilnem pravu. Poleg tega bi morala infrastruktura, povezana z upravljanjem in sistemom ugotavljanja skladnosti, začeti delovati pred 2. avgustom 2026, zato bi bilo treba določbe o priglašenih organih in strukturi upravljanja uporabljati od 2. avgusta 2025. Glede na hiter tehnološki napredek in sprejetje modelov UI za splošne namene bi bilo treba obveznosti za ponudnike modelov UI za splošne namene uporabljati od 2. avgusta 2025. Kodekse prakse bi bilo treba pripraviti najpozneje do 2. maja 2025, da bi ponudniki lahko pravočasno dokazali skladnost. Urad za UI bi moral zagotavljati posodabljanje pravil in postopkov razvrščanja glede na tehnološki razvoj. Poleg tega bi morale države članice določiti pravila o kaznih, vključno z upravnimi globami, in o njih uradno obvestiti Komisijo ter do datuma začetka uporabe te uredbe zagotoviti, da jih bodo učinkovito izvajale. Zato bi bilo treba določbe o kaznih uporabljati od 2. avgusta 2025.
(180)
Evropský inspektor ochrany údajů a Evropský sbor pro ochranu údajů byli konzultováni v souladu s čl. 42 odst. 1 a 2 nařízení (EU) 2018/1725 a dne 18. června 2021 vydali své společné stanovisko,
(180)
V skladu s členom 42(1) in (2) Uredbe (EU) 2018/1725 je bilo opravljeno posvetovanje z Evropskim nadzornikom za varstvo podatkov in Evropskim odborom za varstvo podatkov, ki sta dala mnenje 18. junija 2021 –
SPREJELA NASLEDNJO UREDBO:
1. Toto nařízení se vztahuje na:
1. Ta uredba se uporablja za:
a)
poskytovatele, kteří v Unii uvádějí na trh nebo do provozu systémy AI nebo uvádějí na trh obecné modely AI bez ohledu na to, zda jsou tito poskytovatelé usazeni nebo se nacházejí v Unii či ve třetí zemi;
(a)
ponudnike, ki dajejo na trg ali v uporabo sisteme UI ali dajejo na trg modele UI za splošne namene v Uniji, ne glede na to, ali imajo ti ponudniki sedež ali se nahajajo v Uniji ali v tretji državi;
b)
subjekty, které zavádějí systémy AI a jsou usazeny nebo se nacházejí v Unii;
(b)
uvajalce sistemov UI, ki imajo sedež ali se nahajajo v Uniji;
c)
poskytovatele a subjekty, které zavádějí systémy AI, kteří jsou usazeni nebo se nacházejí ve třetí zemi, pokud se výstup systému AI používá v Unii;
(c)
ponudnike in uvajalce sistemov UI, ki imajo sedež ali se nahajajo v tretji državi, kadar se izhodni podatki, ki jih sistem UI ustvari, uporabljajo v Uniji;
d)
dovozce a distributory systémů AI;
(d)
uvoznike in distributerje sistemov UI;
e)
výrobce produktů, kteří uvádějí na trh nebo do provozu systém AI společně se svým produktem a pod svým jménem, názvem nebo ochrannou známkou;
(e)
proizvajalce proizvodov, ki dajejo sistem UI na trg ali v uporabo skupaj s svojim proizvodom in pod svojim imenom ali znamko;
f)
zplnomocněné zástupce poskytovatelů, kteří nejsou usazeni v Unii;
(f)
pooblaščene zastopnike ponudnikov, ki nimajo sedeža v Uniji;
g)
dotčené osoby, které se nacházejí v Unii.
(g)
osebe, ki jih zadeva in se nahajajo v Uniji.
2. Pro systémy AI klasifikované jako vysoce rizikové systémy AI v souladu s čl. 6 odst. 1, které souvisejí s produkty, na něž se vztahují harmonizační právní předpisy Unie uvedené v příloze I oddíle B, se použijí pouze čl. 6 odst. 1, články 102 až109 a článek 112tohoto nařízení. Článek 57 se použije pouze v případě, že požadavky na vysoce rizikové systémy AI podle tohoto nařízení byly začleněny do uvedených harmonizačních právních předpisů Unie.
2. Za sisteme UI, ki so razvrščeni med visoko tvegane sisteme UI v skladu s členom 6(1) v povezavi s proizvodi, zajetimi v harmonizacijski zakonodaji Unije s seznama v Prilogi I, oddelek B, se uporablja samo člen 6(1), členi 102 do 109 in člen 112. Člen 57 se uporablja le, če so bile zahteve za visokotvegane sisteme UI iz te uredbe vključene v to harmonizacijsko zakonodajo Unije.
3. Toto nařízení se nevztahuje na oblasti mimo oblast působnosti práva Unie a v žádném případě jím nejsou dotčeny pravomoci členských států v oblasti národní bezpečnosti, bez ohledu na typ subjektu, který členské státy pověřily plněním úkolů souvisejících s těmito pravomocemi.
3. Ta uredba se ne uporablja za področja, ki ne spadajo na področje uporabe prava Unije, in v nobenem primeru ne vpliva na pristojnosti držav članic v zvezi z nacionalno varnostjo, ne glede na vrsto subjekta, ki ga države članice pooblastijo za opravljanje nalog v zvezi s temi pristojnostmi.
Toto nařízení se nevztahuje na systémy AI pouze tehdy a do té míry, pokud jsou uváděny na trh nebo do provozu nebo jsou používány se změnami nebo bez nich výhradně pro vojenské či obranné účely nebo pro účely národní bezpečnosti, bez ohledu na typ subjektu, který tyto činnosti provádí.
Ta uredba se ne uporablja za sisteme UI, kadar in kolikor so s spremembami ali brez njih dani na trg ali v uporabo oziroma se uporabljajo izključno za vojaške, obrambne ali nacionalne varnostne namene, ne glede na vrsto subjekta, ki izvaja te dejavnosti.
Toto nařízení se nevztahuje na systémy AI, které nejsou uváděny na trh nebo do provozu v Unii, pokud se výstup používá v Unii výhradně pro vojenské či obranné účely nebo pro účely národní bezpečnosti, bez ohledu na typ subjektu, který tyto činnosti provádí.
Ta uredba se ne uporablja za sisteme UI, ki niso dani na trg ali v uporabo v Uniji, kadar se izhodni podatki uporabljajo v Uniji izključno za vojaške, obrambne ali nacionalne varnostne namene, ne glede na vrsto subjekta, ki izvaja te dejavnosti.
4. Toto nařízení se nevztahuje ani na veřejné orgány ve třetí zemi, ani na mezinárodní organizace spadající do oblasti působnosti tohoto nařízení podle odstavce 1, pokud tyto orgány nebo organizace používají systémy AI v rámci mezinárodní spolupráce či mezinárodních dohod o vymáhání práva a o justiční spolupráci s Unií nebo s jedním či více členskými státy, a to pod podmínkou, že daná třetí země nebo mezinárodní organizace poskytne přiměřené záruky, pokud jde o ochranu základních práv a svobod fyzických osob.
4. Ta uredba se ne uporablja za javne organe v tretji državi in mednarodne organizacije, ki spadajo na področje uporabe te uredbe na podlagi odstavka 1, kadar ti organi ali organizacije uporabljajo sisteme UI v okviru mednarodnega sodelovanja ali sporazumov za sodelovanje na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ter za sodelovanje na področju pravosodja z Unijo ali z eno ali več državami članicami, pod pogojem, da ta tretja država ali mednarodna organizacija zagotovi ustrezne zaščitne ukrepe v zvezi z varstvom temeljnih pravic in svoboščin posameznikov.
5. Tímto nařízením není dotčeno uplatňování ustanovení o odpovědnosti poskytovatelů zprostředkovatelských služeb uvedených v kapitole II nařízení (EU) 2022/2065.
5. Ta uredba ne vpliva na uporabo določb o odgovornosti ponudnikov posredniških storitev iz poglavja II Uredbe (EU) 2022/2065.
6. Toto nařízení se nevztahuje na systémy nebo modely AI, včetně jejich výstupů, které byly speciálně vyvinuty a uvedeny do provozu výhradně za účelem vědeckého výzkumu a vývoje.
6. Ta uredba se ne uporablja za sisteme UI ali modele UI, vključno z njihovimi izhodnimi podatki, posebej razvite in dane v uporabo zgolj za namene znanstvenih raziskav in razvoja.
7. Na osobní údaje zpracovávané v souvislosti s právy a povinnostmi stanovenými v tomto nařízení se vztahuje právo Unie o ochraně osobních údajů, soukromí a důvěrnosti sdělení. Tímto nařízením nejsou dotčena nařízení (EU) 2016/679 nebo (EU) 2018/1725 ani směrnice 2002/58/ES nebo (EU) 2016/680, aniž jsou dotčeny čl. 10 odst. 5 a článek 59 tohoto nařízení.
7. Pravo Unije o varstvu osebnih podatkov, zasebnosti in zaupnosti komunikacij se uporablja za osebne podatke, ki se obdelujejo v zvezi s pravicami in obveznostmi iz te uredbe. Brez poseganja v člen 10(5) in člen 59 te uredbe ta uredba ne vpliva na Uredbo (EU) 2016/679 ali (EU) 2018/1725 ali Direktivo 2002/58/ES ali (EU) 2016/680.
8. Toto nařízení se nevztahuje na žádné činnosti výzkumu, testování či vývoje v oblasti systémů AI nebo modelů AI před jejich uvedením na trh nebo do provozu. Tyto činnosti jsou prováděny v souladu s platným právem Unie. Uvedená výjimka nezahrnuje testování v reálných podmínkách.
8. Ta uredba se ne uporablja za raziskovalne dejavnosti, dejavnosti testiranja ali razvojne dejavnosti v zvezi z sistemi UI ali modeli UI, preden se ti dajo na trg ali v uporabo. Te dejavnosti se morajo izvajati v skladu z veljavnim pravom Unije. Ta izključitev ne zajema testiranja v realnih razmerah.
9. Tímto nařízením nejsou dotčena pravidla stanovená jinými právními akty Unie, které se týkají ochrany spotřebitele a bezpečnosti výrobků.
9. Ta uredba ne posega v pravila, določena v drugih pravnih aktih Unije v zvezi z varstvom potrošnikov in varnostjo proizvodov.
10. Toto nařízení se nevztahuje na povinnosti zavádějících subjektů, které jsou fyzickými osobami a používají systémy AI v rámci čistě osobní neprofesionální činnosti.
10. Ta uredba se ne uporablja za obveznosti uvajalcev, ki so fizične osebe in uporabljajo sisteme UI v okviru povsem osebne nepoklicne dejavnosti.
11. Toto nařízení nebrání Unii ani členským státům v tom, aby zachovaly nebo zavedly právní a správní předpisy, které jsou příznivější pro pracovníky, pokud jde o ochranu jejich práv v souvislosti s používáním systémů AI zaměstnavateli, nebo které podporují či umožňují uplatňování kolektivních smluv příznivějších pro pracovníky.
11. Ta uredba Uniji ali državam članicam ne preprečuje, da ohranijo ali uvedejo zakone ali druge predpise, ki so za delavce ugodnejši v smislu varstva njihovih pravic v zvezi z delodajalčevo uporabo sistemov UI, ali da spodbujajo ali dovolijo uporabo kolektivnih pogodb, ki so za delavce ugodnejše.
12. Toto nařízení se nevztahuje na systémy AI zpřístupněné na základě svobodných licencí a licencí s otevřeným zdrojovým kódem, pokud nejsou uváděny na trh nebo do provozu jako vysoce rizikové systémy AI nebo jako systém AI, na který se vztahuje článek 5 nebo 50.
12. Ta uredba se ne uporablja za sisteme UI, objavljene na podlagi prostih in odprtokodnih licenc, razen če so dani na trg ali v uporabo kot visokotvegani sistemi UI ali sistem UI iz člena 5 ali 50.
Zakázané postupy v oblasti AI
1. Zakazují se následující postupy v oblasti AI:
1. Prepovedane so naslednje prakse UI:
a)
uvádění na trh, uvádění do provozu nebo používání systémů AI, které využívají podprahových technik mimo vědomí osob nebo záměrně manipulativních či klamavých technik, jejichž cílem nebo důsledkem je podstatné narušení chování osoby nebo skupiny osob tím, že znatelně zhoršují jejich schopnost učinit informované rozhodnutí, což vede k tomu, že přijmou rozhodnutí, které by jinak neučinily, což dotčené osobě, jiné osobě nebo skupině osob způsobuje nebo by s přiměřenou pravděpodobností mohlo způsobit významnou újmu;
(a)
dajanje na trg, dajanje v uporabo ali uporaba sistema UI, ki uporablja subliminalne tehnike, ki presegajo zavest osebe, ali namerno manipulativne ali zavajajoče tehnike, s ciljem ali učinkom bistvenega izkrivljanja vedenja osebe ali skupine oseb, tako da se znatno zmanjša njihova sposobnost, da sprejmejo informirano odločitev, zaradi česar sprejmejo odločitev, ki je sicer ne bi sprejeli, na način, ki tej osebi, drugi osebi ali skupini oseb povzroči znatno škodo ali za katerega obstaja razumna verjetnost, da bo povzročil znatno škodo;
b)
uvádění na trh, uvádění do provozu nebo používání systémů AI, které využívají zranitelnosti fyzické osoby nebo určité skupiny osob v důsledku jejich věku, zdravotního postižení nebo specifické sociální nebo ekonomické situace a jejichž cílem nebo důsledkem je podstatné narušení chování této osoby nebo osoby náležející k této skupině tak, že to dotčené osobě nebo jiné osobě způsobuje nebo by s přiměřenou pravděpodobností mohlo způsobit významnou újmu;
(b)
dajanje na trg, dajanje v uporabo ali uporaba sistema UI, ki izkorišča katere koli šibke točke fizične osebe ali določene skupine oseb zaradi njihove starosti, invalidnosti ali posebnega socialnega ali ekonomskega položaja, s ciljem ali učinkom, bistvenega izkrivljanja vedenja te osebe ali osebe iz te skupine na način, ki tej ali drugi osebi povzroči znatno škodo ali za katerega obstaja razumna verjetnost, da bo povzročil znatno škodo;
c)
uvádění na trh, uvádění do provozu nebo používání systémů AI pro hodnocení nebo klasifikace fyzických osob nebo skupin osob v určitém časovém úseku na základě jejich sociálního chování nebo známých, odvozených nebo předvídaných osobních či osobnostních vlastností, přičemž výsledný sociální kredit vede k jednomu nebo oběma následujícím důsledkům:
(c)
dajanje na trg, dajanje v uporabo ali uporaba sistemov UI za ocenjevanje ali razvrščanje fizičnih oseb ali skupin, ki jim pripadajo, v določenem časovnem obdobju na podlagi njihovega družbenega vedenja ali znanih, predpostavljenih ali predvidenih osebnih ali osebnostnih značilnosti, pri čemer število družbenih točk privede do ene ali obeh naslednjih možnosti:
i)
ke znevýhodňujícímu nebo nepříznivému zacházení s některými fyzickými osobami nebo skupinami osob v sociálních kontextech nesouvisejících s kontextem, ve kterém byly dané údaje původně vytvořeny nebo shromážděny;
(i)
škodljiva ali neugodna obravnava nekaterih fizičnih oseb ali skupin oseb v družbenih okoliščinah, ki niso povezane s konteksti, v katerih so bili podatki prvotno ustvarjeni ali zbrani;
ii)
ke znevýhodňujícímu nebo nepříznivému zacházení s některými fyzickými osobami nebo skupinami těchto osob, které je neodůvodněné nebo nepřiměřené jejich sociálnímu chování nebo jeho závažnosti;
(ii)
škodljiva ali neugodna obravnava nekaterih fizičnih oseb ali skupin oseb, ki je neupravičena ali nesorazmerna z njihovim družbenim vedenjem ali resnostjo njihovega družbenega vedenja;
d)
uvádění na trh, uvádění do provozu pro tento konkrétní účel nebo používání systémů AI pro posuzování rizik fyzických osob s cílem posoudit nebo předvídat riziko, že fyzická osoba spáchá trestný čin, a to výhradně na základě profilování fyzické osoby nebo posouzení jejích osobnostních znaků a vlastností; tento zákaz se nevztahuje na systémy AI používané na podporu lidského posouzení zaměřeného na zapojení osoby do trestné činnosti, které je již založeno na objektivních a ověřitelných skutečnostech přímo souvisejících s trestnou činností;
(d)
dajanje na trg, dajanje v uporabo za ta posebni namen ali uporaba sistema UI za ocenjevanje tveganja v zvezi s fizičnimi osebami, da se oceni ali predvidi, kakšno je tveganje, da bo fizična oseba storila kaznivo dejanje, izključno na podlagi oblikovanja profila fizične osebe ali ocenjevanja njenih osebnostnih lastnosti in značilnosti; ta prepoved se ne uporablja za sisteme UI, ki se uporabljajo za podporo človeški oceni vpletenosti osebe v kriminalno dejavnost, ki že temelji na objektivnih in preverljivih dejstvih, neposredno povezanih s kriminalno dejavnostjo;
e)
uvádění na trh, uvádění do provozu pro tento konkrétní účel nebo používání systémů AI, které vytvářejí nebo rozšiřují databáze rozpoznávání obličeje prostřednictvím necíleného získávání zobrazení obličeje z internetu nebo kamerových záznamů;
(e)
dajanje na trg, dajanje v uporabo za ta posebni namen ali uporaba sistemov UI, ki z neciljnim odvzemom podob obraza z interneta ali s posnetkov kamer CCTV ustvarjajo ali širijo podatkovne zbirke za prepoznavanje obraza;
f)
uvádění na trh, uvádění do provozu pro tento konkrétní účel nebo používání systémů AI s cílem odvodit emoce fyzické osoby na pracovišti a ve vzdělávacích institucích, s výjimkou případů, kdy je použití systému AI určeno k zavedení či k uvedení na trh z lékařských nebo bezpečnostních důvodů;
(f)
dajanje na trg, dajanje v uporabo za ta posebni namen ali uporaba sistemov UI za sklepanje o čustvih fizične osebe na delovnem mestu in v izobraževalnih ustanovah, razen kadar je uporaba sistema UI namenjena uvedbi ali dajanju na trg iz zdravstvenih ali varnostnih razlogov;
g)
uvádění na trh, uvádění do provozu pro tento konkrétní účel nebo používání systémů biometrické kategorizace, které jednotlivě kategorizují fyzické osoby na základě jejich biometrických údajů za účelem dovození nebo odvození jejich rasy, politických názorů, členství v odborových organizacích, náboženského nebo filozofického přesvědčení, sexuálního života nebo sexuální orientace; tento zákaz se nevztahuje na označování nebo filtrování legálně získaných souborů biometrických údajů, jako jsou snímky, na základě biometrických údajů nebo kategorizace biometrických údajů v oblasti vymáhání práva;
(g)
dajanje na trg, dajanje v uporabo za ta posebni namen ali uporaba sistemov za biometrično kategorizacijo, ki posameznike razvrščajo na podlagi njihovih biometričnih podatkov, da bi prišli do sklepov ali ugotovitev glede njihove rase, političnega prepričanja, članstva v sindikatu, verskega ali filozofskega prepričanja, spolnega življenja ali spolne usmerjenosti; ta prepoved ne zajema označevanja ali filtriranja zakonito pridobljenih naborov biometričnih podatkov, kot so slike, na podlagi biometričnih podatkov ali kategorizacije biometričnih podatkov na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj;
h)
používání systémů biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech pro účely vymáhání práva, pokud to není nezbytně nutné pro jeden z následujících cílů, a jen v nezbytně nutné míře:
(h)
uporaba sistemov za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, razen če je taka uporaba nujno potrebna za enega od naslednjih ciljev:
i)
cílené vyhledávání určitých obětí únosů, obchodování s lidmi nebo sexuálního vykořisťování lidí, jakož i vyhledávání pohřešovaných osob;
(i)
ciljno usmerjeno iskanje določenih žrtev ugrabitev, trgovine z ljudmi ali spolnega izkoriščanja ljudi ter iskanje pogrešanih oseb;
ii)
prevence konkrétního, závažného a bezprostředního ohrožení života nebo fyzické bezpečnosti fyzických osob nebo skutečného a bezprostředního či skutečného a předvídatelného teroristického útoku;
(ii)
preprečitev konkretne, znatne in neposredne nevarnosti za življenje ali fizično varnost fizičnih oseb ali resnične in sedanje ali resnične in predvidljive grožnje terorističnega napada;
iii)
lokalizace nebo identifikace osoby podezřelé ze spáchání trestného činu, za účelem trestního vyšetřování, stíhání nebo výkonu trestu za trestné činy uvedené v příloze II, za něž lze v dotčeném členském státě uložit trest odnětí svobody nebo ochranné opatření spojené s odnětím osobní svobody v maximální délce nejméně čtyři roky.
(iii)
lokalizacija ali identifikacija osebe, osumljene storitve kaznivega dejanja, za namen izvajanja kazenske preiskave ali pregona ali izvršitve kazenske sankcije za kazniva dejanja iz Priloge II, za katera je v zadevni državi članici predpisana zgornja meja zaporne kazni ali ukrepa, vezanega na odvzem prostosti, najmanj štiri leta.
Prvním pododstavcem písm. h) není dotčen článek 9 nařízení (EU) 2016/679, pokud jde o zpracování biometrických údajů pro jiné účely, než je vymáhání práva.
Točka (h) prvega pododstavka ne posega v člen 9 Uredbe (EU) 2016/679 v zvezi z obdelavo biometričnih podatkov za namene, ki niso preprečevanje, odkrivanje in preiskovanje kaznivih dejanj.
2. Používání systémů biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech pro účely vymáhání práva pro některý z cílů uvedených v odst. 1 prvním pododstavci písm. h) se zavede pro účely stanovené v daném ustanovení pouze k potvrzení totožnosti konkrétně cílené fyzické osoby a zohlední tyto prvky:
2. Sistemi za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj za katerega koli od ciljev iz odstavka 1, prvi pododstavek, točka (h), se uporabljajo za namene iz navedene točke, samo da se potrdi identiteta točno določenega posameznika, pri čemer se upoštevajo naslednji elementi:
a)
povahu situace, která vede k jejich potenciálnímu použití, zejména závažnost, pravděpodobnost a rozsah újmy, která by byla způsobena v případě, že by systém použit nebyl;
(a)
narava razmer, ki povzročajo morebitno uporabo, zlasti resnost, verjetnost in obseg škode, ki bi bila povzročena, če se sistem ne bi uporabljal;
b)
důsledky používání systému pro práva a svobody všech dotčených osob, zejména závažnost, pravděpodobnost a rozsah těchto důsledků.
(b)
posledice uporabe sistema za pravice in svoboščine vseh zadevnih oseb, zlasti resnost, verjetnost in obseg teh posledic.
Použití systémů biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech pro účely vymáhání práva pro dosažení kteréhokoli z cílů uvedených v odst. 1 prvním pododstavci písm. h) tohoto článku musí být navíc v souladu s nezbytnými a přiměřenými zárukami a podmínkami ve vztahu k použití podle vnitrostátního práva, jež použití takových systémů povoluje, zejména pokud jde o časová, zeměpisná a osobní omezení. Používání systému biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech je povoleno pouze v případě, že donucovací orgán dokončil posouzení dopadů na základní práva podle článku 27 a zaregistroval systém v databázi EU podle článku 49. V řádně odůvodněných naléhavých případech však může být používání těchto systémů zahájeno bez registrace v databázi EU, pokud je tato registrace provedena bez zbytečného odkladu.
Poleg tega mora biti uporaba sistemov za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj za katerega koli od ciljev iz odstavka 1, prvi pododstavek, točka (h), tega člena skladna s potrebnimi in sorazmernimi zaščitnimi ukrepi in pogoji v zvezi z uporabo po nacionalnem pravu, ki dovoljuje njihovo uporabo, zlasti kar zadeva časovne, geografske in osebne omejitve. Uporaba sistema za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih se dovoli le, če je organ za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj opravil oceno učinka na temeljne pravice iz člena 27 in sistem registriral v podatkovni zbirki EU v skladu s členom 49. Vendar se lahko v ustrezno utemeljenih nujnih primerih uporaba takšnih sistemov začne brez registracije v podatkovni zbirki EU, če se takšna registracija zaključi brez nepotrebnega odlašanja.
3. Pro účely odst. 1 prvního pododstavce písm. h) a odstavce 2 každé použití systému biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech pro účely vymáhání práva podléhá předchozímu povolení ze strany justičního orgánu nebo nezávislého správního orgánu, jehož rozhodnutí je závazné a jenž se nachází v členském státě, ve kterém má k tomuto použití dojít, přičemž toto povolení je vydáno na základě odůvodněné žádosti a v souladu s podrobnými pravidly vnitrostátního práva uvedenými v odstavci 5. V řádně odůvodněné naléhavé situaci však může být používání systému zahájeno bez povolení za předpokladu, že se o takové povolení požádá bez zbytečného odkladu, nejpozději do 24 hodin. Je-li takové povolení zamítnuto, použití se s okamžitým účinkem zastaví a veškeré údaje, jakož i výsledky a výstupy tohoto použití se okamžitě vyřadí a vymažou.
3. Za namene odstavka 1, prvi pododstavek, točka (h), in odstavka 2 je za vsako uporabo sistema za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj treba pridobiti predhodno dovoljenje sodnega organa ali neodvisnega upravnega organa, katerega odločitev je zavezujoča za državo članico, v kateri bo potekala uporaba, izdano na podlagi obrazložene zahteve in v skladu s podrobnimi pravili nacionalnega prava iz odstavka 5. Vendar se lahko v ustrezno utemeljenih nujnih primerih uporaba takšnega sistema začne brez dovoljenja, pod pogojem, da se takšno dovoljenje zahteva brez nepotrebnega odlašanja in najpozneje v 24 urah. Če se takšno dovoljenje zavrne, se njegova uporaba takoj ustavi, vsi podatki ter izhodni podatki in izsledki, ki izhajajo iz te uporabe, pa se takoj zavržejo in izbrišejo.
Příslušný justiční orgán nebo nezávislý správní orgán, jehož rozhodnutí je závazné, udělí povolení pouze v případě, že je na základě objektivních důkazů nebo jednoznačných údajů, které mu byly předloženy, přesvědčen, že použití dotčeného systému biometrické identifikace na dálku v reálném čase je nezbytné a přiměřené k dosažení jednoho z cílů specifikovaných v odst. 1 prvním pododstavci písm. h), který je uveden v žádosti, a zejména je omezeno na to, co je nezbytně nutné, pokud jde o dobu, jakož i zeměpisný a osobní rozsah. Při rozhodování o žádosti zohlední tento orgán skutečnosti uvedené v odstavci 2. Výlučně na základě výstupu systému biometrické identifikace na dálku v reálném čase nelze přijmout žádné rozhodnutí, které má pro určitou osobu nepříznivé právní účinky.
Pristojni sodni organ ali neodvisni upravni organ, katerega odločitev je zavezujoča, izda dovoljenje samo v primeru, kadar se na podlagi objektivnih dokazov ali jasnih navedb, ki so mu bili predloženi, prepriča, da je uporaba zadevnega sistema za biometrično identifikacijo na daljavo v realnem času potrebna in sorazmerna za doseganje enega od ciljev iz odstavka 1, prvi pododstavek, točka (h), kot je opredeljeno v zahtevi, in zlasti ostaja omejena na to, kar je nujno potrebno v zvezi z obdobjem ter geografskim in osebnim področjem uporabe. Pri odločanju o zahtevi ta organ upošteva elemente iz odstavka 2. Nobena odločitev, ki ima škodljiv pravni učinek na osebo, se ne sme sprejeti samo na podlagi izhodnih podatkov sistema za biometrično identifikacijo na daljavo v realnem času.
4. Aniž je dotčen odstavec 3, každé použití systému biometrické identifikace na dálku v reálném čase na veřejně přístupných prostorech se pro účely vymáhání práva oznámí příslušnému orgánu dozoru nad trhem a vnitrostátnímu orgánu pro ochranu osobních údajů v souladu s vnitrostátními pravidly uvedenými v odstavci 5. Oznámení obsahuje přinejmenším informace uvedené v odstavci 6 a nezahrnuje citlivé operativní údaje.
4. Brez poseganja v odstavek 3 je treba o vsaki uporabi sistema za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj uradno obvestiti ustrezni organ za nadzor trga in nacionalni organ za varstvo podatkov v skladu z nacionalnimi pravili iz odstavka 5. Obvestilo vsebuje vsaj informacije iz odstavka 6 in ne vključuje občutljivih operativnih podatkov.
5. Členský stát se může rozhodnout, že umožní plně nebo částečně povolit používání systémů biometrické identifikace na dálku v reálném čase na veřejně přístupných prostorech pro účely vymáhání práva v mezích a za podmínek uvedených v odst. 1 prvním pododstavci písm. h) a v odstavcích 2 a 3. Dotčené členské státy ve svém vnitrostátním právu stanoví nezbytná podrobná pravidla upravující žádosti o povolení uvedená v odstavci 3, vydávání a výkon těchto povolení, jakož i dohled nad nimi a podávání zpráv o nich. Tato pravidla rovněž stanoví, ve vztahu ke kterému cíli uvedenému v odst. 1 prvním pododstavci písm. h) a ke kterému trestnému činu uvedenému v písm. h) bodu iii) tohoto odstavce lze příslušným orgánům používání těchto systémů pro účely vymáhání práva povolit. Členské státy tato pravidla nejpozději 30 dnů po jejich přijetí oznámí Komisi. Členské státy mohou v souladu s právem Unie zavést přísnější právní předpisy týkající se používání systémů biometrické identifikace na dálku.
5. Država članica se lahko odloči, da v okviru omejitev in pod pogoji iz odstavka 1, prvi pododstavek, točka (h), ter odstavkov 2 in 3 v celoti ali delno dovoli uporabo sistemov za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj. Zadevne države članice v svojem nacionalnem pravu določijo potrebna podrobna pravila v zvezi z vložitvijo zahteve za dovoljenja iz odstavka 3, izdajo, izvrševanjem in spremljanjem teh dovoljenj ter poročanjem v zvezi z njimi. V teh pravilih je tudi določeno, za katere od ciljev iz odstavka 1, prvi pododstavek, točka (h), med drugim tudi, za katera kazniva dejanja iz točke (h)(iii) navedenega odstavka, se lahko pristojnim organom dovoli uporaba teh sistemov za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj. Države članice obvestijo Komisijo o teh pravilih najpozneje 30 dni po njihovem sprejetju. Države članice lahko v skladu s pravom Unije uvedejo strožje zakone o uporabi sistemov za biometrično identifikacijo na daljavo.
6. Vnitrostátní orgány dozoru nad trhem a vnitrostátní orgány pro ochranu osobních údajů členských států, které byly informovány o používání systémů biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech pro účely vymáhání práva podle odstavce 4, předkládají Komisi ohledně tohoto používání výroční zprávy. Za tímto účelem poskytne Komise členským státům a vnitrostátním orgánům dozoru nad trhem a orgánům pro ochranu osobních údajů vzor, včetně informací o počtu rozhodnutí přijatých příslušnými justičními orgány nebo nezávislým správním orgánem, jejichž rozhodnutí je v případě žádostí o povolení v souladu s odstavcem 3 závazné, a o jejich výsledku.
6. Nacionalni organi za nadzor trga in nacionalni organi za varstvo podatkov držav članic, ki so bili na podlagi odstavka 4 obveščeni o uporabi sistemov za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, Komisiji predložijo letna poročila o taki uporabi. V ta namen Komisija državam članicam ter nacionalnim organom za nadzor trga in varstvo podatkov zagotovi predlogo, ki vključuje informacije o številu odločitev, ki jih glede zahtevkov za dovoljenja v skladu z odstavkom 3 sprejmejo pristojni sodni organi ali neodvisni upravni organ, katerega odločitev je zavezujoča, in o njihovih rezultatih.
7. Pro účely vymáhání práva Komise zveřejňuje výroční zprávy o používání systémů biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech, a to na základě souhrnných údajů o členských státech vycházejících z výročních zpráv podle odstavce 6. Tyto výroční zprávy neobsahují citlivé operativní údaje o souvisejících činnostech v oblasti vymáhání práva.
7. Komisija objavi letna poročila o uporabi sistemov za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj na podlagi zbirnih podatkov v državah članicah, ki temeljijo na letnih poročilih iz odstavka 6. Ta letna poročila ne vključujejo občutljivih operativnih podatkov o povezanih dejavnostih preprečevanja, odkrivanja in preiskovanja kaznivih dejanj.
8. Tímto článkem nejsou dotčeny zákazy, které se použijí v případě, že postupy AI porušují jiné právo Unie.
8. Ta člen ne vpliva na prepovedi, ki se uporabljajo, kadar praksa UI krši drugo pravo Unije.
Klasifikační pravidla pro vysoce rizikové systémy AI
Pravila razvrstitve za visokotvegane sisteme UI
1. Bez ohledu na to, zda je určitý systém AI uváděn na trh nebo do provozu nezávisle na produktech uvedených v písmenech a) a b), je tento systém AI považován za vysoce rizikový, jsou-li splněny obě následující podmínky:
1. Ne glede na to, ali je sistem UI dan na trg ali v uporabo neodvisno od proizvodov iz točk (a) in (b), se ta sistem UI šteje za visokotvegani, kadar sta izpolnjena oba naslednja pogoja:
a)
daný systém AI je určen k použití jako bezpečnostní komponenta produktu nebo je samotný tento systém AI produktem, na který se vztahují harmonizační právní předpisy Unie uvedené v příloze I;
(a)
sistem UI je namenjen uporabi kot varnostna komponenta proizvoda ali pa je sam sistem UI proizvod, ki ga zajema harmonizacijska zakonodaja Unije iz Priloge I;
b)
na produkt, jehož je daný systém AI bezpečnostní komponentou podle bodu a), případně na samotný tento systém AI jako produkt se vztahuje povinnost posouzení shody třetí stranou za účelem uvedení tohoto produktu na trh nebo do provozu podle harmonizačních právních předpisů Unie uvedených v příloze I.
(b)
za proizvod, katerega varnostna komponenta na podlagi točke (a) je sistem UI, ali za sistem UI, ki je sam proizvod, je treba opraviti ugotavljanje skladnosti s strani tretje osebe zaradi dajanja tega proizvoda na trg ali v uporabo na podlagi harmonizacijske zakonodaje Unije iz Priloge I.
2. Kromě vysoce rizikových systémů AI uvedených v odstavci 1 jsou za vysoce rizikové považovány systémy AI uvedené v příloze III.
2. Poleg visokotveganih sistemov UI iz odstavka 1 za visokotvegane sisteme UI štejejo tudi sistemi UI iz Priloge III.
3. Odchylně od odstavce 2 se systém AI uvedený v příloze III za vysoce rizikový nepovažuje, pokud nepředstavuje významné riziko újmy na zdraví, bezpečnosti nebo základních právech fyzických osob, a to ani tím, že by podstatně ovlivňoval výsledek rozhodování.
3. Z odstopanjem od odstavka 2 sistem UI iz Priloge III ne šteje za visokotvegan, kadar ne predstavlja znatnega tveganja škode za zdravje, varnost ali temeljne pravice fizičnih oseb, tudi s tem, da ne vpliva bistveno na izid odločanja.
První pododstavec se použije, pokud je splněna některá z následujících podmínek:
Prvi pododstavek se uporablja, kadar je izpolnjen kateri koli od naslednjih pogojev:
a)
systém AI je zamýšlen k plnění úzce zaměřeného procesního úkolu;
(a)
sistem UI naj bi opravljal omejeno postopkovno nalogo;
b)
systém AI je zamýšlen ke zlepšení výsledku dříve dokončené lidské činnosti;
(b)
namen sistema UI je izboljšati rezultat predhodno zaključene človeške dejavnosti;
c)
systém AI je zamýšlen k odhalování vzorců rozhodování nebo odchylek od předchozích vzorců rozhodování a nemá bez řádného lidského přezkumu nahradit nebo ovlivnit dříve dokončené lidské posouzení, nebo
(c)
sistem UI je namenjen odkrivanju vzorcev odločanja ali odstopanj od predhodnih vzorcev odločanja in ni namenjen nadomeščanju ali vplivanju na predhodno dokončano človeško oceno brez ustreznega človeškega pregleda ali
d)
systém AI je zamýšlen k provedení přípravného úkolu v rámci posouzení, jež je relevantní pro účely případů použití uvedených v příloze III.
(d)
sistem UI je namenjen izvedbi pripravljalne naloge za oceno, ki je pomembna za namene primerov uporabe iz Priloge III.
Bez ohledu na první pododstavec se systém AI uvedený v příloze III za vysoce rizikový považuje vždy, pokud provádí profilování fyzických osob.
Ne glede na prvi pododstavek sistem UI iz Priloge III vedno šteje za visokotvegan, kadar izvaja oblikovanje profila fizičnih oseb.
4. Poskytovatel, který se domnívá, že určitý systém AI uvedený v příloze III není vysoce rizikový, své posouzení zdokumentuje před uvedením tohoto systému na trh nebo do provozu. Na tohoto poskytovatele se vztahuje povinnost registrace stanovená v čl. 49 odst. 2. Na žádost příslušných vnitrostátních orgánů předloží poskytovatel dokumentaci o posouzení.
4. Ponudnik, ki meni, da sistem UI iz Priloge III ne pomeni visokega tveganja, dokumentira svojo oceno, preden se ta sistem da na trg ali v uporabo. Za takega ponudnika velja obveznost registracije iz člena 49(2). Ponudnik na zahtevo pristojnih nacionalnih organov predloži dokumentacijo o oceni.
5. Komise po konzultaci s Evropskou radou pro umělou inteligenci (dále jen „rada“) a nejpozději do 2. února 2026 poskytne pokyny upřesňující praktické provádění tohoto článku v souladu s článkem 96 spolu s úplným seznamem praktických příkladů použití systémů AI, které jsou a které nejsou vysoce rizikové.
5. Komisija po posvetovanju z Evropskim odborom za umetno inteligenco (v nadaljnjem besedilu: Odbor) in najpozneje do 2. februarja 2026 zagotovi smernice, v katerih določi praktično izvajanje tega člena v skladu s členom 96, skupaj s celovitim seznamom praktičnih primerov uporabe visokotveganih sistemov UI in sistemov UI brez visokega tveganja.
6. Komisi je svěřena pravomoc přijmout akty v přenesené pravomoci v souladu s článkem 97 ke změně odst. 3 druhého pododstavce tohoto článku doplněním nových podmínek k podmínkám tam uvedeným nebo změnou těchto podmínek, pokud existují konkrétní a spolehlivé důkazy o existenci systémů AI, které spadají do oblasti působnosti přílohy III, ale nepředstavují významné riziko poškození zdraví, bezpečnosti nebo základních práv fyzických osob.
6. Na Komisijo se prenese pooblastilo za sprejemanje delegiranih aktov v skladu s členom 97, da bi spremenila odstavek 3, drugi pododstavek, tega člena, s tem da bi k tam določenim pogojem dodala nove pogoje ali jih spremenila, kadar obstajajo konkretni in zanesljivi dokazi o obstoju sistemov UI, ki spadajo na področje uporabe Priloge III, vendar ne predstavljajo znatnega tveganja škode za zdravje, varnost ali temeljne pravice fizičnih oseb.
7. Komise přijme akty v přenesené pravomoci v souladu s článkem 97 ke změně odst. 3 druhého pododstavce tohoto článku zrušením některé z podmínek tam uvedených, pokud existují konkrétní a spolehlivé důkazy o tom, že je to nezbytné pro zachování úrovně ochrany zdraví, bezpečnosti a základních práv v Unii stanovené tímto nařízením.
7. Komisija sprejme delegirane akte v skladu s členom 97, da bi spremenila kateri koli pogoj iz odstavka 3, drugi pododstavek, tega člena, s črtanjem katerih koli tam določenih pogojev, kadar obstajajo konkretni in zanesljivi dokazi, da je to potrebno za ohranjanje ravni varovanja zdravja, varnosti in temeljnih pravic iz te uredbe.
8. Změna podmínek stanovených v odst. 3 druhém pododstavci přijatá v souladu s odstavci 6 a 7 tohoto článku nesmí snížit celkovou úroveň ochrany zdraví, bezpečnosti a základních práv v Unii stanovenou tímto nařízením a musí zajistit soulad s akty v přenesené pravomoci přijatými podle čl. 7 odst. 1 a zohlednit vývoj trhu a technologií.
8. Nobena sprememba pogojev iz odstavka 3, drugi pododstavek, sprejeta v skladu z odstavkoma 6 in 7 tega člena, ne zmanjša splošne ravni varovanja zdravja, varnosti in temeljnih pravic iz te uredbe ter zagotovi skladnost z delegiranimi akti, sprejetimi na podlagi člena 7(1), ter upošteva tržni in tehnološki razvoj.
Sistem za obvladovanje tveganja
1. Ve vztahu k vysoce rizikovým systémům AI je zaveden, uplatňován, zdokumentován a udržován systém řízení rizik.
1. V zvezi z visokotveganimi sistemi UI se vzpostavi, izvaja, dokumentira in vzdržuje sistem za obvladovanje tveganja.
2. Systém řízení rizik je chápán jako nepřetržitý opakující se proces plánovaný a prováděný v rámci celého životního cyklu vysoce rizikového systému AI, který vyžaduje pravidelný systematický přezkum a aktualizaci. Zahrnuje následující kroky:
2. Sistem za obvladovanje tveganja pomeni neprekinjen in ponavljajoč se proces, ki se načrtuje in izvaja v celotnem življenjskem ciklu visokotveganega sistema UI in ga je treba redno sistematično pregledovati in posodabljati. Vključuje naslednje korake:
a)
identifikaci a analýzu známých a rozumně předvídatelných rizik, která může vysoce rizikový systém AI používaný v souladu se zamýšleným účelem představovat pro zdraví, bezpečnost nebo základní práva;
(a)
opredelitev in analizo znanih in razumno predvidljivih tveganj, ki jih lahko visokotvegani sistem UI pomeni za zdravje, varnost ali temeljne pravice, kadar se uporablja v skladu s predvidenim namenom;
b)
odhad a vyhodnocení rizik, která mohou vzniknout, když je vysoce rizikový systém AI používán v souladu se zamýšleným účelem a za podmínek rozumně předvídatelného nesprávného použití;
(b)
oceno in ovrednotenje tveganj, ki se lahko pojavijo pri uporabi visokotveganega sistema UI v skladu s predvidenim namenom in v razmerah razumno predvidljive napačne uporabe;
c)
hodnocení dalších rizik, která mohou potenciálně vzniknout, na základě analýzy shromážděných údajů ze systému monitorování po uvedení na trh ve smyslu článku 72;
(c)
ovrednotenje drugih morebitnih tveganj na podlagi analize podatkov, zbranih iz sistema spremljanja po dajanju na trg iz člena 72;
d)
přijetí vhodných a cílených opatření k řízení rizik, jež jsou navržena tak, aby řešila rizika zjištěná podle písmene a).
(d)
sprejetje ustreznih in ciljno usmerjenih ukrepov za obvladovanje tveganja, namenjenih obravnavanju tveganj, opredeljenih na podlagi točke (a).
3. Rizika uvedená v tomto článku zahrnují pouze rizika, která lze přiměřeně zmírnit nebo vyloučit vývojem nebo návrhem vysoce rizikového systému AI nebo poskytnutím odpovídajících technických informací.
3. Tveganja iz tega člena se nanašajo samo na tista, ki jih je mogoče razumno zmanjšati ali odpraviti z razvojem ali zasnovo visokotveganega sistema UI ali z zagotovitvijo ustreznih tehničnih informacij.
4. Opatření k řízení rizik uvedená v odst. 2 písm. d) náležitě zohledňují účinky a možnou interakci vyplývající z kombinovaného uplatňování požadavků stanovených v tomto oddíle s cílem účinněji minimalizovat rizika a současně dosáhnout vhodné rovnováhy při provádění opatření ke splnění těchto požadavků.
4. Pri ukrepih za obvladovanje tveganja iz odstavka 2, točka (d), se ustrezno upoštevajo učinki in morebitna interakcija, ki izhajajo iz skupne uporabe zahtev iz tega oddelka 2, da bi učinkoviteje in čim bolj zmanjšali tveganja in hkrati dosegli ustrezno ravnovesje pri izvajanju ukrepov za izpolnjevanje teh zahtev.
5. Opatření k řízení rizik uvedená v odst. 2 písm. d) musí být taková, aby bylo příslušné zbytkové riziko spojené s každým nebezpečím a rovněž celkové zbytkové riziko vysoce rizikových systémů AI považováno za přijatelné.
5. Ukrepi za obvladovanje tveganja iz odstavka 2, točka (d), so taki, da zadevno preostalo tveganje, povezano z vsako posamezno nevarnostjo, in celotno preostalo tveganje visokotveganih sistemov UI štejeta za sprejemljiva.
Při určování nejvhodnějších opatření k řízení rizik je třeba zajistit:
Pri določanju najustreznejših ukrepov za obvladovanje tveganja se zagotovi naslednje:
a)
vyloučení nebo snížení rizik zjištěných a vyhodnocených podle odstavce 2, pokud možno prostřednictvím technicky proveditelného návrhu a vývoje vysoce rizikového systému AI;
(a)
odpravljanje ali zmanjševanje tveganj ugotovljenih in ocenjenih na podlagi odstavka 2, kolikor je to tehnično izvedljivo z ustrezno zasnovo in razvojem visokotveganega sistema UI;
b)
ve vhodných případech zavedení odpovídajících zmírňujících a kontrolních opatření, jež řeší rizika, která nelze vyloučit;
(b)
po potrebi izvajanje ustreznih ukrepov za zmanjšanje in nadzor tveganj, ki jih ni mogoče odpraviti;
c)
poskytování informací požadovaných podle článku 13 a v případě potřeby školení pro zavádějící subjekty.
(c)
zagotavljanje zahtevanih informacij na podlagi člena 13 in po potrebi usposabljanje uvajalcev.
Za účelem vyloučení nebo snížení rizik souvisejících s používáním daného vysoce rizikového systému AI by měly být náležitě zváženy technické znalosti, zkušenosti, vzdělání, odborná příprava, které se od zavádějícího subjektu očekává, a předpokládaný kontext, ve kterém má být systém používán.
Da bi odpravili ali zmanjšali tveganja, povezana z uporabo visokotveganega sistema UI, se ustrezno upoštevajo tehnično znanje, izkušnje, izobraževanje, usposabljanje, ki ga lahko pričakuje uvajalec, in predvideni okvir, v katerem naj bi se sistem uporabljal.
6. Vysoce rizikové systémy AI jsou testovány za účelem identifikace nejvhodnějších a cílených opatření k řízení rizik. Testování zajistí, aby vysoce rizikové systémy AI podávaly výkony konzistentní s jejich zamýšleným účelem a aby byly v souladu s požadavky stanovenými v tomto oddíle.
6. Visokotvegani sistemi UI se testirajo, da se določijo najustreznejši in ciljno usmerjeni ukrepi za obvladovanje tveganja. S testiranjem se zagotovi, da visokotvegani sistemi UI dosledno delujejo za predvideni namen in so skladni z zahtevami iz tega oddelka.
7. Testovací postupy mohou zahrnovat testování v reálných podmínkách v souladu s článkem 60.
7. Postopki testiranja lahko vključujejo testiranje v realnih razmerah v skladu s členom 60.
8. Testování vysoce rizikových systémů AI se provádí podle potřeby kdykoli v průběhu celého procesu vývoje a v každém případě před uvedením na trh nebo do provozu. Testování probíhá na základě předem definovaných metrik a pravděpodobnostních prahových hodnot, které jsou pro zamýšlený účel vysoce rizikového systému AI vhodné.
8. Testiranje visokotveganih sistemov UI se po potrebi izvaja kadar koli med celotnim postopkom razvoja in v vsakem primeru pred njihovim dajanjem na trg ali v uporabo. Testiranje se opravi na podlagi predhodno opredeljenih metrik in verjetnostnih pragov, ki ustrezajo predvidenemu namenu visokotveganega sistema UI.
9. Při zavádění systému řízení rizik popsaného v odstavcích 1 až 7 poskytovatelé zváží, zda je s ohledem na jeho zamýšlený účel pravděpodobné, že vysoce rizikový systém AI bude mít nepříznivý dopad na osoby mladší 18 let a případně na jiné zranitelné skupiny.
9. Ponudniki pri izvajanju sistema za obvladovanje tveganja iz odstavkov 1 do 7 preučijo, ali je verjetno, da bo visokotvegani sistem UI glede na predvideni namen negativno vplival na osebe, mlajše od 18 let, in po potrebi na druge ranljive skupine.
10. V případě poskytovatelů vysoce rizikových systémů AI, na něž se vztahují požadavky týkající se vnitřních procesů řízení rizik podle jiných příslušných ustanovení práva Unie, mohou být aspekty popsané v odstavcích 1 až 9 součástí postupů řízení rizik stanovených podle uvedeného práva nebo kombinovány s těmito postupy.
10. Pri ponudnikih visokotveganih sistemov UI, za katere veljajo zahteve v zvezi z notranjimi procesi za obvladovanje tveganj v skladu z drugimi ustreznimi določbami prava Unije, so lahko vidiki, opisani v odstavkih 1 do 9, del postopkov za obvladovanje tveganj, vzpostavljenih na podlagi navedenega prava, ali so v kombinaciji s temi postopki.
Podatki in upravljanje podatkov
1. Vysoce rizikové systémy AI, které využívají techniky zahrnující trénování modelů AI obsahujících data, jsou vyvíjeny na základě souborů trénovacích, validačních a testovacích dat, které splňují kritéria kvality uvedená v odstavcích 2 až 5, a to kdykoli se tyto datové soubory používají.
1. Visokotvegani sistemi UI, ki uporabljajo tehnike, ki vključujejo učenje modelov UI s podatki, se razvijejo na podlagi naborov učnih, validacijskih in testnih podatkov, ki izpolnjujejo merila kakovosti iz odstavkov 2 do 5, kadar se uporabljajo ti nabori podatkov.
2. Soubory trénovacích, validačních a testovacích dat podléhají příslušným postupům v oblasti správy a řízení dat, jež jsou pro zamýšlený účel vysoce rizikového systému AI vhodné. Tyto postupy se týkají zejména:
2. Za nabore učnih, validacijskih in testnih podatkov veljajo prakse ravnanja s podatki in upravljanja podatkov, ki so primerne za predvideni namen visokotveganega sistema UI. Te prakse se nanašajo zlasti na:
a)
příslušných možností návrhu;
(a)
ustrezne izbire zasnove;
b)
postupů při sběru dat a původu dat a v případě osobních údajů původního účelu jejich sběru;
(b)
postopke zbiranja podatkov in njihov izvor ter v primeru osebnih podatkov prvotni namen zbiranja podatkov;
c)
příslušných operací zpracování přípravy dat, jako jsou anotace, označování, čištění, aktualizace, obohacování a agregace;
(c)
ustrezne postopke obdelave za pripravo podatkov, kot so dodajanje opomb, označevanje, čiščenje, posodabljanje, obogatitev in združevanje;
d)
formulace předpokladů, zejména s ohledem na informace, které mají daná data měřit a představovat;
(d)
oblikovanje predpostavk, zlasti v zvezi z informacijami, ki naj bi jih podatki merili in predstavljali;
e)
posouzení dostupnosti, množství a vhodnosti potřebných souborů dat;
(e)
oceno razpoložljivosti, količine in primernosti potrebnih naborov podatkov;
f)
přezkoumání s ohledem na potenciální zkreslení, která by mohla ovlivnit zdraví a bezpečnost osob, mít nepříznivý dopad na základní práva nebo vést k diskriminaci, která je podle práva Unie zakázána, zejména pokud výstupy dat ovlivňují vstupy pro budoucí operace;
(f)
preučitev morebitnih pristranskosti, ki bi lahko vplivale na zdravje in varnost oseb, negativno vplivale na temeljne pravice ali privedle do diskriminacije, ki je na podlagi prava Unije prepovedana, zlasti kadar izhodni podatki vplivajo na vhodne podatke za prihodnje operacije;
g)
vhodná opatření k odhalení, prevenci a zmírnění případných zkreslení zjištěných podle písmene f);
(g)
ustrezne ukrepe za odkrivanje, preprečevanje in zmanjševanje morebitnih pristranskosti, opredeljenih v skladu s točko (f);
h)
identifikace relevantních nedostatků nebo chyb v datech, které brání dodržování tohoto nařízení, a způsobu, jak tyto nedostatky a chyby vyřešit.
(h)
prepoznavanje ustreznih vrzeli ali pomanjkljivosti v podatkih, ki preprečujejo skladnost s to uredbo, ter način za odpravljanje teh vrzeli in pomanjkljivosti.
3. Soubory trénovacích, validačních a testovacích dat jsou s ohledem na svůj zamýšlený účel relevantní, dostatečně reprezentativní a v maximální možné míře bez chyb a úplné. Mají náležité statistické vlastnosti, a to i případně rovněž s ohledem na osoby nebo skupiny osob, v souvislosti s nimiž má být daný vysoce rizikový systém AI používán. Tyto vlastnosti souborů dat lze splnit na úrovni jednotlivých souborů dat nebo na úrovni jejich kombinací.
3. Nabori učnih, validacijskih in testnih podatkov so ustrezni, dovolj reprezentativni in v največji možni meri brez napak in popolni glede na predvideni namen. Imeti morajo tudi ustrezne statistične lastnosti, po potrebi tudi v zvezi z osebami ali skupinami oseb, v zvezi s katerimi naj bi se uporabljal visokotvegani sistem UI. Te značilnosti naborov podatkov se lahko izpolnijo na ravni posameznih naborov podatkov ali na ravni njihovih kombinacij.
4. Soubory trénovacích, validačních a testovacích dat zohledňují v rozsahu nezbytném pro jejich zamýšlený účel vlastnosti nebo prvky, které jsou specifické pro konkrétní zeměpisné, kontextuální, behaviorální nebo funkční prostředí, ve kterém má být daný vysoce rizikový systém AI používán.
4. Nabori podatkov v obsegu, ki se zahteva glede na njihov predvideni namen, upoštevajo značilnosti ali elemente, ki so značilni za posebno geografsko, kontekstualno, vedenjsko ali funkcionalno okolje, v katerem naj bi se visokotvegani sistem UI uporabljal.
5. Pokud je to nezbytně nutné pro zajištění detekce a oprav zkreslení ve vztahu k vysoce rizikovým systémům AI v souladu s odst. 2 písm. f) a g) tohoto článku, mohou poskytovatelé těchto systémů výjimečně zpracovávat zvláštní kategorie osobních údajů s výhradou vhodných záruk týkajících se základních práv a svobod fyzických osob. Kromě ustanovení nařízení (EU) 2016/679 a (EU) 2018/1725 a směrnice (EU) 2016/680musí být ve vztahu k takovému zpracování naplněny všechny tyto podmínky:
5. Če je nujno potrebno za namene zagotavljanja odkrivanja in popravljanja pristranskosti v zvezi z visokotveganimi sistemi UI v skladu z odstavkom 2, točki (f) in (g), tega člena, lahko ponudniki takih sistemov izjemoma obdelujejo posebne vrste osebnih podatkov, ob upoštevanju ustreznih zaščitnih ukrepov za temeljne pravice in svoboščine fizičnih oseb. Poleg določb iz uredb (EU) 2016/679 in (EU) 2018/1725 ter Direktive (EU) 2016/680 morajo biti za tako obdelavo izpolnjeni vsi naslednji pogoji:
a)
detekce a opravy zkreslení nelze účinně provést zpracováním jiných údajů, včetně syntetických nebo anonymizovaných údajů;
(a)
odkrivanja in popravljanja pristranskosti ni mogoče učinkovito doseči z obdelavo drugih podatkov, vključno s sintetičnimi ali anonimiziranimi podatki;
b)
zvláštní kategorie osobních údajů podléhají technickým omezením opakovaného použití osobních údajů, jakož i nejmodernějším bezpečnostním opatřením a opatřením v oblasti ochrany soukromí, včetně pseudonymizace;
(b)
za posebne vrste osebnih podatkov veljajo tehnične omejitve glede ponovne uporabe osebnih podatkov ter najsodobnejši ukrepi za varnost in ohranjanje zasebnosti, vključno s psevdonimizacijo;
c)
zvláštní kategorie osobních údajů podléhají opatřením, která zajistí, aby zpracovávané osobní údaje byly zabezpečeny a chráněny a aby se na ně vztahovaly vhodné záruky, včetně přísných kontrol a dokumentace přístupu, s cílem zabránit zneužití a zajistit, aby k těmto osobním údajům měly přístup pouze oprávněné osoby s odpovídajícími povinnostmi zachování důvěrnosti;
(c)
za posebne kategorije osebnih podatkov veljajo ukrepi, s katerimi se zagotavlja, da so osebni podatki, ki se obdelujejo, zaščiteni, ob upoštevanju ustreznih zaščitnih ukrepov, vključno s strogim nadzorom in dokumentiranjem dostopa, da se prepreči napačna uporaba in zagotovi, da imajo dostop do teh osebnih podatkov samo pooblaščene osebe z ustreznimi obveznostmi glede zaupnosti;
d)
zvláštních kategorie osobních údajů nejsou přenášeny, převáděny nebo jinak zpřístupněny jiným stranám;
(d)
posebne kategorije osebnih podatkov ne smejo biti posredovani, preneseni ali drugače dostopni drugim strankam;
e)
zvláštních kategorie osobních údajů se vymažou, jakmile je zkreslení opraveno nebo jakmile u těchto údajů uplyne doba uchovávání, podle toho, co nastane dříve;
(e)
posebne kategorije osebnih podatkov se izbrišejo, ko je pristranskost odpravljena ali ko se izteče obdobje njihove hrambe, odvisno od tega, kaj nastopi prej;
f)
záznamy o činnostech zpracování podle nařízení (EU) 2016/679 a (EU) 2018/1725 a směrnice (EU) 2016/680 obsahují důvody vedoucí k tomu, že bylo zpracování zvláštních kategorií osobních údajů nezbytně nutné k odhalení a nápravě zkreslení a že tohoto cíle nemohlo být dosaženo zpracováním jiných údajů.
(f)
evidence dejavnosti obdelave na podlagi uredb (EU) 2016/679 in (EU) 2018/1725 ter Direktivo (EU) 2016/680 vključujejo razloge, zakaj je bila obdelava posebnih kategorij osebnih podatkov nujno potrebna za odkrivanje in odpravo pristranskosti ter zakaj tega cilja ni bilo mogoče doseči z obdelavo drugih podatkov.
6. Pro vývoj vysoce rizikových systémů AI, které nevyužívají techniky zahrnující trénování modelů AI, se odstavce 2 až 5 použijí pouze na soubory testovacích dat.
6. Za razvoj visokotveganih sistemov UI, ki ne uporabljajo tehnik, ki vključujejo učenje modelov s podatki, se odstavki 2 do 5 uporabljajo le za nabore testnih podatkov.
1. Před uvedením vysoce rizikového systému AI na trh je vypracována jeho technická dokumentace, jež je pak průběžně aktualizována.
1. Tehnična dokumentacija visokotveganega sistema UI se pripravi pred dajanjem sistema na trg ali v uporabo in se posodablja.
Technická dokumentace je vypracována tak, aby prokazovala, že daný vysoce rizikový systém AI splňuje požadavky stanovené v tomto oddíle, a aby příslušným vnitrostátním orgánům a oznámeným subjektům poskytovala jasné a komplexní informace nezbytné k posouzení souladu systému AI s těmito požadavky. Obsahuje přinejmenším prvky uvedené v příloze IV. Malé a střední podniky, včetně podniků začínajících, mohou poskytnout jednotlivé položky technické dokumentace uvedené v příloze IV zjednodušeným způsobem. Za tímto účelem vytvoří Komise zjednodušený formulář technické dokumentace zaměřený na potřeby malých podniků a mikropodniků. V případě, že se malý nebo střední podnik, včetně podniků začínajících, rozhodne poskytnout informace požadované v příloze IV ve zjednodušeném formátu, použije formulář uvedený v tomto odstavci. Oznámené subjekty tento formulář akceptují pro účely posouzení shody.
Tehnična dokumentacija se pripravi tako, da izkazuje, da je visokotvegani sistem UI skladen z zahtevami iz tega oddelka, ter pristojnim nacionalnim organom in priglašenim organom jasno in celovito zagotavlja potrebne informacije za ugotavljanje skladnosti sistema UI z navedenimi zahtevami. Vsebovati mora vsaj elemente iz Priloge IV. MSP, vključno z zagonskimi podjetji, lahko elemente tehnične dokumentacije iz Priloge IV predložijo na poenostavljen način. V ta namen Komisija pripravi poenostavljen obrazec tehnične dokumentacije, namenjen potrebam malih in mikro podjetij. Kadar se MSP, vključno z zagonskim podjetjem, odloči, da bo informacije, zahtevane v Prilogi IV, zagotovilo na poenostavljen način, uporabi obrazec iz tega odstavka. Priglašeni organi sprejmejo obrazec za namene ugotavljanja skladnosti.
2. Pokud je uváděn na trh nebo do provozu vysoce rizikový systém AI související s produktem, na který se vztahují harmonizační právní předpisy Unie uvedené v příloze I oddíle A, vypracuje se jediná technická dokumentace obsahující všechny informace uvedené v odstavci 1, jakož i informace požadované podle těchto právních aktů.
2. Kadar je visokotvegani sistem UI, povezan s proizvodom, za katerega se uporablja harmonizacijska zakonodaja Unije iz Priloge I, oddelek A, dan na trg ali v uporabo, se pripravi enoten sklop tehnične dokumentacije, ki vsebuje vse informacije iz odstavka 1 in informacije, zahtevane v navedenih pravnih aktih.
3. Komisi je svěřena pravomoc přijmout akty v přenesené pravomoci v souladu s článkem 97 za účelem změny přílohy IV, je-li to nezbytné k zajištění toho, aby technická dokumentace s ohledem na technický pokrok poskytovala veškeré informace nezbytné k posouzení souladu systému s požadavky stanovenými v tomto oddíle.
3. Na Komisijo se prenese pooblastilo za sprejemanje delegiranih aktov v skladu s členom 97 za spremembo Priloge IV, kadar je to potrebno za zagotovitev, da tehnična dokumentacija glede na tehnični napredek zagotavlja vse potrebne informacije za ugotavljanje skladnosti sistema z zahtevami iz tega oddelka.
1. Vysoce rizikové systémy AI jsou navrženy a vyvinuty takovým způsobem, a to i pomocí vhodných nástrojů rozhraní člověk-stroj, aby na ně mohly během období, kdy jsou používány, účinně dohlížet fyzické osoby.
1. Visokotvegani sistemi UI morajo biti zasnovani in razviti tako, da jih lahko fizične osebe v obdobju njihove uporabe učinkovito nadzorujejo, tudi z ustreznimi vmesniškimi orodji človek-stroj.
2. Lidský dohled je zaměřen na prevenci nebo minimalizaci rizik pro zdraví, bezpečnost nebo základní práva, která mohou vzniknout při používání vysoce rizikového systému AI v souladu s jeho zamýšleným účelem nebo za podmínek rozumně předvídatelného nesprávného použití, zejména pokud tato rizika přetrvávají navzdory uplatňování dalších požadavků stanovených v tomto oddíle.
2. Namen človeškega nadzora je preprečiti ali čim bolj zmanjšati tveganja za zdravje, varnost ali temeljne pravice, ki se lahko pojavijo pri uporabi visokotveganega sistema UI v skladu s predvidenim namenom ali v razmerah razumno predvidljive napačne uporabe, zlasti kadar taka tveganja niso odpravljena kljub uporabi drugih zahtev iz tega oddelka.
3. Opatření dohledu jsou úměrná rizikům, úrovni autonomie a kontextu používání vysoce rizikového systému AI a jsou zajištěna jedním nebo oběma z těchto druhů opatření:
3. Nadzorni ukrepi morajo biti sorazmerni s tveganji, stopnjo samostojnosti in kontekstom uporabe visokotveganega sistema UI in se zagotavljajo z eno ali obema naslednjima vrstama ukrepov:
a)
opatření, která identifikuje poskytovatel, a pokud je to technicky proveditelné, zabuduje je do daného vysoce rizikového systému AI před jeho uvedením na trh nebo do provozu;
(a)
ukrepi, določeni in vgrajeni, če je to tehnično izvedljivo, v visokotvegani sistem UI s strani ponudnika, preden je sistem dan na trg ali v uporabo;
b)
opatření, která identifikuje poskytovatel před uvedením daného vysoce rizikového systému AI na trh nebo do provozu a u nichž je vhodné, aby je provedl zavádějící subjekt.
(b)
ukrepi, ki jih ponudnik določi pred dajanjem visokotveganega sistema UI na trg ali v uporabo in so primerni za izvedbo s strani uvajalca.
4. Pro účely provádění odstavců 1, 2 a 3 je vysoce rizikový systém AI poskytován zavádějícímu subjektu způsobem, jenž fyzickým osobám pověřeným lidským dohledem umožňuje, pokud je to vhodné a přiměřené, aby:
4. Za namene izvajanja odstavkov 1, 2 in 3 se visokotvegani sistem UI uvajalcu zagotovi tako, da fizične osebe, ki jim je dodeljen človeški nadzor, če je to primerno in sorazmerno:
a)
řádně porozuměly příslušným kapacitám a omezením daného vysoce rizikového systému AI a byly schopny náležitě monitorovat jeho fungování, a to i s ohledem na odhalování a řešení anomálií, dysfunkcí a neočekávaného výkonu;
(a)
pravilno razumejo ustrezne zmogljivosti in omejitve visokotveganega sistema UI ter ustrezno spremljajo njegovo delovanje, tudi za odkrivanje in obravnavanje nepravilnosti, motenj in nepričakovane zmogljivosti;
b)
si nadále uvědomovaly možnou tendenci automatického nebo nadměrného spoléhání na výstup vysoce rizikového systému AI (dále jen „zkreslení způsobené automatizací“, v angličtině „automation bias“), zejména u vysoce rizikových systémů AI užívaných pro poskytování informací nebo doporučení pro rozhodování fyzických osob;
(b)
se zavedajo morebitne težnje po samodejnem zanašanju ali prevelikem zanašanju na izhodne podatke visokotveganega sistema UI (pristranskost zaradi avtomatizacije), zlasti pri visokotveganih sistemih UI, ki se uporabljajo za zagotavljanje informacij ali priporočil za odločitve, ki jih sprejemajo fizične osebe;
c)
správně interpretovaly výstup vysoce rizikového systému AI, například dostupné interpretační nástroje a metody;
(c)
pravilno razlagajo izhodne podatke visokotveganega sistema UI, zlasti na primer ob upoštevanju razpoložljivih orodij in metod za razlago;
d)
se v jakékoli konkrétní situaci rozhodly, že vysoce rizikový systém AI nepoužijí nebo výstup z vysoce rizikového systému AI jiným způsobem nezohlední, zruší nebo zvrátí;
(d)
se v specifičnih situacijah odločijo, da visokotveganega sistema UI ne bodo uporabile ali bodo kako drugače zanemarile, ovrgle ali izničile izhodne podatke visokotveganega sistema UI;
e)
zasáhly do fungování vysoce rizikového systému AI nebo jej přerušily tlačítkem „stop“ nebo podobným postupem, který umožní systém zastavit v bezpečném módu.
(e)
posegajo v delovanje visokotveganega sistema UI ali ga prekinejo s tipko „stop“ ali podobnim postopkom, ki omogoča varno zaustavitev sistema.
5. U vysoce rizikových systémů AI uvedených v bodě 1 písm. a) přílohy III jsou opatření uvedená v odstavci 3 tohoto článku taková, aby navíc zajišťovala, že na základě identifikace vyplývající z tohoto systému neprovede zavádějící subjekt žádné kroky ani rozhodnutí, pokud tato identifikace nebude samostatně ověřena a potvrzena alespoň dvěma fyzickými osobami, které disponují nezbytnou odbornou způsobilostí, odbornou přípravou a pravomocí.
5. Za visokotvegane sisteme UI iz Priloge III, točka 1(a), morajo biti ukrepi iz odstavka 3 takšni, da zagotavljajo, da uvajalec poleg tega ne izvede nobenega dejanja ali ne sprejme nobenega ukrepa ali odločitve na podlagi identifikacije, ki izhaja iz sistema, razen če to ločeno preverita in potrdita vsaj dve fizični osebi z ustreznimi kompetencami, usposobljenostjo in pooblastili.
Požadavek na samostatné ověření nejméně dvěma fyzickými osobami se nevztahuje na vysoce rizikové systémy AI používané pro účely vymáhání práva, migrace, ochrany hranic nebo azylu, pokud unijní nebo vnitrostátní právo považuje uplatňování tohoto požadavku za nepřiměřené.
Zahteva o ločeni preverbi s strani vsaj dveh fizičnih oseb se ne uporablja za visokotvegane sisteme UI, ki se uporabljajo za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, migracij, nadzora meje ali azila, v primerih, ko je v skladu s pravom Unije in nacionalnim pravom uporaba te zahteve nesorazmerna.
Přesnost, spolehlivost a kybernetická bezpečnost
Točnost, robustnost in kibernetska varnost
1. Vysoce rizikové systémy AI jsou navrženy a vyvinuty tak, aby dosahovaly náležité úrovně přesnosti, spolehlivosti a kybernetické bezpečnosti a aby v tomto ohledu dosahovaly konzistentních výsledků během celého svého životního cyklu.
1. Visokotvegani sistemi UI morajo biti zasnovani in razviti tako, da dosegajo ustrezno raven točnosti, robustnosti in kibernetske varnosti ter v teh vidikih v vsem svojem življenjskem ciklu delujejo dosledno.
2. S cílem řešit technické aspekty způsobů měření náležitých úrovní přesnosti a spolehlivosti stanovených v odstavci 1 a jakékoli další relevantní metriky výkonnosti Komise ve spolupráci s příslušnými zúčastněnými stranami a organizacemi, jako jsou metrologické a srovnávací orgány, případně podpoří vypracování referenčních hodnot a metodik měření.
2. Za obravnavo tehničnih vidikov merjenja ustreznih ravni točnosti in robustnosti iz odstavka 1 ter vseh drugih ustreznih metrike učinkovitosti Komisija v sodelovanju z ustreznimi deležniki in organizacijami, kot so meroslovni organi in organi za primerjalno analizo, po potrebi spodbuja razvoj referenčnih vrednosti in metodologij merjenja.
3. Úrovně přesnosti a příslušné metriky přesnosti vysoce rizikových systémů AI jsou oznámeny v přiloženém návodu k použití.
3. Ravni točnosti in ustrezne metrike točnosti visokotveganih sistemov UI se navedejo v priloženih navodilih za uporabo.
4. Vysoce rizikové systémy AI musí být v nejvyšší možné míře odolné vůči chybám, poruchám nebo nesrovnalostem, které se mohou vyskytnout v daném systému nebo v prostředí, ve kterém tento systém funguje, zejména v důsledku jejich interakce s fyzickými osobami nebo jinými systémy. Za tímto účelem se přijmou technická a organizační opatření.
4. Visokotvegani sistemi UI morajo biti čim bolj odporni na napake, okvare ali neskladnosti, ki se lahko pojavijo v sistemu ali okolju, v katerem sistem deluje, zlasti zaradi njihove interakcije s fizičnimi osebami ali drugimi sistemi. V zvezi s tem se sprejmejo tehnični in organizacijski ukrepi.
Spolehlivosti vysoce rizikových systémů AI lze dosáhnout pomocí technicky redundantních řešení, která mohou zahrnovat plány zálohování nebo zajištění proti selhání.
Robustnost visokotveganih sistemov UI se lahko doseže s tehničnimi redundantnimi rešitvami, ki lahko vključujejo rezervne načrte ali načrte varne odpovedi.
Vysoce rizikové systémy AI, které se po uvedení na trh nebo do provozu dále učí, jsou vyvíjeny tak, aby se vyloučilo nebo minimalizovalo riziko případně zkreslených výstupů ovlivňujících vstup pro budoucí operace (dále jen „smyčky zpětné vazby“, v angličtině. „feedback loops“) a aby se zajistilo, že tyto smyčky zpětné vazby budou řádně řešeny formou vhodných zmírňujících opatření.
Visokotvegane sisteme UI, ki se po dajanju na trg ali v uporabo še naprej učijo, je treba razviti tako, da se odpravi ali v največji možni meri zmanjša tveganje morebitnih pristranskih izhodnih podatkov, ki bi vplivali na vhodne podatke za prihodnje operacije (povratne zanke), in zagotovi, da se vse take povratne zanke ustrezno obravnavajo z ustreznimi ukrepi za zmanjšanje tveganj.
5. Vysoce rizikové systémy AI jsou odolné proti pokusům neoprávněných třetích stran změnit jejich použití, vstupy nebo výkonnost zneužitím zranitelných míst těchto systémů.
5. Visokotvegani sistemi UI morajo biti odporni na poskuse nepooblaščenih tretjih oseb, da z izkoriščanjem šibkih točk sistema spremenijo njihovo uporabo, izhodne podatke ali zmogljivost.
Technická řešení zaměřená na zajištění kybernetické bezpečnosti vysoce rizikových systémů AI odpovídají příslušným okolnostem a rizikům.
Tehnične rešitve, namenjene zagotavljanju kibernetske varnosti visokotveganih sistemov UI, morajo ustrezati zadevnim okoliščinam in tveganjem.
Technická řešení umožňující řešení zranitelných míst specifických pro AI v příslušných případech zahrnují opatření pro prevenci, detekci, řešení a kontrolu útoků, které se pokoušejí manipulovat soubory trénovacích dat (tzv. „data poisoning“), případně předtrénovaných komponent používaných při trénování (tzv. „model poisoning“), vstupů, jejichž cílem je přimět daný model AI k tomu, aby udělal chybu (tzv. „matoucí vzory“ nebo „vyhýbání se modelu“), útoků na důvěrnost nebo chyb modelů a také opatření týkající se reakcí na uvedené útoky.
Tehnične rešitve za odpravljanje šibkih točk, značilnih za UI, po potrebi vključujejo ukrepe za preprečevanje, odkrivanje, odzivanje, reševanje in nadzor v zvezi z napadi, ki poskušajo manipulirati z naborom učnih podatkov (zastrupitev podatkov) ali prednaučenimi komponentami, uporabljenimi pri učenju (zastrupitev modelov), v zvezi z vhodnimi podatki, katerih namen je povzročiti napako modela UI (nasprotovalni primer ali izogibanje modelov), napadi na zaupnost ali pomanjkljivostmi modela.
Sistem upravljanja kakovosti
1. Poskytovatelé vysoce rizikových systémů AI zavedou systém řízení kvality, který zajišťuje soulad s tímto nařízením. Tento systém je systematicky a řádně dokumentován formou písemných politik, postupů a pokynů a obsahuje alespoň tyto aspekty:
1. Ponudniki visokotveganih sistemov UI vzpostavijo sistem upravljanja kakovosti, ki zagotavlja skladnost s to uredbo. Ta sistem se sistematično in urejeno dokumentira v obliki pisnih politik, postopkov in navodil ter vključuje vsaj naslednje vidike:
a)
strategii pro zajištění souladu s právními předpisy, včetně souladu s postupy posuzování shody a postupy pro řízení úprav daného vysoce rizikového systému AI;
(a)
strategijo za skladnost z zakonodajo, tudi skladnost s postopki za ugotavljanje skladnosti in postopki za upravljanje sprememb visokotveganega sistema UI;
b)
techniky, postupy a systematická opatření využívaná při vytváření, kontrole a ověřování návrhu vysoce rizikového systému AI;
(b)
tehnike, postopke in sistematične ukrepe, ki se uporabljajo za razvoj, nadzor kakovosti in zagotavljanje kakovosti visokotveganega sistema UI;
c)
techniky, postupy a systematická opatření využívaná při vývoji, kontrole a zajišťování kvality daného vysoce rizikového systému AI;
(c)
tehnike, postopke in sistematične ukrepe, ki se uporabljajo za razvoj, nadzor kakovosti in zagotavljanje kakovosti visokotveganega sistema UI;
d)
postupy přezkoumání, testování a validace prováděné před vývojem vysoce rizikového systému AI, během něho a po něm, a četnost, s níž musí být prováděny;
(d)
postopke pregledovanja, testiranja in validacije, ki se izvedejo pred razvojem visokotveganega sistema UI, med njim in po njem, ter pogostost njihovega izvajanja;
e)
technické specifikace, včetně norem, které mají být uplatňovány, a pokud nejsou příslušné harmonizované normy uplatňovány v plném rozsahu nebo nepokrývají všechny příslušné požadavky stanovené v oddíle 2, prostředky, které mají být použity k zajištění toho, aby vysoce rizikový systém AI tyto požadavky splňoval;
(e)
tehnične specifikacije, vključno s standardi, ki jih je treba uporabiti, in, kadar se ustrezni harmonizirani standardi ne uporabljajo v celoti ali ne zajemajo vseh ustreznih zahtev iz oddelka 2, sredstva, ki se uporabijo za zagotovitev, da visokotvegani sistem UI izpolnjuje navedene zahteve;
f)
systémy a postupy pro správu dat, včetně získávání, shromažďování, analýzy, označování, ukládání, filtrace, vytěžování, agregace a uchovávání dat a jakékoli další operace týkající se dat, které se provádějí před uvedením vysoce rizikových systémů AI na trh nebo do provozu a pro účely tohoto uvedení;
(f)
sisteme in postopke za ravnanje s podatki, vključno s pridobivanjem podatkov, zbiranjem podatkov, analizo podatkov, označevanjem podatkov, shranjevanjem podatkov, filtriranjem podatkov, podatkovnim rudarjenjem, združevanjem podatkov, hrambo podatkov ter vsemi drugimi postopki v zvezi s podatki, ki se izvajajo pred dajanjem visokotveganih sistemov UI na trg ali v uporabo in za namen dajanja na trg ali v uporabo;
g)
systém řízení rizik podle článku 9;
(g)
sistem za obvladovanje tveganj iz člena 9;
h)
vytvoření, uplatňování a udržování systému monitorování po uvedení na trh v souladu s článkem 72;
(h)
vzpostavitev, izvajanje in vzdrževanje sistema spremljanja po dajanju na trg v skladu s členom 72;
i)
postupy týkající se ohlašování závažného incidentu v souladu s článkem 73;
(i)
postopke v zvezi s poročanjem o resnih incidentih v skladu s členom 73;
j)
řešení komunikace s příslušnými vnitrostátními orgány, dalšími příslušnými orgány včetně těch, které zajišťují nebo podporují přístupu k datům, s oznámenými subjekty, s jinými provozovateli, se zákazníky nebo s jinými zúčastněnými stranami;
(j)
vodenje komunikacije s pristojnimi nacionalnimi organi, drugimi ustreznimi organi, tudi s tistimi, ki zagotavljajo ali podpirajo dostop do podatkov, priglašenimi organi, drugimi operaterji, strankami ali drugimi zainteresiranimi stranmi;
k)
systémy a postupy pro uchovávání záznamů o veškeré příslušné dokumentaci a informacích;
(k)
sisteme in postopke za vodenje evidenc vse ustrezne dokumentacije in informacij;
l)
řízení zdrojů, včetně opatření souvisejících s bezpečností dodávek;
(l)
upravljanje virov, vključno z ukrepi, povezanimi z zanesljivostjo oskrbe;
m)
rámec odpovědnosti stanovující odpovědnost vedení a ostatních zaměstnanců ve vztahu ke všem aspektům uvedeným v tomto odstavci.
(m)
okvir odgovornosti, ki določa odgovornosti vodstva in drugega osebja v zvezi z vsemi vidiki iz tega odstavka.
2. Provádění aspektů uvedených v odstavci 1 je přiměřené velikosti organizace poskytovatele. Poskytovatelé za všech okolností dodržují míru přísnosti a úroveň ochrany, jež jsou nezbytné k tomu, aby jejich vysoce rizikové systémy AI byly v souladu s tímto nařízením.
2. Izvajanje vidikov iz odstavka 1 je sorazmerno z velikostjo organizacije ponudnika. V vsakem primeru pa ponudniki spoštujejo stopnjo strogosti in raven zaščite, ki se zahtevata za skladnost njihovih visokotveganih sistemov UI s to uredbo.
3. Poskytovatelé vysoce rizikových systémů AI, na něž se vztahují povinnosti v souvislosti se systémy řízení kvality nebo rovnocennou funkcí podle příslušného odvětvového práva Unie, mohou zahrnout aspekty uvedené v odstavci 1 do systémů řízení kvality stanovených podle uvedeného práva.
3. Ponudniki visokotveganih sistemov UI, za katere veljajo obveznosti v zvezi s sistemi upravljanja kakovosti ali enakovredno funkcijo na podlagi ustreznega sektorskega prava Unije, lahko vključijo vidike, navedene v odstavku 1, kot del sistemov upravljanja kakovosti, vzpostavljenih na podlagi navedenega prava.
4. V případě poskytovatelů, kteří jsou finančními institucemi, na něž se vztahují požadavky týkající se jejich vnitřní správy, systémů nebo postupů podle práva Unie v oblasti finančních služeb, se povinnost zavést systém řízení kvality, s výjimkou odst. 1 písm. g), h) a i) tohoto článku, považuje za splněnou, jsou-li dodržena pravidla týkající se systémů nebo postupů vnitřní správy podle příslušného práva Unie v oblasti finančních služeb. Za tímto účelem se zohlední veškeré harmonizované normy uvedené v článku 40 tohoto nařízení.
4. Za ponudnike, ki so finančne institucije in za katere veljajo zahteve v zvezi z njihovim notranjim upravljanjem, ureditvami ali postopki na podlagi prava Unije o finančnih storitvah, se šteje, da je obveznost vzpostavitve sistema vodenja kakovosti z izjemo odstavka 1, točke (g), (h) in (i) tega člena, izpolnjena z upoštevanjem pravil o ureditvah ali postopkih notranjega upravljanja na podlagi ustreznega prava Unije o finančnih storitvah. V ta namen se upoštevajo vsi harmonizirani standardi iz člena 40.
Zplnomocněný zástupci poskytovatelů vysoce rizikových systémů AI
Pooblaščeni zastopniki ponudnikov visokotveganih sistemov UI
1. Nežli poskytovatelé usazení ve třetích zemích dodají na trh Unie vysoce rizikové systémy AI, jmenují formou písemného pověření zplnomocněného zástupce usazeného v Unii.
1. Ponudniki s sedežem v tretjih državah pred omogočanjem dostopnosti visokotveganih sistemov UI na trgu Unije s pisnim pooblastilom imenujejo pooblaščenega zastopnika s sedežem v Uniji.
2. Poskytovatel umožní svému zplnomocněnému zástupci provádět úkoly vymezené v pověření, které od poskytovatele obdržel.
2. Ponudnik svojemu pooblaščenemu zastopniku omogoči, da opravlja naloge, določene v pooblastilu, ki ga prejme od ponudnika.
3. Zplnomocněný zástupce provádí úkoly vymezené v pověření, které od poskytovatele obdržel. Kopii pověření poskytne na požádání orgánům dozoru nad trhem v jednom z úředních jazyků orgánů Unie určeném příslušným orgánem. Pro účely tohoto nařízení zmocňuje pověření zplnomocněného zástupce k provádění těchto úkolů:
3. Pooblaščeni zastopnik opravlja naloge, določene v pooblastilu, ki ga prejme od ponudnika. Če organi za nadzor trga to zahtevajo, jim predloži izvod pooblastila, in sicer v enem od uradnih jezikov institucij Unije, ki ga navede pristojni organ. Za namene te uredbe pooblastilo pooblaščenemu zastopniku omogoča, da opravlja naslednje naloge:
a)
ověřit, zda bylo vypracováno EU prohlášení o shodě uvedené v článku 47 a technická dokumentace uvedená v článku 11 a zda poskytovatel provedl příslušný postup posuzování shody;
(a)
preveri, da je bila pripravljena EU izjava o skladnosti iz člena 47 in tehnična dokumentacija iz člena 11 ter da je ponudnik izvedel ustrezen postopek ugotavljanja skladnosti;
b)
uchovávat pro potřebu příslušných orgánů a vnitrostátních orgánů či subjektů uvedených v čl. 74 odst. 10 po dobu deseti let od uvedení vysoce rizikového systému AI na trh nebo do provozu kontaktní údaje poskytovatele, který zplnomocněného zástupce jmenoval, kopii EU prohlášení o shodě uvedeného v článku 47, technickou dokumentaci a případně certifikát vydaný oznámeným subjektem;
(b)
daje kontaktne podatke ponudnika, ki je določil pooblaščenega zastopnika, izvod EU izjave o skladnosti iz člena 47, tehnično dokumentacijo in, če je ustrezno, certifikat, ki ga je izdal priglašeni organ, na voljo pristojnim organom in nacionalnim organom ali telesom iz člena 74(10) še deset let po tem, ko je bil visokotvegani sistem UI dan na trg ali v uporabo;
c)
poskytnout příslušnému orgánu na odůvodněnou žádost veškeré informace a dokumentaci, včetně informací a dokumentů uvedených v písmenu b) tohoto pododstavce, jež jsou nezbytné k prokázání shody vysoce rizikového systému AI s požadavky stanovenými v oddíle 2, včetně přístupu k protokolům, uvedeným v čl. 12 odst. 1, které daný vysoce rizikový systém AI automaticky generuje, a to v rozsahu, v jakém jsou tyto protokoly pod kontrolou poskytovatele;
(c)
pristojnemu organu na podlagi obrazložene zahteve zagotovi vse informacije in dokumentacijo, vključno s tisto, ki se hrani v skladu s točko (b) tega pododstavka, potrebne za dokazovanje skladnosti visokotveganega sistema UI z zahtevami iz oddelka 2, vključno z dostopom do dnevnikov, kakor je navedeno v členu 12(1), ki jih samodejno ustvari visokotvegani sistem UI, če so ti dnevniki pod nadzorom ponudnika;
d)
spolupracovat s příslušnými orgány, na základě odůvodněné žádosti, na veškerých opatřeních, která takový orgán v souvislosti s daným vysoce rizikovým systémem AI přijme, zejména za účelem snížení a zmírnění rizik, která vysoce rizikový systém AI představuje;
(d)
na podlagi obrazložene zahteve sodeluje s pristojnimi organi pri vseh ukrepih, ki jih ti sprejmejo v zvezi z visokotveganim sistemom UI, zlasti za zmanjšanje in omejitev tveganj, ki jih predstavlja visokotvegani sistem UI;
e)
případně splnit povinnosti registrace uvedené v čl. 49 odst. 1, nebo pokud registraci provádí sám poskytovatel, zajistit, aby informace uvedené v příloze VIII oddíle A bodu 3 byly správné.
(e)
po potrebi izpolnjuje obveznosti registracije iz člena 49(1) ali, če registracijo izvede ponudnik sam, zagotovi, da so informacije iz Priloge VIII, oddelek A, točka 3, pravilne.
Toto pověření zmocňuje zplnomocněného zástupce k tomu, aby se na něj vedle poskytovatele nebo namísto něj obracely příslušné orgány ve všech otázkách týkajících se zajištění souladu s tímto nařízením.
Na podlagi pooblastila je pooblaščeni zastopnik pooblaščen, da lahko pristojni organi nanj, poleg ponudnika ali namesto njega, naslovijo vsa vprašanja, povezana z zagotavljanjem skladnosti s to uredbo.
4. Pokud se zplnomocněný zástupce domnívá nebo má důvod se domnívat, že poskytovatel jedná v rozporu se svými povinnostmi podle tohoto nařízení, předmětné pověření ukončí. V takovém případě rovněž neprodleně informuje relevantní orgán dozoru nad trhem, a případně příslušný oznámený subjekt o ukončení pověření a jeho důvodech.
4. Pooblaščeni zastopnik odpove pooblastilo, če meni ali utemeljeno domneva, da ponudnik ravna v nasprotju s svojimi obveznostmi iz te uredbe. V takem primeru o odpovedi pooblastila in razlogih zanjo nemudoma obvesti ustrezni organ za nadzor trga in, kadar je primerno, ustrezni priglašeni organ.
1. Před uvedením vysoce rizikového systému AI na trh dovozci zajistí, aby byl systém v souladu s tímto nařízením, a v tomto ohledu ověří, že:
1. Pred dajanjem visokotveganega sistema UI na trg uvozniki zagotovijo njegovo skladnost s to uredbo tako, da preverijo, da:
a)
poskytovatel daného vysoce rizikového systému AI provedl příslušný postup posuzování shody uvedený v článku 43;
(a)
je ponudnik za ta visokotvegani sistem UI izvedel ustrezen postopek ugotavljanja skladnosti iz člena 43;
b)
poskytovatel vypracoval technickou dokumentaci v souladu s článkem 11 a přílohou IV;
(b)
je ponudnik pripravil tehnično dokumentacijo v skladu s členom 11 in Prilogo IV;
c)
systém nese požadované označení CE a je k němu přiloženo EU prohlášení o shodě uvedené v článku 47 a návod k použití;
(c)
je sistem opremljen z zahtevano oznako CE ter so mu priloženi EU izjava o skladnosti iz člena 47 in navodila za uporabo;
d)
poskytovatel jmenoval zplnomocněného zástupce v souladu s čl. 22 odst. 1.
(d)
je ponudnik imenoval pooblaščenega zastopnika v skladu s členom 22(1).
2. Má-li dovozce dostatečný důvod se domnívat, že určitý vysoce rizikový systém AI není ve shodě s tímto nařízením nebo že je zfalšovaný či je k němu připojena zfalšovaná dokumentace, neuvede tento systém na trh, dokud nebude uveden ve shodu. Pokud daný vysoce rizikový systém AI představuje riziko ve smyslu čl. 79 odst. 1, dovozce o této skutečnosti informuje poskytovatele systému, zplnomocněné zástupce a orgány dozoru nad trhem.
2. Kadar ima uvoznik zadosten razlog za domnevo, da visokotvegani sistem UI ni skladen s to uredbo ali je ponarejen ali mu je priložena ponarejena dokumentacija, tega sistema ne da na trg, dokler ni zagotovljena njegova skladnost. Kadar visokotvegani sistem UI predstavlja tveganje v smislu člena 79(1), uvoznik o tem obvesti ponudnika sistema, pooblaščenega zastopnika in organe za nadzor trga.
3. Dovozci případně uvedou na obalu nebo v dokumentaci, která je k vysoce rizikovému systému AI přiložena, svoje jméno, zapsaný obchodní název nebo zapsanou ochrannou známku a adresu, na které je lze kontaktovat.
3. Uvozniki na visokotveganem sistemu UI in na embalaži ali v spremni dokumentaciji, kadar je ustrezno, navedejo svoje ime, registrirano trgovsko ime ali registrirano znamko in naslov, na katerem so dosegljivi.
4. Dovozci zajistí, aby v době, kdy nesou za vysoce rizikový systém AI odpovědnost, skladovací nebo přepravní podmínky případně neohrožovaly jeho soulad s požadavky stanovenými v oddíle 2.
4. Uvozniki zagotovijo, da v času, ko so odgovorni za visokotvegani sistem UI, pogoji skladiščenja ali prevoza, kadar je ustrezno, ne ogrožajo skladnosti sistema z zahtevami iz oddelka 2.
5. Dovozci uchovávají po dobu deseti let od uvedení vysoce rizikového systému AI na trh nebo do provozu kopii případného certifikátu vydaného oznámeným subjektem o návodu k použití a EU prohlášení o shodě uvedeného v článku 47.
5. Uvozniki še deset let po tem, ko je bil visokotvegani sistem UI dan na trg ali v uporabo, hranijo izvod certifikata, ki ga je izdal priglašeni organ, navodil za uporabo, kadar je to primerno, in EU izjave o skladnosti iz člena 47.
6. Dovozci poskytnou relevantním příslušným orgánům na odůvodněnou žádost veškeré informace a dokumentaci, včetně informací a dokumentů podle odstavce 5, jež jsou nezbytné k prokázání shody vysoce rizikového systému AI s požadavky stanovenými v oddíle 2 v jazyce, který je takovým orgánům snadno srozumitelný. Za tímto účelem rovněž zajistí, aby těmto orgánům mohla být zpřístupněna technická dokumentace.
6. Uvozniki ustreznim pristojnim organom na podlagi obrazložene zahteve predložijo vse potrebne informacije in dokumentacijo, vključno s tistimi iz odstavka 5, da dokažejo skladnost visokotveganega sistema UI z zahtevami iz oddelka 2, v jeziku, ki ga organi zlahka razumejo. V ta namen zagotovijo tudi, da se tem organom lahko da na voljo tehnična dokumentacija.
7. Dovozci spolupracují s relevantními příslušnými orgány na veškerých opatřeních, která tyto orgány přijmou v souvislosti s vysoce rizikovým systémem AI, jejž dovozci uvedli na trh, zejména za účelem snížení a zmírnění rizik, která tento systém představuje.
7. Uvozniki sodelujejo z ustreznimi pristojnimi organi pri vseh ukrepih, ki jih ti organi sprejmejo v zvezi z visokotveganim sistemom UI, ki so ga uvozniki dali na trg, zlasti za zmanjšanje ali omejitev tveganj, ki jih predstavlja ta sistem.
Obveznosti distributerjev
1. Před dodáním vysoce rizikového systému AI na trh distributoři ověří, zda je na daném systému umístěno požadované označení CE, zda je k němu přiloženo EU prohlášení o shodě uvedené v článku 47 a návod k použití a zda poskytovatel a případně dovozce systému splnili své příslušné povinnosti stanovené v čl. 16. písm. b) a c) a v čl. 23 odst. 3.
1. Preden omogočijo dostopnost visokotveganega sistema UI na trgu, distributerji preverijo, ali ima zahtevano oznako CE, ali so mu priloženi izvod EU izjave o skladnosti iz člena 47 in navodila za uporabo ter ali sta ponudnik in uvoznik tega sistema, kot je ustrezno, izpolnila vsak svoje obveznosti iz člena 16, točki (b) in (c), oziroma člena 23(3).
2. Domnívá-li se distributor nebo má-li důvod se domnívat, na základě informací, které má k dispozici, že vysoce rizikový systém AI není ve shodě s požadavky stanovenými v oddíle 2, nedodá tento vysoce rizikový systém AI na trh, dokud nebude uveden s těmito požadavky ve shodu. Pokud navíc tento vysoce rizikový systém AI představuje riziko ve smyslu čl. 79 odst. 1, distributor o této skutečnosti informuje poskytovatele, případně dovozce tohoto systému.
2. Kadar distributer meni ali na podlagi informacij, ki jih ima, utemeljeno domneva, da visokotvegani sistem UI ni skladen z zahtevami iz oddelka 2, za visokotvegani sistem UI ne omogoči dostopnosti na trgu, dokler ni zagotovljena skladnost tega sistema z navedenimi zahtevami. Kadar visokotvegani sistem UI predstavlja tveganje v smislu člena 79(1), distributer o tem obvesti ponudnika oziroma uvoznika sistema, kot je ustrezno.
3. Distributoři zajistí, aby v době, kdy nesou za vysoce rizikový systém AI odpovědnost, skladovací nebo přepravní podmínky v příslušných případech neohrožovaly jeho soulad s požadavky stanovenými v oddíle 2.
3. Distributerji zagotovijo, da v času, ko so odgovorni za visokotvegani sistem UI, pogoji skladiščenja ali prevoza, kadar je ustrezno, ne ogrožajo njegove skladnosti z zahtevami iz oddelka 2.
4. Distributor, který se na základě informací, které má k dispozici, domnívá nebo má důvod se domnívat, že vysoce rizikový systém AI, který dodal na trh, není ve shodě s požadavky stanovenými v oddíle 2, přijme nápravná opatření nezbytná k uvedení tohoto systému ve shodu s těmito požadavky nebo k jeho stažení z trhu či z oběhu, případně zajistí, aby tato nápravná opatření přijal poskytovatel, dovozce nebo jakýkoli příslušný provozovatel. Představuje-li vysoce rizikový systém AI riziko ve smyslu čl. 79 odst. 1, distributor okamžitě informuje poskytovatele nebo dovozce systému a orgány příslušné pro dotčený vysoce rizikový systém AI, přičemž uvede podrobnosti, zejména o nesouladu a o veškerých přijatých nápravných opatřeních.
4. Distributer, ki na podlagi informacij, ki jih ima, meni ali utemeljeno domneva, da visokotvegani sistem UI, za katerega je omogočil dostopnost na trgu, ni skladen z zahtevami iz oddelka 2, sprejme popravne ukrepe, potrebne za uskladitev tega sistema z navedenimi zahtevami, ga umakne ali prekliče ali zagotovi, da te popravne ukrepe sprejme ponudnik, uvoznik ali kateri koli zadevni operater, kot je ustrezno. Kadar visokotvegani sistem UI predstavlja tveganje v smislu člena 79(1), distributer o tem nemudoma obvesti ponudnika ali uvoznika sistema in organe, pristojne za zadevni visokotvegani sistem UI, ter navede podrobnosti, zlasti o neskladnosti in vseh sprejetih popravnih ukrepih.
5. Na odůvodněnou žádost relevantního příslušného orgánu poskytnou distributoři vysoce rizikového systému AI tomuto orgánu všechny informace a dokumentaci týkající se jimi přijatých opatření podle odstavců 1 až 4, které jsou nezbytné k prokázání shody tohoto systému s požadavky stanovenými v oddíle 2.
5. Distributerji visokotveganega sistema UI ustreznemu pristojnemu organu na podlagi obrazložene zahteve zagotovijo vse informacije in dokumentacijo o svojih ukrepih na podlagi odstavkov 1 do 4, ki so potrebne za dokazovanje skladnosti visokotveganega sistema UI z zahtevami iz oddelka 2.
6. Distributoři spolupracují s relevantními příslušnými orgány na veškerých opatřeních, která tyto orgány přijmou v souvislosti s vysoce rizikovým systémem AI, jejž distributoři dodali na trh, zejména za účelem snížení či zmírnění rizik, která tento systém představuje.
6. Distributerji sodelujejo z ustreznimi pristojnimi organi pri vseh ukrepih, ki jih ti organi sprejmejo v zvezi z visokotveganim sistemom UI, katerega so distributerji dali na trg, zlasti za zmanjšanje ali omejitev tveganja, ki ga predstavlja visokotvegani sistem UI.
Povinnosti v celém hodnotovém řetězci AI
Odgovornosti vzdolž verige vrednosti UI
1. Jakýkoli distributor, dovozce, zavádějící subjekt nebo jiná třetí strana se pro účely tohoto nařízení považují za poskytovatele vysoce rizikového systému AI a vztahují se na ně povinnosti poskytovatele podle článku 16, pokud nastane kterákoli z následujících okolností:
1. Vsak distributer, uvoznik, uvajalec ali druga tretja oseba za namene te uredbe šteje za ponudnika visokotveganega sistema UI in zanj veljajo obveznosti ponudnika iz člena 16 v kateri koli od naslednjih okoliščin:
a)
uvedli své jméno, název nebo ochrannou známku na vysoce rizikovém systému AI, který již byl uveden na trh nebo do provozu, aniž jsou dotčena smluvní ujednání, která stanoví, že povinnosti jsou rozděleny jiným způsobem;
(a)
visokotvegani sistem UI, ki je že bil dan na trg ali v uporabo, označijo s svojim imenom ali znamko, brez poseganja v pogodbene dogovore, ki določajo, da so obveznosti drugače dodeljene;
b)
provádějí podstatnou změnu vysoce rizikového systému AI, který je již uveden na trh nebo je již uveden do provozu, a to tak, že zůstává vysoce rizikovým systémem AI v souladu s článkem 6;
(b)
bistveno spremenijo visokotvegani sistem UI, ki je že bil dan na trg ali v uporabo, na način, da ostane visokotvegani sistem UI na podlagi člena 6;
c)
mění zamýšlený účel systému AI, včetně obecného systému AI, který nebyl klasifikován jako vysoce rizikový a je již uveden na trh nebo do provozu takovým způsobem, že se dotčený systém AI stane vysoce rizikovým systémem AI v souladu s článkem 6.
(c)
spremenijo predvideni namen sistema UI, vključno s sistemom UI za splošne namene, ki ni bil razvrščen kot sistem visokega tveganja in je že bil dan na trg ali v uporabo na način, da postane visokotvegani sistem UI v skladu s členom 6.
2. Pokud nastanou okolnosti uvedené v odstavci 1, poskytovatel, který původně uvedl systém AI na trh nebo do provozu, není pro účely tohoto nařízení již nadále považován za poskytovatele tohoto konkrétního systému AI. Tento původní poskytovatel úzce spolupracuje s novými poskytovateli a zpřístupní nezbytné informace a poskytne přiměřeně očekávaný technický přístup a další pomoc, které jsou nezbytné pro plnění povinností stanovených v tomto nařízení, zejména pokud jde o soulad s posuzováním shody vysoce rizikových systémů AI. Tento odstavec se nepoužije v případech, kdy původní poskytovatel jasně stanovil, že jeho systém AI nemá být změněn na vysoce rizikový systém AI, a proto se na něj nevztahuje povinnost předložit dokumentaci.
2. Kadar nastopijo okoliščine iz odstavka 1, ponudnik, ki je prvotno dal sistem UI na trg ali v uporabo, za namene te uredbe ne šteje več za ponudnika tega posameznega sistema UI. Ta prvotni ponudnik tesno sodeluje z novimi ponudniki in daje na voljo potrebne informacije ter zagotavlja razumno pričakovani tehnični dostop in drugo pomoč, ki je potrebna za izpolnjevanje obveznosti iz te uredbe, zlasti v zvezi z ugotavljanjem skladnosti visokotveganih sistemov UI. Ta odstavek se ne uporablja v primerih, ko je prvotni ponudnik jasno navedel, da se njegov sistem UI ne sme spremeniti v visokotvegani sistem UI, in zato zanj ne velja obveznost predaje dokumentacije.
3. V případě vysoce rizikových systémů AI, které jsou bezpečnostními komponentami produktů, na něž se vztahují harmonizační právní předpisy Unie uvedené v příloze I oddíle A, se za poskytovatele vysoce rizikového systému AI považuje výrobce produktů, na nějž se pak vztahují povinnosti stanovené v článku 16 v případě, že nastane jedna z těchto situací:
3. Za visokotvegane sisteme UI, ki so varnostne komponente proizvodov, za katere se uporablja harmonizacijska zakonodaja Unije iz Priloge I, oddelek A, proizvajalec teh proizvodov šteje za ponudnika visokotveganega sistema UI in zanj veljajo obveznosti iz člena 16 na podlagi enega od naslednjih scenarijev:
a)
vysoce rizikový systém AI je uváděn na trh společně s výrobkem pod jménem, názvem nebo ochrannou známkou výrobce produktu;
(a)
visokotvegani sistem UI se da na trg skupaj s proizvodom pod imenom ali znamko proizvajalca proizvoda;
b)
vysoce rizikový systém AI je uveden do provozu pod jménem, názvem nebo ochrannou známkou výrobce produktu poté, co byl výrobek uveden na trh.
(b)
visokotvegani sistem UI se da v uporabo pod imenom ali znamko proizvajalca proizvoda, potem ko je bil ta dan na trg.
4. Poskytovatel vysoce rizikového systému AI a třetí strana, která dodává systém AI, nástroje, služby, komponenty nebo procesy, které jsou v tomto vysoce rizikovém systému AI používány nebo jsou do něj zabudovány, upřesní prostřednictvím písemné dohody nezbytné informace, schopnosti, technický přístup a jinou pomoc na základě obecně uznávaného stavu techniky, aby poskytovatel vysoce rizikového systému AI mohl v plném rozsahu plnit povinnosti stanovené v tomto nařízení. Tento odstavec se nevztahuje na třetí strany, které na základě svobodné a otevřené licence zpřístupňují veřejnosti jiné nástroje, služby, procesy nebo komponenty, než jsou obecné modely AI.
4. Ponudnik visokotveganega sistema UI in tretja oseba, ki dobavlja sistem UI, orodja, storitve, komponente ali procese, ki se uporabljajo ali integrirajo v visokotvegani sistem UI, s pisnim dogovorom določita potrebne informacije, zmogljivosti, tehnični dostop in drugo pomoč na podlagi splošno priznanih najsodobnejših tehnoloških dosežkov, da lahko ponudnik visokotveganega sistema UI v celoti izpolnjuje obveznosti iz te uredbe. Ta odstavek se ne uporablja za tretje osebe, ki javnosti omogočajo dostop do orodij, storitev, postopkov ali komponent, ki niso modeli UI za splošne namene, na podlagi proste in odprtokodne licence.
Úřad pro AI může vypracovat a doporučit dobrovolné vzorové podmínky smluv uzavíraných mezi poskytovateli vysoce rizikových systémů AI a třetími stranami, které dodávají nástroje, služby, komponenty nebo procesy, které jsou používány nebo integrovány do vysoce rizikových systémů AI. Při vypracovávání těchto dobrovolných vzorových podmínek zohlední úřad pro AI možné smluvní požadavky uplatňované v konkrétních odvětvích nebo obchodních případech. Tyto dobrovolné vzorové podmínky se zveřejní a bezplatně zpřístupní ve snadno použitelném elektronickém formátu.
Urad za UI lahko pripravi in priporoči prostovoljne vzorčne pogoje za pogodbe med ponudniki visokotveganih sistemov UI in tretjimi osebami, ki zagotavljajo orodja, storitve, komponente ali postopke, ki se uporabljajo za visokotvegane sisteme UI ali so vanje vključeni. Urad za UI pri oblikovanju teh vzorčnih pogojev upošteva morebitne pogodbene zahteve, ki se uporabljajo v posameznih sektorjih ali poslovnih primerih. Prostovoljni vzorčni pogoji se objavijo in so brezplačno na voljo v lahko uporabni elektronski obliki.
5. Odstavci 2 a 3 není dotčena potřeba dodržovat a chránit práva duševního vlastnictví, důvěrné obchodní informace a obchodní tajemství v souladu s právem Unie a vnitrostátním právem.
5. Odstavka 2 in 3 ne posegata v potrebo po spoštovanju in varstvu pravic intelektualne lastnine, zaupnih poslovnih informacij in poslovnih skrivnosti v skladu s pravom Unije in nacionalnim pravom.
Povinnosti zavádějících subjektů vysoce rizikových systémů AI
Obveznosti uvajalcev visokotveganih sistemov UI
1. Subjekty zavádějící vysoce rizikové systémy AI přijmou vhodná technická a organizační opatření s cílem zajistit, že tyto systémy budou používány v souladu s návodem k použití přiloženým k těmto systémům na základě odstavců 3 a 6.
1. Uvajalci visokotveganih sistemov UI sprejmejo ustrezne tehnične in organizacijske ukrepe, s katerimi zagotovijo, da uporabljajo take sisteme v skladu s priloženimi navodili za uporabo, na podlagi odstavkov 3 in 6.
2. Zavádějící subjekty pověří lidským dohledem fyzické osoby, které k tomu mají nezbytnou způsobilost, odbornou přípravu a pravomoc, jakož i potřebnou podporu.
2. Uvajalci dodelijo človeški nadzor fizičnim osebam, ki imajo potrebne kompetence, usposobljenost in pooblastila ter potrebno podporo.
3. Povinnostmi uvedenými v odstavcích 1 a 2 nejsou dotčeny ostatní povinnosti zavádějících subjektů podle práva Unie nebo vnitrostátního práva ani volnost zavádějících subjektů při organizaci vlastních zdrojů a činností za účelem provádění opatření v oblasti lidského dohledu uvedených poskytovatelem.
3. Obveznosti iz odstavkov 1 in 2 ne posegajo v druge obveznosti uvajalca v skladu s pravom Unije ali nacionalnim pravom ter v pravico uvajalca, da organizira lastna sredstva in dejavnosti za izvajanje ukrepov za človeški nadzor, ki jih navede ponudnik.
4. Aniž jsou dotčeny odstavce 1 a 2, zavádějící subjekt zajistí v rozsahu, v jakém vykonává kontrolu nad vstupními údaji, aby s ohledem na zamýšlený účel vysoce rizikového systému AI byla vstupní data relevantní a dostatečně reprezentativní.
4. Brez poseganja v odstavka 1 in 2, če uvajalec izvaja nadzor nad vhodnimi podatki, ta uvajalec zagotovi, da so vhodni podatki ustrezni in dovolj reprezentativni glede na predvideni namen visokotveganega sistema UI.
5. Zavádějící subjekty monitorují provoz vysoce rizikového systému AI na základě návodu k použití a v příslušných případech informují poskytovatele v souladu s článkem 72. Mají-li zavádějící subjekty důvod se domnívat, že používání vysoce rizikového systému AI v souladu s návodem k použití může založit riziko spojené se systémem AI ve smyslu čl. 79 odst. 1, bez zbytečného odkladu o této skutečnosti uvědomí poskytovatele nebo distributora a příslušné orgány dozoru nad trhem a používání systému pozastaví. Zjistí-li zavádějící subjekty závažný incident, neprodleně o tomto incidentu informují nejprve poskytovatele a poté dovozce nebo distributora a příslušné orgány dozoru nad trhem. V případě, že se zavádějícímu subjektu nepodaří poskytovatele kontaktovat, použije se obdobně článek 73. Tato povinnost se nevztahuje na citlivé operativní údaje subjektů zavádějících systémy AI, kteří jsou donucovacími orgány.
5. Uvajalci spremljajo delovanje visoko tveganega sistem UI na podlagi navodil za uporabo in po potrebi obvestijo ponudnike v skladu s členom 72. Kadar imajo uvajalci razlog za domnevo, da bi uporaba visoko tveganega sistema UI v skladu z navodili lahko povzročila, da bi visokotvegani sistem UI predstavljal tveganje v smislu člena 79(1), o tem brez nepotrebnega odlašanja obvestijo ponudnika ali distributerja in ustrezni organ za nadzor trga ter začasno prekinejo uporabo tega sistema. Kadar uvajalci odkrijejo resen incident, o tem incidentu takoj obvestijo najprej ponudnika in nato uvoznika ali distributerja in ustrezne organe za nadzor trga. Če uvajalec ne more priti v stik s ponudnikom, se smiselno uporablja člen 73. Ta obveznost ne zajema občutljivih operativnih podatkov uvajalcev sistemov UI, ki so organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj.
V případě zavádějících subjektů, které jsou finančními institucemi, na něž se vztahují požadavky týkající se jejich vnitřní správy, systémů nebo postupů podle práva Unie v oblasti finančních služeb, se povinnost monitorování stanovená v prvním pododstavci považuje za splněnou, jsou-li dodržena pravidla týkající se systémů, postupů a mechanismů vnitřní správy podle příslušného práva Unie v oblasti finančních služeb.
Za uvajalce, ki so finančne institucije in za katere veljajo zahteve v zvezi z njihovim notranjim upravljanjem, ureditvami ali postopki na podlagi prava Unije o finančnih storitvah, se šteje, da je obveznost spremljanja iz prvega pododstavka izpolnjena z upoštevanjem pravil o ureditvah, procesih in mehanizmih notranjega upravljanja na podlagi ustreznega prava o finančnih storitvah.
6. Subjekty zavádějící vysoce rizikové systémy AI uchovávají protokoly automaticky generované tímto vysoce rizikovým systémem AI v rozsahu, v jakém jsou tyto protokoly pod jejich kontrolou, po dobu odpovídající zamýšlenému účelu vysoce rizikového systému AI, jež není kratší než šest měsíců, pokud platné unijní nebo vnitrostátní právo, zejména právo Unie o ochraně osobních údajů, nestanoví jinak.
6. Uvajalci visokotveganih sistemov UI vodijo dnevnike, ki jih samodejno ustvari ta visokotvegani sistem UI, če so ti dnevniki pod njihovim nadzorom, v obdobju, ki ustreza predvidenemu namenu visokotveganega sistema UI, in sicer vsaj šest mesecev, razen če je v veljavnem pravu Unije ali nacionalnem pravu, zlasti v pravu Unije o varstvu osebnih podatkov, določeno drugače.
Zavádějící subjekty, které jsou finančními institucemi, na něž se vztahují požadavky týkající se jejich vnitřní správy, systémů nebo postupů podle práva Unie v oblasti finančních služeb, uchovávají protokoly jako součást dokumentace vedené podle příslušného práva Unie v oblasti finančních služeb.
Uvajalci, ki so finančne institucije in za katere veljajo zahteve v zvezi z njihovim notranjim upravljanjem, ureditvami ali postopki na podlagi prava Unije o finančnih storitvah, vodijo dnevnike kot del dokumentacije, ki se hrani na podlagi ustreznega prava Unije o finančnih storitvah.
7. Zavádějící subjekty, jež jsou zaměstnavateli, před uvedením do provozu nebo používáním vysoce rizikového systému AI na pracovišti informují zástupce zaměstnanců a dotčené pracovníky, že budou používání vysoce rizikového systému AI vystaveni. Tyto informace se případně poskytují jednak v souladu s pravidly a postupy stanovenými v právu Unie a vnitrostátním právu, a jednak v souladu se zvyklostmi pro informování pracovníků a jejich zástupců.
7. Uvajalci, ki so delodajalci, pred dajanjem v uporabo ali pred uporabo visokotveganega sistema UI na delovnem mestu obvestijo predstavnike delavcev in delavce, na katere se to nanaša, da se bo zanje uporabljal visokotvegani sistem UI. Te informacije se po potrebi zagotovijo v skladu s pravili in postopki, določenimi v pravu Unije in nacionalnem pravu ter praksi v zvezi z obveščanjem delavcev in njihovih predstavnikov.
8. Subjekty zavádějící vysoce rizikové systémy AI, jež jsou veřejnými orgány nebo orgány, institucemi nebo jinými subjekty Unie, plní povinnosti registrace uvedené v článku 49. Pokud tyto zavádějící subjekty zjistí, že vysoce rizikový systém AI, který hodlají používat, nebyl zaregistrován v databázi EU uvedené v článku 71, pak tento systém nepoužijí a informují o této skutečnosti poskytovatele nebo distributora.
8. Uvajalci visokotveganih sistemov UI, ki so javni organi ali institucije, organi, uradi in agencije Unije, izpolnjujejo obveznosti registracije iz člena 49. Če ti uvajalci ugotovijo, da visokotvegani sistem UI, ki ga nameravajo uporabljati, ni bil registriran v podatkovni zbirki EU iz člena 71, tega sistema ne uporabljajo in o tem obvestijo ponudnika ali distributerja.
9. Subjekty zavádějící vysoce rizikové systémy AI v příslušných případech použijí informace poskytnuté podle článku 13 ke splnění své povinnosti provést posouzení vlivu na ochranu osobních údajů podle článku 35 nařízení (EU) 2016/679 nebo podle článku 27 směrnice (EU) 2016/680.
9. Uvajalci visokotveganih sistemov UI po potrebi uporabijo informacije iz člena 13 te uredbe, da izpolnijo svojo obveznost izvedbe ocene učinka v zvezi z varstvom podatkov na podlagi člena 35 Uredbe (EU) 2016/679 ali člena 27 Direktive (EU) 2016/680.
10. Aniž je dotčena směrnice (EU) 2016/680, subjekt zavádějící vysoce rizikový systém AI pro následnou biometrickou identifikaci na dálku v rámci pátrání za účelem cíleného vyhledávání osoby podezřelé ze spáchání trestného činu nebo odsouzené za trestný čin požádá, buď předem, nebo bez zbytečného odkladu a nejpozději do 48 hodin, justiční orgán nebo správní orgán, jehož rozhodnutí je závazné a podléhá soudnímu přezkumu, o povolení použít daný systém, s výjimkou případů, kdy se tento systém používá k prvotní identifikaci potenciálního podezřelého na základě objektivních a ověřitelných skutečností přímo souvisejících s trestným činem. Každé použití je omezeno na to, co je nezbytně nutné pro vyšetřování konkrétního trestného činu.
10. Brez poseganja v Direktivo (EU) 2016/680 v okviru preiskave za ciljno iskanje osebe, ki je osumljena ali obsojena storitve kaznivega dejanja, uvajalec visokotveganega sistema UI za naknadno biometrično identifikacijo na daljavo predhodno ali brez nepotrebnega odlašanja in najpozneje v 48 urah zaprosi sodni organ ali upravni organ, katerega odločitev je zavezujoča in je predmet sodnega nadzora, za uporabo tega sistema, razen če se ta uporablja za prvotno identifikacijo morebitnega osumljenca na podlagi objektivnih in preverljivih dejstev, neposredno povezanih s kaznivim dejanjem. Vsaka uporaba mora biti omejena na tisto, kar je nujno potrebno za preiskavo določenega kaznivega dejanja.
Je-li povolení, o něž je požádáno podle prvního pododstavce, zamítnuto, používání systému pro následnou biometrickou identifikaci na dálku spojeného s tímto požadovaným povolením se s okamžitým účinkem ukončí a osobní údaje spojené s používáním daného vysoce rizikového systému AI, pro který bylo o povolení požádáno, se vymažou.
Če se dovoljenje, zahtevano na podlagi prvega pododstavka, zavrne, je treba takoj prenehati uporabljati sistem za naknadno biometrično identifikacijo na daljavo, povezan z zahtevanim dovoljenjem, osebni podatki, povezani z uporabo visokotveganega sistema UI, za katerega je bilo zaprošeno dovoljenje, pa se izbrišejo.
V žádném případě nesmí být tento vysoce rizikový systém AI pro následnou biometrickou identifikaci na dálku používán pro účely vymáhání práva necíleným způsobem, bez jakékoli souvislosti s určitým trestným činem, trestním řízením, skutečnou a aktuální nebo skutečnou a předvídatelnou hrozbou trestného činu nebo pátráním po konkrétní pohřešované osobě. Zajistí se, aby donucovací orgány nemohly výlučně na základě výstupu těchto systémů pro následnou biometrickou identifikaci na dálku přijmout žádné rozhodnutí, které má pro danou osobu nepříznivé právní účinky.
V nobenem primeru se tak visokotvegani sistem UI za naknadno biometrično identifikacijo na daljavo ne sme uporabljati za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj na neciljen način, brez kakršne koli povezave s kaznivim dejanjem, kazenskim postopkom, resnično in sedanjo ali resnično in predvidljivo grožnjo kaznivega dejanja ali iskanjem določene pogrešane osebe. Zagotovi se, da organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj izključno na podlagi izhodnih podatkov sistema za naknadno biometrično identifikacijo na daljavo ne smejo sprejeti nobene odločitve, ki bi imela negativen pravni učinek na osebo.
Tímto odstavcem není dotčen článek 9 nařízení (EU) 2016/679 a článek 10 směrnice (EU) 2016/680, pokud jde o zpracování biometrických údajů.
Ta odstavek ne posega v člen 9 Uredbe (EU) 2016/679 in člen 10 Direktive (EU) 2016/680 za obdelavo biometričnih podatkov.
Bez ohledu na účel nebo zavádějící subjekt je každé použití těchto vysoce rizikových systémů AI zdokumentováno v příslušném policejním spisu a na požádání zpřístupněno příslušnému orgánu dozoru nad trhem a vnitrostátnímu orgánu pro ochranu osobních údajů, s výjimkou uvedení citlivých operativních údajů týkajících se vymáhání práva. Tímto pododstavcem nejsou dotčeny pravomoci, které směrnice (EU) 2016/680 svěřuje dozorovým orgánům.
Ne glede na namen ali uvajalca se vsaka uporaba takih visokotveganih sistemov UI dokumentira v ustrezni policijski datoteki ter se na zahtevo da na voljo ustreznemu organu za nadzor trga in nacionalnemu organu za varstvo podatkov, razen razkritja občutljivih operativnih podatkov, povezanih s preprečevanjem, odkrivanjem in preiskovanjem kaznivih dejanj. Ta pododstavek ne posega v pooblastila, ki so z Direktivo (EU) 2016/680 dodeljena nadzornim organom.
Zavádějící subjekty předkládají příslušným orgánům dozoru nad trhem a vnitrostátním orgánům pro ochranu osobních údajů výroční zprávy, v níž je uvedeno, jak systémy pro následnou biometrickou identifikaci na dálku používají, s výjimkou uvedení citlivých operativních údajů týkajících se vymáhání práva. Zprávy je možné vypracovat souhrnně tak, aby se vztahovali k více než jednomu zavedení systému.
Uvajalci ustreznim organom za nadzor trga in nacionalnim organom za varstvo podatkov predložijo letna poročila o uporabi sistemov za naknadno biometrično identifikacijo na daljavo, razen razkritja občutljivih operativnih podatkov v zvezi z organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj. Poročila se lahko združijo tako, da zajemajo več kot eno uvedbo.
Členské státy mohou v souladu s právem Unie zavést přísnější právní předpisy týkající se používání systémů pro následnou biometrickou identifikaci na dálku.
Države članice lahko v skladu s pravom Unije uvedejo strožje zakone o uporabi sistemov za naknadno biometrično identifikacijo na daljavo.
11. Aniž je dotčen článek 50 tohoto nařízení, subjekty zavádějící vysoce rizikové systémy AI uvedené v příloze III, které přijímají rozhodnutí nebo pomáhají při přijímání rozhodnutí týkajících se fyzických osob, tyto fyzické osoby informují, že jsou použití vysoce rizikového systému AI vystaveny. Na vysoce rizikové systémy AI používané pro účely vymáhání práva se použije článek 13 směrnice (EU) 2016/680.
11. Brez poseganja v člen 50 te uredbe uvajalci visokotveganih sistemov UI iz Priloge III, ki sprejemajo odločitve ali pomagajo pri njihovem odločanju v zvezi s fizičnimi osebami, slednje obvestijo, da se zanje uporablja visokotvegani sistem UI. Za visokotvegane sisteme UI, ki se uporabljajo za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, se uporablja člen 13 Direktive (EU) 2016/680.
12. Zavádějící subjekty spolupracují s příslušnými orgány na veškerých opatřeních, která tyto orgány v souvislosti s vysoce rizikovým systémem AI přijmou za účelem provádění tohoto nařízení.
12. Uvajalci sodelujejo z ustreznimi pristojnimi organi pri vseh ukrepih, ki jih ti organi sprejmejo v zvezi z visokotveganim sistemom UI, da bi uresničili to uredbo.
Posouzení dopadu vysoce rizikových systémů AI na základní práva
Ocena učinka na temeljne pravice za visokotvegane sisteme UI
1. Před zavedením vysoce rizikového systému AI podle čl. 6 odst. 2, s výjimkou vysoce rizikových systémů AI určených k použití v oblasti uvedené v příloze III bodě 2, zavádějící subjekty, které jsou veřejnoprávními nebo soukromými subjekty poskytujícími veřejné služby, a zavádějící subjekty provozující vysoce rizikové systémy AI uvedené v příloze III bodě 5 písm. b) a c) provedou posouzení dopadu na základní práva, který může použití takového systému mít. Za tímto účelem provedou zavádějící subjekty posouzení, které zahrnuje:
1. Pred uvedbo visoko tveganega sistema UI iz člena 6(2), razen visokotveganih sistemov UI, namenjenih uporabi na področju iz Priloge III, točka 2, uvajalci, ki so osebe javnega prava ali zasebni subjekti in zagotavljajo javne storitve, ter uvajalci visokotveganih sistemov UI iz Priloge III, točki 5(b) in (c), izvedejo oceno učinka, ki ga lahko povzroči uporaba takega sistema na temeljne pravice. V ta namen uvajalci izvedejo oceno, ki jo sestavljajo:
a)
popis procesů zavádějícího subjektu, v nichž bude vysoce rizikový systém AI používán v souladu s jeho zamýšleným účelem;
(a)
opis postopkov uvajalca, v katerih se bo visokotvegani sistem UI uporabljal v skladu s predvidenim namenom;
b)
popis časového období a frekvence plánovaného použití každého z vysoce rizikových systémů AI;
(b)
opis obdobja in pogostosti uporabe vsakega visokotveganega sistema UI;
c)
kategorie fyzických osob a skupin, které by mohly být jeho používáním v konkrétním kontextu dotčeny;
(c)
kategorije fizičnih oseb in skupin, na katere bo verjetno vplivala njegova uporaba v specifičnem kontekstu;
d)
specifická rizika újmy, která by mohla mít dopad na kategorie fyzických osob nebo skupiny osob určených podle písmene c) tohoto odstavce, a to při zohlednění informací dodaných poskytovatelem podle článku 13;
(d)
posebna tveganja škode, ki bi lahko vplivala na kategorije fizičnih oseb ali skupine oseb, opredeljene na podlagi tega odstavka, točka (c), ob upoštevanju informacij, ki jih je ponudnik predložil na podlagi člena 13;
e)
popis provádění opatření lidského dohledu, v souladu s návodem k použití;
(e)
opis izvajanja ukrepov za človeški nadzor v skladu z navodili za uporabo;
f)
opatření, která mají být přijata v případě naplnění těchto rizik, včetně opatření pro vnitřní správu a mechanismy vyřizování stížností.
(f)
ukrepi, ki jih je treba sprejeti, v primeru uresničitve teh tveganj, vključno z ureditvami za notranje upravljanje in pritožbene mehanizme.
2. Povinnost stanovená v odstavci 1 platí pro první použití vysoce rizikového systému AI. Zavádějící subjekt může v podobných případech vycházet z dříve provedeného posouzení dopadů na základní práva nebo ze stávajících posouzení, které provedl poskytovatel. Pokud během použití vysoce rizikového systému AI zavádějící subjekt posoudí, že se některý z prvků uvedených v odstavci 1 změnil nebo již není aktuální, přijme nezbytné kroky k aktualizaci těchto informací.
2. Obveznost iz odstavka 1 se uporablja za prvo uporabo visokotveganega sistema UI. Uvajalec lahko v podobnih primerih uporabi predhodno izvedeno oceno učinka na temeljne pravice ali obstoječo oceno, ki jo je izvedel ponudnik. Če uvajalec med uporabo visokotveganega sistema UI meni, da se je kateri koli element iz odstavka 1 spremenil ali ni več posodobljen, sprejme potrebne ukrepe za posodobitev informacij.
3. Po provedení posouzení uvedeném v odstavci 1 tohoto článku zavádějící subjekt informuje o jeho výsledcích orgán dozoru na trhem prostřednictvím vyplněného dotazníku uvedeného v odstavci 5 tohoto článku. V případě uvedeném v čl. 46 odst. 1 mohou být zavádějící subjekty od této povinnosti oznámení osvobozeny.
3. Po izvedbi ocene iz odstavka 1 tega člena uvajalec obvesti organ za nadzor trga o svojih rezultatih, s predložitvijo izpolnjene predloge iz odstavka 5 tega člena. V primeru iz člena 46(1) so lahko uvajalci izvzeti iz obveznosti obveščanja.
4. Je-li některá z povinností stanovených v tomto článku splněna již na základě posouzení dopadu na ochranu osobních údajů provedeného podle článku 35 nařízení (EU) 2016/679 nebo článku 27 směrnice (EU) 2016/680, potom může posouzení dopadu na základní práva uvedené v odstavci 1 tohoto článku doplnit posouzení dopadu na ochranu osobních údajů.
4. Če je katera od obveznosti iz tega člena že izpolnjena na podlagi ocene učinka v zvezi z varstvom podatkov, izvedene na podlagi člena 35 Uredbe (EU) 2016/679 ali člena 27 Direktive (EU) 2016/680, ocena učinka na temeljne pravice iz odstavka 1 tega člena dopolnjuje to oceno učinka v zvezi z varstvom podatkov.
5. Úřad pro AI vypracuje vzor pro dotazník, a to i prostřednictvím automatizovaného nástroje, aby zavádějícím subjektům usnadnil plnění povinností podle tohoto článku.
5. Urad za UI pripravi predlogo vprašalnika, tudi z avtomatiziranim orodjem, da bi se uvajalcem omogočilo, da na poenostavljen način izpolnijo svoje obveznosti iz tega člena.
1. Každý členský stát určí nebo zřídí alespoň jeden oznamující orgán odpovědný za vytvoření a provádění nezbytných postupů pro posuzování, jmenování a oznamování subjektů posuzování shody a za jejich kontrolu. Tyto postupy se vypracují ve spolupráci mezi oznamujícími orgány všech členských států.
1. Vsaka država članica imenuje ali vzpostavi vsaj en priglasitveni organ, odgovoren za vzpostavitev in izvajanje potrebnih postopkov za ocenjevanje, imenovanje in priglasitev organov za ugotavljanje skladnosti ter za njihovo spremljanje. Takšni postopki se oblikujejo v sodelovanju med priglasitvenimi organi vseh držav članic.
2. Členské státy mohou rozhodnout, že posuzování a monitorování uvedené v odstavci 1 má provést vnitrostátní akreditační orgán ve smyslu nařízení (ES) č. 765/2008 a v souladu s ním.
2. Države članice lahko odločijo, da mora ocenjevanje in spremljanje iz odstavka 1 izvajati nacionalni akreditacijski organ v smislu Uredbe (ES) št. 765/2008 in v skladu z njo.
3. Oznamující orgány musí být zřízeny, organizovány a fungovat tak, aby nedošlo ke střetu zájmu se subjekty posuzování shody a aby zabezpečily objektivitu a nestrannost svých činností.
3. Priglasitveni organi se ustanovijo, organizirajo in delujejo tako, da ne pride do navzkrižja interesov z organi za ugotavljanje skladnosti ter da se zaščitita objektivnost in nepristranskost njihovih dejavnosti.
4. Oznamující orgány musí být organizovány takovým způsobem, aby rozhodnutí týkající se oznámení subjektů posuzování shody přijímaly způsobilé osoby odlišné od těch, které provedly posouzení těchto subjektů.
4. Priglasitveni organi so organizirani tako, da odločitve v zvezi s priglasitvijo organov za ugotavljanje skladnosti sprejemajo pristojne osebe, ki niso tiste, ki so izvedle ocenjevanje teh organov.
5. Oznamující orgány nesmí nabízet ani poskytovat žádné činnosti, které provádějí subjekty posuzování shody, a nesmí poskytovat poradenské služby na komerčním nebo konkurenčním základě.
5. Priglasitveni organi ne ponujajo ali izvajajo nobenih dejavnosti, ki jih izvajajo organi za ugotavljanje skladnosti, in tudi nobenih storitev svetovanja na komercialni ali konkurenčni podlagi.
6. Oznamující orgány musí chránit důvěrnost informací získaných v souladu s článkem 78.
6. Priglasitveni organi zagotavljajo zaupnost pridobljenih informacij v skladu s členom 78.
7. Oznamující orgány musí mít k dispozici přiměřený počet odborně způsobilých pracovníků, aby mohly řádně plnit své úkoly. Odborně způsobilí pracovníci mají podle potřeby nezbytné odborné znalosti pro svou činnost v oblastech, jako jsou informační technologie, AI a právo, včetně dohledu nad základními právy.
7. Priglasitveni organi morajo imeti na voljo zadostno število strokovnega osebja za pravilno izvajanje svojih nalog. Pristojno osebje mora imeti potrebno strokovno znanje, kadar je ustrezno, za svojo funkcijo na področjih, kot so informacijske tehnologije, UI in pravo, vključno z nadzorom temeljnih pravic.
Žádost subjektu posuzování shody o oznámení
Vloga organa za ugotavljanje skladnosti za priglasitev
1. Subjekty posuzování shody podávají žádost o oznámení oznamujícímu orgánu členského státu, v němž jsou usazeny.
1. Organi za ugotavljanje skladnosti predložijo vlogo za priglasitev priglasitvenemu organu države članice, v kateri imajo sedež.
2. Součástí žádosti o oznámení je popis činností posuzování shody, modulu nebo modulů posuzování shody a typů systémů AI, pro něž se subjekt posuzování shody prohlašuje za způsobilý, jakož i osvědčení o akreditaci, pokud existuje, vydané vnitrostátním akreditačním orgánem, které potvrzuje, že subjekt posuzování shody splňuje požadavky stanovené v článku 31.
2. Vlogi za priglasitev se priložijo opis dejavnosti ugotavljanja skladnosti, opis modula ali modulov za ugotavljanje skladnosti in opis vrst sistemov UI, za katere organ za ugotavljanje skladnosti trdi, da je zanje pristojen, ter morebitni certifikat o akreditaciji, ki ga izda nacionalni akreditacijski organ, ki potrjuje, da organ za ugotavljanje skladnosti izpolnjuje zahteve iz člena 31.
Přikládá se rovněž jakýkoli platný dokument týkající se stávajících jmenování žádajícího oznámeného subjektu podle jiných harmonizačních právních předpisů Unie.
Dodajo se vsi veljavni dokumenti v zvezi z obstoječimi imenovanji priglašenega organa vlagatelja na podlagi katere koli druge harmonizacijske zakonodaje Unije.
3. Nemůže-li dotčený subjekt posuzování shody předložit osvědčení o akreditaci, poskytne oznamujícímu orgánu veškeré doklady nezbytné k ověření, uznání a pravidelné kontrole svého souladu s požadavky stanovenými v článku 31.
3. Kadar zadevni organ za ugotavljanje skladnosti ne more zagotoviti certifikata o akreditaciji, priglasitvenemu organu predloži vsa dokumentarna dokazila, potrebna za preverjanje, priznavanje in redno spremljanje njegove skladnosti z zahtevami iz člena 31.
4. U oznámených subjektů, které jsou jmenovány podle jiných harmonizačních právních předpisů Unie, lze případně pro doložení postupů jmenování podle tohoto nařízení použít veškeré dokumenty a certifikáty související s tímto jmenováním. Oznámený subjekt aktualizuje dokumentaci uvedenou v odstavcích 2 a 3 tohoto článku, a to kdykoli dojde k významným změnám, aby umožnil orgánu odpovědnému za oznámené subjekty kontrolovat a ověřovat nepřetržitý soulad se všemi požadavky stanovenými v článku 31.
4. Za priglašene organe, imenovane na podlagi katere koli druge harmonizacijske zakonodaje Unije, se lahko vsi dokumenti in certifikati v zvezi s temi imenovanji uporabijo za podporo njihovemu postopku imenovanja na podlagi te uredbe, če je to primerno. Priglašeni organ posodobi dokumentacijo iz odstavkov 2 in 3 tega člena, kadar pride do pomembnih sprememb, da bi organu, pristojnemu za priglašene organe, omogočil spremljanje in preverjanje stalne skladnosti z vsemi zahtevami, določenimi v členu 31.
1. Oznamující orgány mohou oznámit pouze subjekty posuzování shody, které splňují požadavky stanovené v článku 31.
1. Priglasitveni organi lahko priglasijo samo tiste organe za ugotavljanje skladnosti, ki izpolnjujejo zahteve iz člena 31.
2. K oznámení každého subjektu posuzování shody uvedeného v odstavci 1 Komisi a ostatním členským státům využijí oznamující orgány elektronický nástroj pro oznamování vyvinutý a spravovaný Komisí.
2. Priglasitveni organi Komisiji in ostalim državam članicam priglasijo vsak organ za ugotavljanje skladnosti iz odstavka 1 z uporabo elektronskega orodja za priglasitev, ki ga je razvila in ga upravlja Komisija.
3. Oznámení uvedené v odstavci 2 tohoto článku obsahuje veškeré podrobnosti o dotčených činnostech posuzování shody, modulu nebo modulech posuzování shody a typech systémů AI a příslušné potvrzení o způsobilosti. Pokud se oznámení nezakládá na osvědčení o akreditaci uvedeném v čl. 29 odst. 2, poskytne oznamující orgán Komisi a ostatním členským státům podklady, které prokazují způsobilost subjektu posuzování shody, a informace o zavedených opatřeních k zajištění toho, aby byl subjekt pravidelně kontrolován a i v budoucnu splňoval požadavky stanovené v článku 31.
3. Priglasitev iz odstavka 2 tega člena vključuje vse podrobnosti o dejavnostih ugotavljanja skladnosti, modulu ali modulih za ugotavljanje skladnosti in zadevnih vrstah sistemov UI ter ustrezno potrdilo o usposobljenosti. Kadar priglasitev ne temelji na potrdilu o akreditaciji iz člena 29(2), priglasitveni organ Komisiji in drugim državam članicam predloži dokumentarna dokazila, ki potrjujejo usposobljenost organa za ugotavljanje skladnosti in vzpostavljene ureditve, s čimer se zagotovi, da bo organ redno spremljan in bo še naprej izpolnjeval zahteve iz člena 31.
4. Dotčený subjekt posuzování shody může vykonávat činnosti oznámeného subjektu, pouze pokud proti tomu Komise nebo ostatní členské státy nevznesly námitky do dvou týdnů od oznámení oznamujícího orgánu, obsahuje-li osvědčení o akreditaci podle čl. 29 odst. 2, nebo do dvou měsíců od oznámení, obsahuje-li doklady podle čl. 29 odst. 3.
4. Zadevni organ za ugotavljanje skladnosti lahko izvaja dejavnosti priglašenega organa le, kadar Komisija ali druge države članice ne vložijo ugovora bodisi v dveh tednih od priglasitve s strani priglasitvenega organa, kadar ta vključuje potrdilo o akreditaciji iz člena 29(2), ali v dveh mesecih od priglasitve s strani priglasitvenega organa, kadar ta vključuje dokumentarna dokazila iz člena 29(3).
5. Jsou-li námitky vzneseny, Komise s příslušnými členskými státy a subjektem posuzování shody neprodleně zahájí konzultace. S ohledem na to Komise rozhodne, zda je povolení oprávněné, či nikoli. Rozhodnutí Komise je určeno dotčenému členskému státu a příslušnému subjektu posuzování shody.
5. Kadar so vloženi ugovori, se Komisija nemudoma posvetuje z zadevnimi državami članicami in organom za ugotavljanje skladnosti. Glede na to, Komisija odloči, ali je dovoljenje upravičeno ali ne. Svojo odločitev naslovi na zadevno državo članico in ustrezni organ za ugotavljanje skladnosti.
Požadavky na oznámené subjekty
Zahteve v zvezi s priglašenimi organi
1. Oznámený subjekt musí být zřízen podle vnitrostátního práva členského státu a mít právní subjektivitu.
1. Priglašeni organ mora biti ustanovljen na podlagi nacionalnega prava države članice in imeti pravno osebnost.
2. Oznámené subjekty splňují organizační požadavky a požadavky na řízení kvality, zdroje a postupy, které jsou k plnění uvedených úkolů nezbytné, stejně jako odpovídající požadavky na kybernetickou bezpečnost.
2. Priglašeni organi morajo izpolnjevati organizacijske zahteve, zahteve glede upravljanja kakovosti, virov in procesov, potrebnih za izpolnjevanje njihovih nalog, ter ustrezne zahteve glede kibernetske varnosti.
3. Organizační struktura, rozdělení odpovědností, způsob podávání zpráv a fungování oznámených subjektů musí být takové, aby byla zajištěna důvěra v provádění a výsledky činností posuzování shody, které oznámené subjekty provádějí.
3. Organizacijska struktura, dodelitev pristojnosti, poročanje in delovanje priglašenih organov morajo zagotavljati zaupanje v učinkovitost priglašenih organov in v rezultate dejavnosti ugotavljanja skladnosti, ki jih izvajajo.
4. Oznámené subjekty jsou nezávislé na poskytovateli vysoce rizikového systému AI, u něhož provádějí činnosti posuzování shody. Oznámené subjekty jsou rovněž nezávislé na jakémkoliv jiném provozovateli, který má na posuzovaných vysoce rizikových systémech AI zájem, i na jakýchkoliv konkurentech poskytovatele. To nevylučuje používání posuzovaných vysoce rizikových systémů AI, které jsou nezbytné pro činnost subjektu posuzování shody, ani používání takových vysoce rizikových systémů AI pro osobní účely.
4. Priglašeni organi morajo biti neodvisni od ponudnika visokotveganega sistema UI, v zvezi s katerim izvajajo dejavnosti ugotavljanja skladnosti. Neodvisni morajo biti tudi od vseh drugih operaterjev, ki imajo gospodarski interes pri ocenjevanem visoko tveganem sistemu UI, in od vseh konkurentov ponudnika. To ne izključuje uporabe ocenjenih visokotveganih sistemov UI, nujnih za delovanje organa za ugotavljanje skladnosti, ali uporabe teh sistemov v zasebne namene.
5. Subjekt posuzování shody, jeho nejvyšší vedení a pracovníci odpovědní za plnění úkolů posuzování shody se nesmějí přímo podílet na navrhování, vývoji, uvádění na trh nebo používání vysoce rizikových systémů AI ani nesmějí zastupovat strany, které se těmito činnostmi zabývají. Nesmějí vykonávat žádnou činnost, která by mohla ohrozit jejich nezávislý úsudek nebo důvěryhodnost ve vztahu k činnostem posuzování shody, k jejichž vykonávání jsou oznámeni. To platí zejména pro poradenské služby.
5. Niti organ za ugotavljanje skladnosti in njegovo najvišje vodstvo niti osebje, pristojno za opravljanje nalog ugotavljanja skladnosti, ne smejo neposredno sodelovati pri zasnovi, razvoju, trženju ali uporabi visokotveganih sistemov UI in tudi ne zastopati strani, ki sodelujejo pri teh dejavnostih. Ne smejo sodelovati pri nobeni dejavnosti, ki bi lahko vplivala na njihovo neodvisno presojo ali integriteto v zvezi z dejavnostmi ugotavljanja skladnosti, za katere so priglašeni. To zlasti velja za svetovalne storitve.
6. Oznámené subjekty jsou organizovány a provozovány tak, aby byla zaručena nezávislost, objektivita a nestrannost jejich činností. Oznámené subjekty zdokumentují a zavedou strukturu a postupy pro zajištění nestrannosti a pro prosazování a uplatňování zásad nestrannosti v rámci celé své organizace, všech činností posuzování a u všech pracovníků.
6. Priglašeni organi s svojo organizacijo in delovanjem zagotavljajo neodvisnost, objektivnost in nepristranskost pri izvajanju svojih dejavnosti. Dokumentirajo in izvajajo strukturo in postopke za zagotovitev nepristranskosti ter za spodbujanje in uporabo načel nepristranskosti v svoji organizaciji, med osebjem in v dejavnostih ocenjevanja.
7. Oznámené subjekty mají zavedeny zdokumentované postupy zajišťující, aby jejich pracovníci, výbory, pobočky, subdodavatelé a jakýkoliv přidružený subjekt nebo pracovníci externích subjektů zachovávali v souladu s článkem 78 důvěrnost informací získaných při provádění činností posuzování shody, s výjimkou případů, kdy je zveřejnění těchto informací vyžadováno dle práva. Zaměstnanci oznámených subjektů jsou povinni zachovávat služební tajemství, pokud jde o veškeré informace, které obdrželi při plnění svých úkolů podle tohoto nařízení, nikoli však ve vztahu k oznamujícím orgánům členského státu, v němž vykonávají svou činnost.
7. Priglašeni organi morajo imeti vzpostavljene dokumentirane postopke za zagotovitev, da njihovo osebje, odbori, odvisne družbe, podizvajalci, kateri koli povezan organ ali osebje zunanjih organov v skladu s členom 78 ohranjajo zaupnost informacij, pridobljenih med opravljanjem dejavnosti ugotavljanja skladnosti, razen kadar njihovo razkritje zahteva zakon. Njihovo osebje je zavezano varovanju poklicnih skrivnosti v zvezi z vsemi informacijami, pridobljenimi med izvajanjem nalog na podlagi te uredbe, razen v zvezi s priglasitvenimi organi države članice, v kateri izvajajo svoje dejavnosti.
8. Oznámené subjekty mají zavedeny postupy pro provádění činností, jež řádně zohledňují velikost poskytovatele, odvětví, v němž působí, jejich strukturu a míru složitosti dotčeného systému AI.
8. Priglašeni organi morajo imeti vzpostavljene postopke za izvajanje dejavnosti, pri katerih se ustrezno upoštevajo velikost ponudnika, sektor, v katerem deluje, njegova struktura in stopnja zahtevnosti zadevnega sistema UI.
9. Oznámené subjekty uzavřou vhodné pojištění odpovědnosti za škodu s ohledem na své činnosti v oblasti posuzování shody, pokud tuto odpovědnost nepřevzal členský stát, v němž jsou usazeny, v souladu s vnitrostátním právem nebo pokud není tento členský stát za posuzování shody sám přímo odpovědný.
9. Priglašeni organi sklenejo ustrezno zavarovanje odgovornosti za svoje dejavnosti ugotavljanja skladnosti, razen če odgovornost prevzame država članica, v kateri imajo sedež, v skladu z nacionalnim pravom ali če je ta država članica sama neposredno pristojna za ugotavljanje skladnosti.
10. Oznámené subjekty jsou schopny provádět všechny své úkoly podle tohoto nařízení, na nejvyšší úrovni profesní důvěryhodnosti a náležité způsobilosti v této konkrétní oblasti bez ohledu na to, zda jsou uvedené úkoly prováděny samotnými oznámenými subjekty, nebo jejich jménem a na jejich odpovědnost.
10. Priglašeni organi morajo biti sposobni izvajati vse naloge na podlagi te uredbe z najvišjo stopnjo profesionalne integritete in potrebno usposobljenostjo na določenem področju, ne glede na to, ali navedene naloge izvajajo priglašeni organi sami ali se izvajajo v njihovem imenu in pod njihovo odgovornostjo.
11. Oznámené subjekty mají dostatečnou interní způsobilost, aby byly schopny účinně hodnotit úkoly, které jejich jménem provádějí externí strany. Oznámený subjekt má neustále k dispozici dostatek administrativních, technických, právních a vědeckých pracovníků se zkušenostmi a znalostmi ohledně příslušných typů systémů AI, dat a datových výpočtů, jakož i požadavků uvedených v oddíle 2.
11. Priglašeni organi morajo imeti zadostne notranje kompetence, da lahko učinkovito ocenijo naloge, ki jih opravljajo zunanje stranke v njihovem imenu. Stalno morajo imeti na voljo dovolj upravnega, tehničnega, pravnega in znanstvenega osebja, ki ima izkušnje in znanje v zvezi z ustreznimi vrstami sistemov UI, podatki in računalniško obdelavo podatkov ter v zvezi z zahtevami iz oddelka 2.
12. Oznámené subjekty se podílejí na koordinačních činnostech uvedených v článku 38. Rovněž se přímo účastní činnosti evropských normalizačních organizací nebo jsou v nich zastoupeny, případně zajistí, aby měly povědomí a aktuální informace o příslušných normách.
12. Priglašeni organi sodelujejo v usklajevalnih dejavnostih iz člena 38. Sodelujejo tudi neposredno v evropskih organizacijah za standardizacijo ali so v njih zastopani oziroma zagotavljajo, da so seznanjeni z ustreznimi standardi in na tekočem z njimi.
1. Oznamující orgán oznámí Komisi a ostatním členským státům veškeré relevantní změny oznámení učiněné oznámeným subjektem prostřednictvím elektronického nástroje pro oznamování uvedeného v čl. 30 odst. 2.
1. Priglasitveni organ uradno obvesti Komisijo in druge države članice o vseh pomembnih spremembah priglasitve priglašenega organa z uporabo elektronskega orodja za priglasitev iz člena 30(2).
2. V případě rozšíření rozsahu oznámení se použijí postupy stanovené v článcích 29 a 30.
2. Postopki iz členov 29 in 30 se uporabljajo za razširitev področja uporabe priglasitve.
V případě jiných změn oznámení, než jsou rozšíření jeho rozsahu, se použijí postupy stanovené v odstavcích 3 až 9.
Za druge spremembe priglasitve, razen za razširitev njenega področja uporabe, se uporabljajo postopki iz odstavkov 3 do 9.
3. Pokud se oznámený subjekt rozhodne svou činnost v oblasti posuzování shody ukončit, co nejdříve a v případě plánovaného ukončení nejméně jeden rok předtím, než svou činnost ukončí, informuje oznamující orgán a dotčené poskytovatele. Po ukončení činnosti oznámeného subjektu mohou certifikáty oznámeného subjektu zůstat dočasně v platnosti po dobu devíti měsíců za podmínky, že jiný oznámený subjekt písemně potvrdí, že za vysoce rizikové systémy AI, na něž se tyto certifikáty vztahují, převezme odpovědnost. Před vydáním nových certifikátů pro vysoce rizikové systémy AI, jichž se konec uvedené devítiměsíční lhůty dotkne, nový oznámený subjekt tyto systémy podrobí úplnému posouzení. Pokud oznámený subjekt ukončil svou činnost, oznamující orgán zruší jeho jmenování.
3. Kadar priglašeni organ sklene, da bo prenehal izvajati dejavnosti za ugotavljanje skladnosti, o tem obvesti priglasitveni organ in zadevne ponudnike čim prej, v primeru načrtovanega prenehanja pa vsaj eno leto pred prenehanjem izvajanja svojih dejavnosti. Certifikati priglašenega organa lahko ostanejo veljavni devet mesecev po prenehanju njegovih dejavnosti, pod pogojem da je drug priglašeni organ pisno potrdil, da bo prevzel odgovornost za visokotvegane sisteme UI, na katere se ti certifikati nanašajo. Slednji priglašeni organ opravi celovito oceno zadevnih visokotveganih sistemov UI do konca tega devetmesečnega obdobja, preden izda nove certifikate za te sisteme. Kadar priglašeni organ preneha opravljati svojo dejavnost, priglasitveni organ imenovanje umakne.
4. Pokud má oznamující orgán dostatečný důvod se domnívat, že oznámený subjekt již nesplňuje požadavky stanovené v článku 31 nebo neplní své povinnosti, prošetří tuto záležitost s maximální péčí. V této souvislosti informuje dotčený oznámený subjekt o vznesených námitkách a poskytne mu možnost, aby se k záležitosti vyjádřil. Pokud oznamující orgán dospěje k závěru, že oznámený subjekt již nesplňuje požadavky stanovené v článku 31 nebo že tento subjekt neplní své povinnosti, omezí, pozastaví nebo případně zruší jmenování, podle toho, jak je neplnění dotyčných požadavků nebo povinností závažné. Neprodleně o této skutečnosti informuje Komisi a ostatní členské státy.
4. Kadar ima priglasitveni organ zadosten razlog za domnevo, da priglašeni organ ne izpolnjuje več zahtev iz člena 31 ali da ne izpolnjuje svojih obveznosti, zadevo brez odlašanja razišče z največjo skrbnostjo. V tem okviru obvesti zadevni priglašeni organ o vloženih ugovorih in mu omogoči, da izrazi svoja stališča. Če priglasitveni organ ugotovi, da priglašeni organ ne izpolnjuje več zahtev iz člena 31 ali ne izpolnjuje svojih obveznosti, omeji, začasno prekliče ali umakne imenovanje, odvisno od resnosti neizpolnjevanja navedenih zahtev ali neizpolnjevanja navedenih obveznosti. O tem nemudoma obvesti Komisijo in druge države članice.
5. Pokud bylo jeho jmenování pozastaveno, omezeno nebo zcela či částečně zrušeno, daný oznámený subjekt o této skutečnosti do 10 dnů uvědomí dotčené výrobce.
5. Kadar se imenovanje priglašenega organa začasno prekliče, omeji oziroma v celoti ali delno umakne, priglašeni organ o tem obvesti zadevne ponudnike v desetih dneh.
6. V případě omezení, pozastavení nebo zrušení jmenování učiní oznamující orgán náležité kroky, aby zajistil, že spisy dotčeného oznámeného subjektu budou vedeny a na vyžádání zpřístupněny oznamujícím orgánům v jiných členských státech, jakož i orgánům dozoru nad trhem.
6. V primeru omejitve, začasnega preklica ali umika imenovanja priglasitveni organ izvede ustrezne ukrepe za zagotovitev, da se dokumentacija zadevnega priglašenega organa ohrani in je na voljo priglasitvenim organom v drugih državah članicah ter organom, pristojnim za nadzor trga, če to zahtevajo.
7. V případě omezení, pozastavení nebo zrušení jmenování oznamující orgán:
7. V primeru omejitve, začasnega preklica ali umika imenovanja priglasitveni organ:
a)
posoudí dopad na certifikáty vydané oznámeným subjektem;
(a)
oceni vpliv na certifikate, ki jih je izdal priglašeni organ;
b)
předloží zprávu o svých zjištěních Komisi a ostatním členským státům do tří měsíců poté, co změny jmenování oznámil;
(b)
Komisiji in drugim državam članicam v treh mesecih od uradnega obvestila o spremembah imenovanja predloži poročilo o svojih ugotovitvah;
c)
požádá oznámený subjekt, aby v přiměřeném časovém období stanoveném tímto orgánem pozastavil nebo zrušil veškeré certifikáty, které byly vydány neoprávněně, s cílem zajistit pokračující shodu vysoce rizikových systémů AI, jež jsou na trhu;
(c)
od priglašenega organa zahteva, da v razumnem časovnem roku, ki ga določi organ, začasno prekliče ali umakne vse neupravičeno izdane certifikate, da se zagotovi kontinuirana skladnost visokotveganih sistemov UI na trgu;
d)
informuje Komisi a členské státy o certifikátech, jejichž pozastavení nebo zrušení požaduje;
(d)
Komisijo in države članice obvesti o certifikatih, katerih začasni preklic ali umik je zahteval;
e)
poskytne příslušným vnitrostátním orgánům členského státu, v němž má poskytovatel své sídlo, veškeré příslušné informace o certifikátech, u nichž požádal o pozastavení nebo zrušení; tento orgán přijme v případě potřeby vhodná opatření s cílem zabránit možnému ohrožení zdraví, bezpečnosti nebo základních práv.
(e)
pristojnim nacionalnim organom države članice, v kateri ima ponudnik registriran sedež poslovanja, zagotovi vse ustrezne informacije o certifikatih, katerih začasni preklic ali umik je zahteval; ta organ sprejme ustrezne ukrepe za preprečitev morebitnega tveganja za zdravje, varnost ali temeljne pravice, kadar je to potrebno.
8. S výjimkou neoprávněně vydaných certifikátů a v případě, že bylo jmenování pozastaveno nebo omezeno, zůstávají certifikáty platné za těchto okolností:
8. Razen neupravičeno izdanih certifikatov ostanejo certifikati, kadar je bilo imenovanje začasno preklicano ali omejeno, veljavni v naslednjih okoliščinah:
a)
oznamující orgán do jednoho měsíce od pozastavení nebo omezení potvrdí, že v souvislosti s certifikáty, jichž se pozastavení nebo omezení týká, neexistuje ohrožení zdraví, bezpečnosti nebo základních práv, a oznamující orgán stanoví harmonogram pro opatření za účelem nápravy nedostatků, jež byly příčinou pozastavení nebo omezení, nebo
(a)
priglasitveni organ je v enem mesecu od začasnega preklica ali omejitve potrdil, da v zvezi s certifikati, za katere velja začasni preklic ali omejitev, ni nobenega tveganja za zdravje, varnost ali temeljne pravice, ter določil časovni potek za ukrepe, potrebne za odpravo začasnega preklica ali omejitve, ali
b)
oznamující orgán potvrdí, že v průběhu pozastavení či omezení nebudou vydávány, pozměňovány nebo opětovně vydávány žádné certifikáty, jichž se pozastavení či omezení týká, a uvede, zda je oznámený subjekt i nadále způsobilý monitorovat stávající certifikáty vydané na období pozastavení nebo omezení a být za ně odpovědný; v případě, že oznamující orgán rozhodne, že oznámený subjekt není způsobilý plnit své funkce ve vztahu ke stávajícím vydaným certifikátům, poskytovatel systému, na nějž se certifikát vztahuje, písemně potvrdí vnitrostátním příslušným orgánům členského státu, ve kterém má poskytovatel systému své registrované místo podnikání, do tří měsíců od pozastavení nebo omezení, že funkce oznámeného subjektu, totiž monitorovat a být nadále odpovědný za certifikáty, převezme dočasně, v době pozastavení nebo omezení, jiný kvalifikovaný oznámený subjekt.
(b)
priglasitveni organ je potrdil, da v obdobju začasnega preklica ali omejitve ne bo izdan, spremenjen ali ponovno izdan noben certifikat, povezan z začasnim preklicem, hkrati pa navedel, ali je priglašeni organ v obdobju začasnega preklica ali omejitve še vedno sposoben spremljati veljavne izdane certifikate in zanje odgovarjati; če priglasitveni organ ugotovi, da priglašeni organ ni sposoben zagotavljati podpore za veljavne izdane certifikate, ponudnik sistema, na katerega se nanaša certifikat, pristojnim nacionalnim organom države članice, v kateri ima registrirani sedež poslovanja, v treh mesecih od začasnega preklica ali omejitve pisno potrdi, da drug kvalificiran priglašeni organ začasno prevzema naloge priglašenega organa v smislu spremljanja certifikatov in odgovarjanja zanje v obdobju začasnega preklica ali omejitve.
9. S výjimkou neoprávněně vydaných certifikátů a v případě, že bylo jmenování zrušeno, zůstanou certifikáty v platnosti po dobu devíti měsíců za těchto podmínek:
9. Razen v primeru neupravičeno izdanih certifikatov in kadar je bilo imenovanje umaknjeno, ostanejo certifikati v naslednjih okoliščinah veljavni še devet mesecev:
a)
příslušný vnitrostátní orgán členského státu, v němž má poskytovatel vysoce rizikového systému AI, na nějž se certifikát vztahuje, své sídlo, potvrdí, že v souvislosti s dotčenými vysoce rizikovými systémy AI není ohroženo zdraví, bezpečnost ani základní práva, a
(a)
pristojni nacionalni organ države članice, v kateri ima ponudnik visoko tveganega sistema UI, na katerega se nanaša certifikat, registrirani sedež poslovanja, je potrdil, da v povezavi z zadevnimi visokotveganimi sistemi UI ni tveganja za zdravje, varnost ali temeljne pravice, ter
b)
jiný oznámený subjekt písemně potvrdí, že převezme za tyto systémy AI okamžitou odpovědnost a že dokončí jejich posouzení do dvanácti měsíců od zrušení jmenování.
(b)
drug priglašeni organ je pisno potrdil, da bo takoj prevzel odgovornost za te sisteme UI in v 12 mesecih od umika imenovanja zaključi njihovo ocenjevanje.
Za podmínek stanovených v prvním pododstavci může příslušný vnitrostátní orgán členského státu, v němž má poskytovatel systému, na který se certifikát vztahuje, své sídlo, prodloužit prozatímní platnost certifikátů o další tříměsíční období, která celkově nepřesáhnou dvanáct měsíců.
V okoliščinah iz prvega pododstavka sme pristojni nacionalni organ države članice, v kateri ima ponudnik sistema, na katerega se nanaša certifikat, sedež poslovanja, podaljšati začasno veljavnost certifikatov za nadaljnja obdobja treh mesecev, ki pa skupaj ne smejo trajati dlje kot dvanajst mesecev.
Příslušný vnitrostátní orgán nebo oznámený subjekt přebírající funkce oznámeného subjektu, kterého se týká změna jmenování, o této skutečnosti okamžitě informuje Komisi, ostatní členské státy a ostatní oznámené subjekty.
Pristojni nacionalni organ ali priglašeni organ, ki prevzame naloge priglašenega organa, na katerega se nanaša sprememba imenovanja, o tem takoj obvesti Komisijo, druge države članice in druge priglašene organe.
Harmonizované normy a produkty normalizace
Harmonizirani standardi in standardizacijski dokumenti
1. Předpokládá se, že vysoce rizikové systémy AI nebo obecné modely AI, které jsou ve shodě s harmonizovanými normami nebo jejich částmi, na něž byly zveřejněny odkazy v Úředním věstníku Evropské unie v souladu s nařízením (EU) 1025/2012, jsou ve shodě s požadavky stanovenými v oddíle 2 této kapitoly nebo případně s povinnostmi stanovenými v kapitole V oddíle 2 a 3 tohoto nařízení v rozsahu, v jakém se dotyčné normy vztahují na tyto požadavky nebo povinnosti.
1. Za visokotvegane sisteme UI ali modele UI za splošne namene, ki so skladni s harmoniziranimi standardi ali njihovimi deli, katerih sklici so bili objavljeni v Uradnem listu Evropske unije v skladu z Uredbo (EU) št. 1025/2012, se domneva, da so skladni z zahtevami iz oddelka 2 tega poglavja ali, kot je ustrezno, z obveznostmi iz poglavja V, oddelka 2 in 3, te uredbe, kolikor ti standardi zajemajo te zahteve ali obveznosti.
2. V souladu s článkem 10 nařízení (EU) č. 1025/2012 Komise bez zbytečného odkladu vydá žádosti o normalizaci týkající se všech požadavků stanovených v oddíle 2 této kapitoly a případně povinností stanovených v kapitole V oddíle 2 a 3 tohoto nařízení. V žádosti o normalizaci se rovněž požadují produkty týkající se postupů podávání zpráv a dokumentace s cílem zlepšit výkonnost systémů AI, pokud jde o zdroje, jako je snížení spotřeby energie a dalších zdrojů u vysoce rizikového systému AI během jeho životního cyklu, a o energeticky účinný vývoj obecných modelů AI. Při přípravě žádosti o normalizaci Komise konzultuje radu a příslušné zúčastněné strany, včetně poradního fóra.
2. Komisija v skladu s členom 10 Uredbe (EU) št. 1025/2012 brez nepotrebnega odlašanja izda zahteve za standardizacijo, ki zajemajo vse zahteve iz oddelka 2 tega poglavja in, kot je ustrezno, zahteve za standardizacijo, ki zajemajo obveznosti iz poglavja V, oddelka 2 in 3, te uredbe. V zahtevi za standardizacijo se zahtevajo tudi dokumenti v zvezi s postopki poročanja in dokumentiranja za izboljšanje učinkovitosti virov sistemov UI, kot je zmanjšanje porabe energije in drugih virov visokotveganega sistema UI v njegovem življenjskem ciklu, ter dokumenti v zvezi z energijsko učinkovitim razvojem modelov UI za splošne namene. Komisija se pri pripravi zahteve za standardizacijo posvetuje z Odborom in ustreznimi deležniki, vključno s svetovalnim forumom.
Při vydávání žádosti o normalizaci evropským normalizačním organizacím Komise upřesní, že normy musí být jasné, konzistentní, a to i s normami vypracovanými v různých odvětvích pro produkty, na něž se vztahují stávající právní předpisy Unie v oblasti harmonizace uvedené v příloze I, a zaměřené na zajištění toho, aby vysoce rizikové systémy AI nebo obecné modely AI uváděné na trh nebo do provozu v Unii splňovaly příslušné požadavky nebo povinnosti stanovené v tomto nařízení.
Komisija pri izdaji zahteve za standardizacijo evropskim organizacijam za standardizacijo določi, da morajo biti standardi jasni, skladni, tudi s standardi, razvitimi v različnih sektorjih, za proizvode, za katere velja obstoječa harmonizacijska zakonodaja Unije iz Priloge I, in namenjeni temu, da se zagotovi, da visokotvegani sistemi UI ali modeli UI za splošne namene, ki so dani na trg ali v uporabo v Uniji, izpolnjujejo ustrezne zahteve ali obveznosti iz te uredbe.
Komise požádá evropské normalizační organizace, aby doložily, že ke splnění cílů uvedených v prvním a druhém pododstavci tohoto odstavce vynakládají v souladu s článkem 24 nařízení EU 1025/2012 maximální úsilí.
Komisija od evropskih organizacij za standardizacijo zahteva, da v skladu s členom 24 Uredbe (EU) št. 1025/2012 predložijo dokaze o svojih najboljših prizadevanjih za izpolnitev ciljev iz prvega in drugega pododstavka tega odstavka.
3. Účastníci procesu normalizace vynakládají úsilí na podporu investic a inovací v oblasti AI, mimo jiné prostřednictvím zvyšování právní jistoty, jakož i na podporu konkurenceschopnosti a růstu trhu Unie a k podpoře posílení globální spolupráce v oblasti normalizace, přičemž zohledňují stávající mezinárodní normy v oblasti AI, které jsou v souladu s hodnotami, základními právy a zájmy Unie, a zlepšují správu, na níž se podílí více stran, čímž se zajistí vyvážené zastoupení zájmů a účinná účast všech příslušných zúčastněných stran v souladu s články 5, 6 a 7 nařízení (EU) č. 1025/2012.
3. Udeleženci v postopku standardizacije si prizadevajo spodbujati naložbe in inovacije na področju UI, tudi s krepitvijo pravne varnosti, ter konkurenčnost in rast trga Unije, prispevati k izboljšanju globalnega sodelovanja na področju standardizacije ob upoštevanju obstoječih mednarodnih standardov na področju UI, ki so skladni z vrednotami, temeljnimi pravicami in interesi Unije, ter krepiti večdeležniško upravljanje, pri čemer zagotavljajo uravnoteženo zastopanost interesov in učinkovito sodelovanje vseh ustreznih deležnikov v skladu s členi 5, 6 in 7 Uredbe (EU) št. 1025/2012.
1. Komise může přijímat prováděcí akty, kterými stanoví společné specifikace pro požadavky stanovené v oddíle 2 této kapitoly nebo případně pro povinnosti stanovené v kapitole V oddíle 2 a 3, pokud jsou splněny tyto podmínky:
1. Komisija lahko sprejme izvedbene akte o določitvi skupnih specifikacij za zahteve iz oddelka 2 tega poglavja ali, kot je ustrezno, za obveznosti iz oddelkov 2 in 3 poglavja V, kadar so izpolnjeni naslednji pogoji:
a)
Komise požádala podle čl. 10 odst. 1 nařízení (EU) č. 1025/2012 jednu nebo více evropských normalizačních organizací, aby vypracovaly harmonizovanou normu pro požadavky stanovené v oddíle 2 této kapitoly nebo, v příslušných případech, pro povinnosti stanovené v oddílech 2 a 3 kapitoly V, a:
(a)
Komisija je na podlagi člena 10(1) Uredbe (EU) št. 1025/2012 zahtevala, da ena ali več evropskih organizacij za standardizacijo pripravi osnutek harmoniziranega standarda za zahteve iz oddelka 2 tega poglavja ali, kot je ustrezno, za obveznosti iz oddelkov 2 in 3 poglavja V, in:
i)
žádost nebyla žádnou z evropských normalizačních organizací akceptována nebo
(i)
zahteve ni sprejela nobena evropska organizacija za standardizacijo ali
ii)
harmonizované normy, které byly vypracovány na základě této žádostí, nebyly dodány ve lhůtě stanovené v souladu s čl. 10 odst. 1 nařízení (EU) č. 1025/2012 nebo
(ii)
harmonizirani standardi, ki se nanašajo na to zahtevo, niso bili predloženi v roku, določenem v skladu s členom 10(1) Uredbe (EU) št. 1025/2012, ali
iii)
příslušné harmonizované normy dostatečně neřeší problémy v oblasti základních práv nebo
(iii)
v ustreznih harmoniziranih standardih so nezadostno obravnavani pomisleki glede temeljnih pravic ali
iv)
harmonizované normy nejsou v souladu s žádostí a
(iv)
harmonizirani standardi niso skladni z zahtevo ter
b)
v Úředním věstníku Evropské unie není zveřejněn odkaz na harmonizované normy, které se vztahují na požadavky uvedené v oddíle 2 této kapitoly nebo, v příslušných případech, na povinnosti uvedené v kapitole V oddíle 2 a 3, v souladu s nařízením (EU) č. 1025/2012, ani se neočekává, že takový odkaz bude v přiměřené lhůtě zveřejněn.
(b)
v Uradnem listu Evropske unije v skladu z Uredbo (EU) št. 1025/2012 ni objavljen sklic na harmonizirane standarde, ki zajemajo zahteve iz oddelka 2 tega poglavja ali, kot je ustrezno, obveznosti iz oddelkov 2 in 3 poglavja V, in objava takega sklica se v razumnem roku tudi ne pričakuje.
Komise při vypracovávání společných specifikací konzultuje poradní fórum uvedené v článku 67.
Pri pripravi skupnih specifikacij se Komisija posvetuje s svetovalnim forumom iz člena 67.
Prováděcí akty uvedené v prvním pododstavci tohoto odstavce se přijímají přezkumným postupem podle čl. 98 odst. 2.
Izvedbeni akti iz prvega pododstavka tega odstavka se sprejmejo v skladu s postopkom pregleda iz člena 98(2).
2. Komise před vypracováním návrhu prováděcího aktu informuje výbor uvedený v článku 22 nařízení (EU) č. 1025/2012, že považuje podmínky stanovené v odstavci 1 tohoto článku za splněné.
2. Komisija pred pripravo osnutka izvedbenega akta obvesti odbor iz člena 22 Uredbe (EU) št. 1025/2012, da meni, da so pogoji iz odstavka 1 tega člena izpolnjeni.
3. Předpokládá se, že vysoce rizikové systémy AI a obecné modely AI, které jsou ve shodě s obecnými specifikacemi uvedenými v odstavci 1, nebo s částmi těchto specifikací, jsou ve shodě s požadavky stanovenými v oddíle 2 této kapitoly nebo, v příslušných případech, v souladu s povinnosti uvedenými v kapitole V oddíle 2 a 3, v rozsahu, v jakém se tyto obecné specifikace vztahují na uvedené požadavky nebo povinnosti.
3. Za visokotvegane sisteme UI ali modele UI za splošne namene, ki so v skladu s skupnimi specifikacijami iz odstavka 1 ali deli navedenih specifikacij, se domneva, da so skladni z zahtevami iz oddelka 2 tega poglavja ali, kot je ustrezno, izpolnjujejo zahteve iz oddelkov 2 in 3 poglavja V, kolikor so te zajete v teh skupnih specifikacijah ali teh obveznostih.
4. Pokud je harmonizovaná norma evropskou normalizační organizací přijata a Komisi je navrženo, aby odkaz na ni zveřejnila v Úředním věstníku Evropské unie, Komise harmonizovanou normu posoudí v souladu s nařízením (EU) č. 1025/2012. Je-li odkaz na harmonizovanou normu zveřejněn v Úředním věstníku Evropské unie, Komise zruší prováděcí akty uvedené v odstavci 1 nebo jejich části, které se týkají stejných požadavků stanovených v oddíle 2 této kapitoly nebo, v příslušných případech, stejných povinností stanovených v kapitole V oddíle 2 a 3..
4. Kadar evropska organizacija za standardizacijo sprejme harmonizirani standard in ga predloži Komisiji, da se sklic nanj objavi v Uradnem listu Evropske unije, Komisija harmonizirani standard oceni v skladu z Uredbo (EU) št. 1025/2012. Ko se sklic na harmonizirani standard objavi v Uradnem listu Evropske unije, Komisija razveljavi izvedbene akte iz odstavka 1 ali njihove dele, ki zajemajo zahteve, enake zahtevam iz oddelka 2 tega poglavja ali, kot je ustrezno, iste obveznosti iz oddelkov 2 in 3 poglavja V.
5. Pokud poskytovatelé vysoce rizikových systémů AI nebo obecných modelů AI nejsou ve shodě se společnými specifikacemi uvedenými v odstavci 1, řádně zdůvodní, že přijali technická řešení, která splňují požadavky uvedené v oddíle 2 této kapitoly nebo, v příslušných případech, která jsou v souladu s povinnostmi stanovenými v kapitole V oddíle 2 a 3, v míře, která je s nimi přinejmenším rovnocenná.
5. Kadar ponudniki visokotveganih sistemov UI ali modelov UI za splošne namene ne izpolnjujejo skupnih specifikacij iz odstavka 1, ustrezno utemeljijo, da so sprejeli tehnične rešitve, ki izpolnjujejo zahteve iz oddelka 2 tega poglavja ali, kot je ustrezno, izpolnjujejo obveznosti iz oddelkov 2 in 3 poglavja V v tolikšni meri, da so jim vsaj enakovredne.
6. Pokud se některý členský stát domnívá, že určitá společná specifikace nesplňuje plně základní požadavky uvedené v tomto oddíle nebo, v příslušných případech, není v souladu s povinnostmi stanovenými v kapitole V oddíle 2 a 3, uvědomí o této skutečnosti Komisi s podrobným vysvětlením. Komise tyto informace posoudí a případně změní prováděcí akt, který dotyčnou společnou specifikaci stanoví.
6. Kadar država članica meni, da skupna specifikacija ne izpolnjuje v celoti zahtev iz oddelka 2 ali, kot je ustrezno, ne izpolnjuje obveznosti iz oddelkov 2 in 3 poglavja V, o tem s podrobno obrazložitvijo obvesti Komisijo. Komisija te informacije oceni in po potrebi spremeni izvedbeni akt o določitvi zadevne skupne specifikacije.
1. V případě vysoce rizikových systémů AI uvedených v bodě 1 přílohy III, u nichž poskytovatel při prokazování souladu vysoce rizikového systému AI s požadavky stanovenými v oddíle 2 použil harmonizované normy uvedené v článku 40 nebo v relevantních případech společné specifikace uvedené v článku 41, si poskytovatel zvolí jeden z následujících postupů posuzování shody na základě:
1. Za visokotvegane sisteme UI iz Priloge III, točka 1, pri katerih je ponudnik pri dokazovanju skladnosti visokotveganega sistema UI z zahtevami iz oddelka 2 uporabil harmonizirane standarde iz člena 40 ali, kadar je to primerno, skupne specifikacije iz člena 41, ponudnik izbere enega od naslednjih postopkov za ugotavljanje skladnosti na podlagi:
a)
interní kontroly uvedené v příloze VI nebo
(a)
notranjega nadzora iz Priloge VI ali
b)
posouzení systému řízení kvality a posouzení technické dokumentace za účasti oznámeného subjektu podle přílohy VII.
(b)
ocenjevanja sistema upravljanja kakovosti in ocenjevanja tehnične dokumentacije s sodelovanjem priglašenega organa iz Priloge VII.
Při prokazování souladu vysoce rizikového systému AI s požadavky stanovenými v oddíle 2 se poskytovatel řídí postupem posuzování shody stanoveným v příloze VII, pokud:
Pri dokazovanju skladnosti visokotveganega sistema UI z zahtevami iz oddelka 2 ponudnik opravi postopek ugotavljanja skladnosti iz Priloge VII, kadar:
a)
neexistují harmonizované normy uvedené v článku 40 a nejsou k dispozici společné specifikace uvedené v článku 41;
(a)
harmonizirani standardi iz člena 40 ne obstajajo in skupne specifikacije iz člena 41 niso na voljo;
b)
poskytovatel nepoužil harmonizovanou normu nebo použil jen její část;
(b)
ponudnik ni uporabil harmoniziranega standarda ali ga je uporabil le delno;
c)
společné specifikace uvedené v písmenu a) existují, ale poskytovatel je nepoužil;
(c)
skupne specifikacije iz točke (a) obstajajo, vendar jih ponudnik ni uporabil;
d)
jedna nebo více harmonizovaných norem uvedených v písmenu a) byla zveřejněna s omezením a pouze pro tu část normy, která byla omezena.
(d)
je bil eden ali več harmoniziranih standardov iz točke (a) objavljen z omejitvijo in samo za tisti del standarda, ki je bil omejen.
Pro účely postupu posuzování shody uvedeného v příloze VII si poskytovatel může zvolit kterýkoli z oznámených subjektů. Je-li však vysoce rizikový systém AI určen k uvedení do provozu donucovacími, imigračními nebo azylovými orgány nebo orgány, institucemi a jinými subjekty EU, jedná jako oznámený subjekt orgán dozoru nad trhem uvedený v čl. 74 odst. 8, případně 9.
Za namene postopka ugotavljanja skladnosti iz Priloge VII lahko ponudnik izbere katerega koli od priglašenih organov. Kadar pa naj bi visokotvegani sistem UI dali v uporabo organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, organi, pristojni za priseljevanje, ali azilni organi ali institucije, organi, uradi in agencije Unije, je priglašeni organ organ za nadzor trga iz člena 74(8) ali (9), kot je ustrezno.
2. U vysoce rizikových systémů AI uvedených v bodech 2 až 8 přílohy III uplatňují poskytovatelé postup posuzování shody založený na interní kontrole uvedené v příloze VI, který nestanoví zapojení oznámeného subjektu.
2. Za visokotvegane sisteme UI iz Priloge III, točke 2 do 8, ponudniki upoštevajo postopek ugotavljanja skladnosti na podlagi notranje kontrole iz Priloge VI, ki ne predvideva sodelovanja priglašenega organa.
3. U vysoce rizikových systémů AI, na které se vztahují právní předpisy Unie v oblasti harmonizace uvedené v oddíle A přílohy I, uplatňuje poskytovatel příslušné postupy posouzení shody, které stanoví uvedené právní akty. Na tyto vysoce rizikové systémy AI se vztahují požadavky stanovené v oddíle 2 této kapitoly, které jsou součástí uvedeného posouzení. Použijí se rovněž body 4.3, 4.4, 4.5 a pátý odstavec bodu 4.6 přílohy VII.
3. Za visokotvegane sisteme UI, zajete v harmonizacijski zakonodaji Unije iz Priloge I, oddelek A, ponudnik upošteva ustrezni postopek ugotavljanja skladnosti, kot se zahteva v navedenih pravnih aktih. Za te visokotvegane sisteme UI se uporabljajo zahteve iz oddelka 2 tega poglavja, ki so del te ocene. Uporablja se tudi Priloga VII, točke 4.3, 4.4, 4.5 in peti odstavek točke 4.6.
Pro účely tohoto posouzení jsou oznámené subjekty, které byly oznámeny podle těchto právních aktů, oprávněny kontrolovat shodu vysoce rizikových systémů AI s požadavky stanovenými v oddíle 2, pokud byl posouzen soulad těchto oznámených subjektů s požadavky stanovenými v čl. 31 odst. 4, 5, 10 a 11 v rámci postupu pro oznamování podle těchto právních aktů.
Za namene te ocene so priglašeni organi, ki so priglašeni na podlagi teh pravnih aktov, upravičeni nadzorovati skladnost visokotveganih sistemov UI z zahtevami iz oddelka 2, če je bila skladnost teh priglašenih organov z zahtevami iz člena 31(4), (5), (10) in (11) ocenjena v okviru postopka priglasitve na podlagi teh pravnih aktov.
Pokud právní akt uvedený v oddíle A přílohy I umožňuje výrobci produktu neúčastnit se posuzování shody třetí stranou za předpokladu, že tento výrobce uplatnil všechny harmonizované normy pokrývající všechny příslušné požadavky, může tento výrobce tuto možnost využít pouze v případě, že uplatnil rovněž harmonizované normy nebo v relevantních případech společné specifikace uvedené v článku 41, které pokrývají všechny požadavky stanovené v oddíle 2 této kapitoly.
Kadar pravni akt iz Priloge I, oddelek A, proizvajalcu proizvoda omogoča, da se odloči za izvzetje iz ugotavljanja skladnosti s strani tretjih oseb, pod pogojem, da je ta proizvajalec uporabil vse harmonizirane standarde, ki zajemajo vse ustrezne zahteve, lahko ta proizvajalec uporabi to možnost le, če je uporabil harmonizirane standarde ali, kadar je to primerno, skupne specifikacije iz člena 41, ki zajemajo vse zahteve iz oddelka 2 tega poglavja.
4. U vysoce rizikových systémů AI, u kterých již byl postup posuzování shody proveden, musí být proveden nový postup posuzování shody v případě podstatné změny, bez ohledu na to, zda má být změněný systém dále distribuován, nebo zda jej i nadále používá jeho současný zavádějící subjekt.
4. Pri visokotveganih sistemih UI, pri katerih je bil že opravljen postopek ugotavljanja skladnosti, se v primeru bistvene spremembe opravi nov postopek ugotavljanja skladnosti, ne glede na to, ali je spremenjeni sistem namenjen nadaljnji distribuciji ali ga še naprej uporablja sedanji uvajalec.
U vysoce rizikových systémů AI, které se po uvedení na trh nebo do provozu dále učí, nepředstavují změny takového vysoce rizikového systému AI a jeho výkonnosti podstatnou změnu, pokud byly poskytovatelem před stanoveny v okamžiku počátečního posouzení shody a jsou součástí informací obsažených v technické dokumentaci uvedené v bodě 2 písm. f) přílohy IV.
Za visokotvegane sisteme UI, ki se po dajanju na trg ali v uporabo še naprej učijo, spremembe visokotveganega sistema UI in njegove zmogljivosti, ki jih je ponudnik vnaprej določil ob začetnem ugotavljanju skladnosti in so del informacij iz tehnične dokumentacije iz Priloge IV, točka 2(f), ne pomenijo bistvene spremembe.
5. Komisi je svěřena pravomoc přijmout akty v přenesené pravomoci v souladu s článkem 97 s cílem změnit přílohy VI a VII jejich aktualizací s ohledem na technický pokrok.
5. Na Komisijo se prenese pooblastilo za sprejemanje delegiranih aktov v skladu s členom 97, da zaradi tehničnega napredka spremeni s posodobitvijo prilogi VI in VII.
6. Komisi je svěřena pravomoc přijmout akty v přenesené pravomoci v souladu s článkem 97, kterými se mění odstavce 1 a 2 tohoto článku, s cílem podrobit vysoce rizikové systémy AI uvedené v bodech 2 až 8 přílohy III postupu posuzování shody uvedenému v příloze VII nebo jejích částech. Komise přijímá tyto akty v přenesené pravomoci s přihlédnutím k účinnosti postupu posuzování shody založeného na interní kontrole podle přílohy VI v oblasti prevence nebo minimalizace rizik pro zdraví, bezpečnost a ochranu základních práv, která tyto systémy představují, jakož i k dostupnosti přiměřených kapacit a zdrojů mezi oznámenými subjekty.
6. Na Komisijo se prenese pooblastilo za sprejemanje delegiranih aktov v skladu s členom 97 za spremembo odstavkov 1 in 2 tega člena, da se za visokotvegane sisteme UI iz Priloge III, točke 2 do 8, v celoti ali deloma uvede postopek ugotavljanja skladnosti iz Priloge VII. Komisija take delegirane akte sprejme ob upoštevanju učinkovitosti postopka ugotavljanja skladnosti na podlagi notranje kontrole iz Priloge VI pri preprečevanju ali čim večjem zmanjševanju tveganj za zdravje in varnost ter varstvo temeljnih pravic, ki jih predstavljajo taki sistemi, ter razpoložljivosti ustreznih zmogljivosti in virov med priglašenimi organi.
1. Certifikáty vydané oznámenými subjekty v souladu s přílohou VII se vyhotovují v jazyce, který je snadno srozumitelný příslušným orgánům v členském státě, v němž je oznámený subjekt usazen.
1. Certifikati, ki jih izdajo priglašeni organi v skladu s Prilogo VII, so sestavljeni v jeziku, ki ga ustrezni organi v državi članici, v kateri ima priglašeni organ sedež, zlahka razumejo.
2. Certifikáty jsou platné po dobu, kterou uvádějí a která nepřesáhne pět let pro systémy AI, na něž se vztahuje příloha I, a čtyři roky pro systémy AI, na něž se vztahuje příloha III. Na žádost poskytovatele může být platnost certifikátu prodlužována o další období, z nichž žádné nepřekročí délku pěti let pro systémy AI, na něž se vztahuje příloha I, a čtyři roky pro systémy AI, na něž se vztahuje příloha III, a to na základě nového posouzení v souladu s příslušnými postupy posuzování shody. Veškeré dodatky k certifikátu zůstávají v platnosti, pokud je platný certifikát, k němuž se vztahují.
2. Certifikati so veljavni toliko časa, kolikor je navedeno, a ne več kot pet let za sisteme UI iz Priloge I in štiri leta za sisteme UI iz Priloge III. Na zahtevo ponudnika se lahko veljavnost certifikata na podlagi ponovne ocene v skladu z veljavnimi postopki za ugotavljanje skladnosti podaljša za nadaljnja obdobja, ki ne presegajo pet let za sisteme UI iz Priloge I in štirih let za sisteme UI iz Priloge III. Vsako dopolnilo k certifikatu ostane veljavno, če je veljaven certifikat, ki ga to dopolnjuje.
3. Pokud oznámený subjekt zjistí, že systém AI již nesplňuje požadavky uvedené v oddíle 2, pozastaví s ohledem na zásadu proporcionality platnost certifikátu nebo ho zruší či jinak omezí, dokud není vhodnými nápravnými opatřeními přijatými poskytovatelem tohoto systému v rámci příslušné lhůty stanovené oznámeným subjektem zajištěno dosažení souladu s těmito požadavky. Oznámený subjekt své rozhodnutí zdůvodní.
3. Kadar priglašeni organ ugotovi, da sistem UI ne izpolnjuje več zahtev iz oddelka 2, ob upoštevanju načela sorazmernosti začasno prekliče ali umakne izdan certifikat oziroma ga omeji, razen če se skladnost s temi zahtevami zagotovi z ustreznimi popravnimi ukrepi, ki jih je ponudnik sistema sprejel v ustreznem roku, ki ga je določil priglašeni organ. Priglašeni organ svojo odločitev obrazloži.
Proti rozhodnutím oznámených subjektů, včetně rozhodnutí o vydaných certifikátech shody, je možné se odvolat.
Zoper odločitve priglašenih organov, tudi o izdanih certifikatih o skladnosti, je na voljo pritožbeni postopek.
Odchylka od postupu posuzování shody
Odstopanje od postopka ugotavljanja skladnosti
1. Odchylně od článku 43 a na základě řádně odůvodněné žádosti může kterýkoli orgán dozoru nad trhem povolit uvedení konkrétních vysoce rizikových systémů AI na trh nebo do provozu na území dotčeného členského státu z výjimečných důvodů veřejné bezpečnosti nebo ochrany života a zdraví osob, ochrany životního prostředí a ochrany klíčových průmyslových a infrastrukturních aktiv. Toto povolení se uděluje na omezenou dobu, dokud jsou prováděny nezbytné postupy posuzování shody, při zohlednění výjimečných důvodů opodstatňujících odchylku. Dokončení těchto postupů se provádí bez zbytečného odkladu.
1. Z odstopanjem od člena 43 in na podlagi ustrezno utemeljene zahteve lahko kateri koli organ za nadzor trga dovoli dajanje posebnih visokotveganih sistemov UI na trg ali v uporabo na ozemlju zadevne države članice iz izjemnih razlogov javne varnosti ali varstva življenja in zdravja ljudi, varstva okolja ter varstva ključnih industrijskih in infrastrukturnih sredstev. To dovoljenje velja omejeno obdobje, dokler se izvajajo potrebni postopki ugotavljanja skladnosti, ob upoštevanju izjemnih razlogov, ki upravičujejo odstopanje. Ti postopki se zaključijo brez nepotrebnega odlašanja.
2. V řádně odůvodněné naléhavé situaci z výjimečných důvodů veřejné bezpečnosti nebo v případě konkrétního, podstatného a bezprostředního ohrožení života nebo fyzické bezpečnosti fyzických osob mohou donucovací orgány nebo orgány civilní ochrany uvést do provozu konkrétní vysoce rizikový systém AI bez povolení uvedeného v odstavci 1, pokud je o takové povolení požádáno bez zbytečného odkladu v průběhu používání nebo po něm. Pokud je povolení uvedené v odstavci 1 zamítnuto, používání vysoce rizikového systému AI se s okamžitým účinkem zastaví a všechny výsledky a výstupy tohoto použití se okamžitě vyřadí.
2. V ustrezno utemeljenih nujnih primerih iz izjemnih razlogov javne varnosti ali v primeru posebne, precejšnje in neposredne grožnje za življenje ali telesno varnost fizičnih oseb lahko organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj ali organi civilne zaščite dajo določen visokotvegani sistem UI v uporabo brez dovoljenja iz odstavka 1, če se za tako dovoljenje brez nepotrebnega odlašanja zaprosi med uporabo ali po njej. Če se dovoljenje iz odstavka 1 zavrne, se uporaba visokotveganega sistema UI takoj ustavi, vsi rezultati in izhodni podatki, ki izhajajo iz take uporabe, pa se takoj zavržejo.
3. Povolení uvedené v odstavci 1 bude vydáno jen v případě, že orgán dozoru nad trhem dospěje k závěru, že daný vysoce rizikový systém AI splňuje požadavky oddílu 2. Orgán dozoru nad trhem o každém povolení vydaném podle odstavce 1 a 2 informuje Komisi a ostatní členské státy. Tato povinnost se nevztahuje na citlivé operativní údaje týkající se činnosti donucovacích orgánů.
3. Dovoljenje iz odstavka 1 se izda le, če organ za nadzor trga ugotovi, da visokotvegani sistem UI izpolnjuje zahteve iz oddelka 2. Organ za nadzor trga obvesti Komisijo in druge države članice o vseh dovoljenjih, izdanih na podlagi odstavkov 1 in 2. Ta obveznost ne zajema občutljivih operativnih podatkov v zvezi z dejavnostmi organov za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj.
4. Pokud do patnácti kalendářních dnů od obdržení informací uvedených v odstavci 3 proti povolení vydanému orgánem dozoru nad trhem členského státu v souladu s odstavcem 1 žádný členský stát ani Komise nevznesou námitku, považuje se povolení za oprávněné.
4. Kadar v 15 koledarskih dneh po prejemu informacij iz odstavka 3 država članica ali Komisija ne poda nobenega ugovora glede dovoljenja, ki ga je izdal organ za nadzor trga države članice v skladu z odstavkom 1, se šteje, da je dovoljenje upravičeno.
5. Pokud některý členský stát do patnácti kalendářních dnů od přijetí oznámení uvedeného v odstavci 3 námitky proti povolení vydanému orgánem dozoru nad trhem jiného členského státu vznese nebo pokud se Komise domnívá, že toto povolení je v rozporu s právem Unie nebo se závěrem členských států ohledně souladu systému podle odstavce 3 neopodstatněné, zahájí Komise s příslušným členským státem neprodleně konzultace. Dotčení provozovatelé jsou konzultováni a mají možnost předložit svá stanoviska. S ohledem na to Komise rozhodne, zda je povolení oprávněné či nikoli. Rozhodnutí Komise je určeno dotčenému členskému státu a příslušným provozovatelům.
5. Kadar v 15 koledarskih dneh po prejemu obvestila iz odstavka 3 država članica poda ugovore zoper dovoljenje, ki ga je izdal organ za nadzor trga druge države članice, ali kadar Komisija meni, da je dovoljenje v nasprotju s pravom Unije ali da je sklep držav članic glede skladnosti sistema iz odstavka 3 neutemeljen, se Komisija brez odlašanja posvetuje z zadevno državo članico. Z zadevnimi operaterji se posvetuje in ti imajo možnost, da predstavijo svoja stališča. Glede na to Komisija odloči, ali je dovoljenje upravičeno. Komisija svojo odločitev sporoči zadevnim državam članicam in ustreznim operaterjem.
6. Pokud Komise považuje povolení za neodůvodněné, orgán dozoru nad trhem dotčeného členského státu jej zruší.
6. Kadar Komisija meni, da je dovoljenje neupravičeno, ga organ za nadzor trga zadevne države članice umakne.
7. U vysoce rizikových systémů AI souvisejících s produkty, na něž se vztahují harmonizační právní předpisy Unie uvedené v oddíle A přílohy I, se použijí pouze odchylky od posuzování shody stanovené v uvedených harmonizačních právních předpisech Unie.
7. Za visokotvegane sisteme UI, povezane s proizvodi, zajetimi v harmonizacijski zakonodaji Unije iz Priloge I, oddelek A, se uporabljajo samo odstopanja od ugotavljanja skladnosti, določena v navedeni harmonizacijski zakonodaji Unije.
1. Poskytovatel vypracuje pro každý vysoce rizikový systém AI písemné strojově čitelné, fyzické nebo elektronicky podepsané EU prohlášení o shodě a po dobu deseti let od uvedení vysoce rizikového systému AI na trh nebo do provozu je uchovává pro potřebu příslušných vnitrostátních orgánů. V EU prohlášení o shodě je uveden vysoce rizikový systém AI, pro nějž bylo vypracováno. Kopie EU prohlášení o shodě bude na vyžádání předložena dotčeným příslušným vnitrostátním orgánům.
1. Ponudnik za vsak visokotvegani sistem UI sestavi strojno berljivo, fizično ali elektronsko podpisano pisno EU izjavo o skladnosti in jo hrani za potrebe pristojnih nacionalnih organov ter jim jo daje na voljo še 10 let po tem, ko je bil visokotvegani sistem UI dan na trg ali v uporabo. V EU izjavi o skladnosti se opredeli, za kateri visokotvegani sistem UI je bila sestavljena. Na zahtevo se ustreznim pristojnim nacionalnim organom predloži izvod EU izjave o skladnosti.
2. EU prohlášení o shodě stanoví, že dotyčný vysoce rizikový systém AI splňuje požadavky stanovené v oddíle 2. EU prohlášení o shodě obsahuje informace stanovené v příloze V a je přeloženo do jazyka, který je snadno srozumitelný příslušným vnitrostátním orgánům v členských státech, v nichž je vysoce rizikový systém AI dodáván na trh nebo uveden na trh.
2. V EU izjavi o skladnosti se navede, da zadevni visokotvegani sistem UI izpolnjuje zahteve iz oddelka 2. EU izjava o skladnosti vsebuje informacije iz Priloge V in se prevede v jezik, ki ga pristojni nacionalni organi držav članic, v katerih je visokotvegani sistem UI dan na trg ali je omogočena dostopnost do njega, zlahka razumejo.
3. Pokud se na vysoce rizikové systémy AI vztahují jiné harmonizační právní předpisy Unie, které také vyžadují EU prohlášení o shodě, vypracuje se jediné EU prohlášení o shodě s ohledem veškeré právo Unie, které se vztahuje na daný vysoce rizikový systém AI. Toto prohlášení musí obsahovat veškeré informace požadované pro identifikaci harmonizačních právních předpisů Unie, k nimž se prohlášení vztahuje.
3. Kadar za visokotvegane sisteme UI velja druga harmonizacijska zakonodaja Unije, v skladu s katero se zahteva tudi EU izjava o skladnosti, se pripravi enotna EU izjava o skladnosti za pravo Unije, ki se uporablja za visokotvegani sistem UI. Ta izjava vsebuje vse informacije, s katerimi se ugotovi, na katero harmonizacijsko zakonodajo Unije se izjava nanaša.
4. Vypracováním EU prohlášení o shodě přebírá poskytovatel odpovědnost za soulad s požadavky stanovenými v oddíle 2. Poskytovatel toto EU prohlášení o shodě podle potřeby průběžně aktualizuje.
4. S pripravo EU izjave o skladnosti ponudnik prevzame odgovornost za skladnost z zahtevami iz oddelka 2. Ponudnik EU izjavo o skladnosti, če je to primerno, posodablja.
5. Komisi je svěřena pravomoc přijímat akty v přenesené pravomoci v souladu s článkem 97 za účelem změny přílohy V aktualizací obsahu EU prohlášení o shodě uvedeného v uvedené příloze s cílem zavést prvky, které mohou být nutné s ohledem na technický pokrok.
5. Na Komisijo se prenese pooblastilo za sprejemanje delegiranih aktov v skladu s členom 97, da se spremeni Priloga V, s posodobitvijo vsebine EU izjave o skladnosti iz navedene priloge, da se uvedejo elementi, potrebni zaradi tehničnega napredka.
1. Označení CE podléhá obecným zásadám uvedeným v článku 30 nařízení (ES) č. 765/2008.
1. Za oznako CE veljajo splošna načela iz člena 30 Uredbe (ES) št. 765/2008.
2. U vysoce rizikových systémů AI poskytovaných digitálně se digitální označení CE použije pouze v případě, že je snadno přístupné prostřednictvím rozhraní, z něhož je systém přístupný, nebo prostřednictvím snadno přístupného strojově čitelného kódu nebo jiných elektronických prostředků.
2. Za visokotvegane sisteme UI, ki se zagotavljajo digitalno, se digitalna oznaka CE uporablja le, če je do nje mogoče enostavno dostopati prek vmesnika, prek katerega se dostopa do tega sistema, ali prek lahko dostopne strojno berljive kode ali drugega elektronskega sredstva.
3. Označení CE se viditelně, čitelně a nesmazatelně umístí na daný vysoce rizikový systém AI. Pokud to není možné nebo to nelze s ohledem na charakter vysoce rizikového systému AI zaručit, umístí se podle potřeby na obal nebo na průvodní doklady.
3. Oznaka CE se vidno, čitljivo in neizbrisno namesti na visokotvegane sisteme UI. Kadar to ni mogoče ali ni upravičeno zaradi značilnosti visokotveganega sistema UI, se oznaka namesti bodisi na embalažo ali na priloženo dokumentacijo.
4. V relevantních případech následuje za označením CE identifikační číslo oznámeného subjektu odpovědného za postupy posuzování shody stanovené v článku 43. Identifikační číslo oznámeného subjektu umístí sám subjekt, nebo jej umístí podle jeho pokynů poskytovatel nebo jeho zplnomocněný zástupce. Identifikační číslo je rovněž uvedeno ve všech propagačních materiálech, které uvádí, že daný vysoce rizikový systém AI splňuje požadavky na označení CE.
4. Kadar je to primerno, oznaki CE sledi identifikacijska številka priglašenega organa, odgovornega za postopke ugotavljanja skladnosti iz člena 43. Identifikacijsko številko priglašenega organa pritrdi organ sam ali pa jo na podlagi njegovih navodil pritrdi ponudnik ali njegov pooblaščeni zastopnik. Identifikacijska številka se navede tudi v promocijskem gradivu, v katerem je omenjeno, da visokotvegani sistem UI izpolnjuje zahteve za oznako CE.
5. Pokud se na vysoce rizikové systémy AI vztahuje jiné právo Unie, které rovněž stanoví připojení označení CE, pak se v tomto označení uvádí, že vysoce rizikové systémy AI splňují také požadavky daného jiného práva.
5. Kadar visokotvegane sisteme UI ureja drugo pravo Unije, ki prav tako določa namestitev oznake CE, se na tej oznaki navede, da visokotvegani sistem UI izpolnjuje tudi zahteve tega drugega prava.
1. Před uvedením vysoce rizikového systému AI uvedeného v příloze III, s výjimkou vysoce rizikových systémů AI podle bodu 2 přílohy III, na trh nebo do provozu poskytovatel nebo případně zplnomocněný zástupce zaregistruje sebe a svůj systém do databáze EU uvedené v článku 71.
1. Pred dajanjem visokotveganega sistema UI iz Priloge III, z izjemo visokotveganih sistemov UI iz Priloge III, točka 2, na trg ali v uporabo ponudnik ali, kadar je to ustrezno, pooblaščeni zastopnik sebe in svoj sistem registrira v podatkovni zbirki EU iz člena 71.
2. Před uvedením systému AI, u něhož poskytovatel došel k závěru, že nepředstavuje vysoké riziko podle čl. 6 odst. 3, na trh nebo do provozu tento poskytovatel nebo případně zplnomocněný zástupce zaregistruje sebe a tento systém do databáze EU uvedené v článku 71.
2. Pred dajanjem sistema UI, za katerega je ponudnik ugotovil, da v skladu s členom 6(3) ne šteje za visokotvegan, na trg ali v uporabo ponudnik ali, kadar je to ustrezno, pooblaščeni zastopnik sebe in navedeni sistem registrira v podatkovni zbirki EU iz člena 71.
3. Před uvedením do provozu nebo použitím vysoce rizikového systému AI uvedeného v příloze III, s výjimkou vysoce rizikových systémů AI uvedených v bodě 2 přílohy III, zavádějící subjekty, které jsou veřejnými orgány, orgány, institucemi nebo jinými subjekty Unie nebo osobami jednajícími jejich jménem, se zaregistrují, vyberou systém a zaregistrují jeho používání v databázi EU uvedené v článku 71.
3. Pred dajanjem v uporabo ali pred uporabo visokotveganega sistema UI iz Priloge III, z izjemo visokotveganih sistemov UI iz Priloge III, točka 2, se uvajalci, ki so javni organi, institucije, organi, uradi ali agencije Unije ali osebe, ki delujejo v njihovem imenu, registrirajo, izberejo sistem in registrirajo njegovo uporabo v podatkovni zbirki EU iz člena 71.
4. V případě vysoce rizikových systémů AI uvedených v bodech 1, 6 a 7 přílohy III v oblastech vymáhání práva, migrace, azylu a správy ochrany hranic se registrace uvedená v odstavcích 1, 2 a 3 tohoto článku provádí v zabezpečené neveřejné části databáze EU uvedené v článku 71 a obsahuje v příslušných případech pouze tyto informace uvedené v těchto částech:
4. Za visokotvegane sisteme UI iz Priloge III, točke 1, 6 in 7, na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, migracij, azila in upravljanja nadzora meja se registracija iz odstavkov 1, 2 in 3 tega člena izvede v varnem nejavnem delu podatkovne zbirke EU iz člena 71 in vključuje le naslednje informacije, kot je ustrezno, iz:
a)
oddíl A body 1 až 10 přílohy VIII, s výjimkou bodů 6, 8 a 9;
(a)
Priloge VIII, oddelek A, točke 1 do 10, razen točk 6, 8 in 9;
b)
oddíl B, body 1 až 5 a body 8 a 9 přílohy VIII;
(b)
Priloge VIII, oddelek B, točke 1 do 5 ter točki 8 in 9;
c)
oddíl C body 1 až 3 přílohy VIII;
(c)
Priloge VIII, oddelek C, točke 1 do 3;
d)
body 1. 2,3 a 5 přílohy IX.
(d)
Priloge IX, točke 1, 2, 3 in 5.
Do těchto konkrétních omezených částí databáze EU uvedených v prvním pododstavci tohoto odstavce mají přístup pouze Komise a vnitrostátní orgány uvedené v čl. 74 odst. 8.
Dostop do ustreznih omejenih delov podatkovne zbirke EU iz prvega pododstavka tega odstavka imajo samo Komisija in nacionalni organi iz člena 74(8).
5. Vysoce rizikové systémy AI uvedené v příloze III bodě 2 se registrují na vnitrostátní úrovni.
5. Visokotvegani sistemi UI iz Priloge III, točka 2, se registrirajo na nacionalni ravni.
Povinnosti poskytovatelů zavádějící subjektů určitých systémů AI, pokud jde o transparentnost
Obveznosti ponudnikov in uvajalcev nekaterih sistemov UI glede preglednosti
1. Poskytovatelé zajistí, aby systémy AI určené k přímé interakci s fyzickými osobami byly navrhovány a vyvíjeny tak, že dotčené fyzické osoby budou vyrozuměny o tom, že komunikují se systémem AI, není-li tato skutečnost zřejmá z pohledu fyzické osoby, která je přiměřeně informovaná, pozorná a obezřetná, při zohlednění okolností a kontextu použití. S výhradou příslušných záruk týkajících se práv a svobod třetích stran se tato povinnost nevztahuje na systémy AI, které jsou ze zákona oprávněny odhalovat trestné činy, předcházet jim, vyšetřovat je nebo stíhat, s výjimkou případů, kdy jsou tyto systémy k dispozici veřejnosti za účelem hlášení trestných činů.
1. Ponudniki zagotovijo, da so sistemi UI, namenjeni neposredni interakciji s fizičnimi osebami, zasnovani in razviti tako, da so zadevne fizične osebe obveščene, da so v interakciji s sistemom UI, razen če je to očitno z vidika razmeroma dobro obveščene, pozorne in preudarne fizične osebe ob upoštevanju okoliščin in konteksta uporabe. Ta obveznost se ob upoštevanju ustreznih zaščitnih ukrepov za pravice in svoboščine tretjih oseb ne uporablja za sisteme UI, ki so z zakonom odobreni za odkrivanje, preprečevanje, preiskovanje ali pregon kaznivih dejanj, razen če so ti sistemi na voljo javnosti za prijavo kaznivega dejanja.
2. Poskytovatelé systémů AI, včetně obecných systémů AI, vytvářejících syntetický zvukový, obrazový, video nebo textový obsah, zajistí, aby výstupy systému AI byly označeny ve strojově čitelném formátu a zjistitelné jako uměle vytvořené nebo manipulované. Poskytovatelé zajistí, aby jejich technická řešení byla účinná, interoperabilní, robustní a spolehlivá, pokud je to technicky proveditelné, s přihlédnutím ke zvláštnostem a omezením různých druhů obsahu, nákladům na provádění a obecně uznávanému nejmodernějšímu stavu technologií, tak jak mohou být zachyceny v příslušných technických normách. Tato povinnost se neuplatní v rozsahu, v jakém systémy AI plní asistenční funkci pro standardní editaci nebo podstatně nemění vstupní údaje poskytnuté zavádějícím subjektem nebo jejich sémantiku, nebo pokud je to zákonem povoleno k odhalování, prevenci, vyšetřování nebo stíhání trestných činů.
2. Ponudniki sistemov UI, vključno s sistemi UI za splošne namene, ki ustvarjajo sintetično zvočno, slikovno, video ali besedilno vsebino, zagotovijo, da so izhodni podatki sistema UI označeni v strojno berljivi obliki in jih je mogoče prepoznati kot umetno ustvarjene ali prirejene. Ponudniki zagotovijo, da so njihove tehnične rešitve učinkovite, interoperabilne, robustne in zanesljive, kolikor je to tehnično izvedljivo, pri čemer upoštevajo posebnosti in omejitve različnih vrst vsebin, stroške izvajanja in splošno priznane najsodobnejše tehnološke dosežke, kar se lahko odraža v ustreznih tehničnih standardih. Ta obveznost se ne uporablja, kolikor sistemi UI zagotavljajo podporno funkcijo za standardno urejanje ali ne spreminjajo bistveno vhodnih podatkov, ki jih zagotovi uvajalec, ali njihove semantike ali kadar so z zakonom dovoljeni za odkrivanje, preprečevanje, preiskovanje ali pregon kaznivih dejanj.
3. Subjekty zavádějící systém rozpoznávání emocí nebo systém biometrické kategorizace informují o provozu systému fyzické osoby, které jsou mu vystaveny, a zpracovávají osobní údaje podle potřeby v souladu s nařízeními (EU) 2016/679 a (EU) 2018/1725 a směrnicí (EU) 2016/680. Tato povinnost se nevztahuje na systémy AI používané pro biometrickou kategorizaci a rozpoznávání emocí, kterým zákon umožňuje odhalovat trestné činy, předcházet jim nebo je vyšetřovat, s výhradou příslušných záruk týkajících se práv a svobod třetích stran a v souladu s právem Unie.
3. Uvajalci sistema za prepoznavanje čustev ali sistema za biometrično kategorizacijo o delovanju sistema obvestijo fizične osebe, ki so mu izpostavljene, in obdelujejo osebne podatke v skladu z uredbama (EU) 2016/679 in (EU) 2018/1725 ter Direktivo (EU) 2016/680, kot je ustrezno. Ta obveznost se ob upoštevanju ustreznih zaščitnih ukrepov za pravice in svoboščine tretjih oseb ter v skladu s pravom Unije ne uporablja za sisteme UI, ki se uporabljajo za biometrično kategorizacijo in prepoznavanje čustev ter so z zakonom dovoljeni za odkrivanje, preprečevanje ali preiskovanje kaznivih dejanj.
4. Subjekty zavádějící systém AI, který vytváří obrazový, zvukový nebo video obsah představující tzv. „deep fake“ nebo s ním manipuluje, musí zveřejnit, že obsah byl uměle vytvořen nebo s ním bylo manipulováno. Tato povinnost se nevztahuje na případy, kdy je použití povoleno zákonem k odhalování trestných činů, předcházení jim, jejich vyšetřování nebo jejich stíhání. Pokud je obsah součástí zjevně uměleckého, tvůrčího, satirického, fiktivního či obdobného díla nebo programu, povinnosti týkající se transparentnosti stanovené v tomto odstavci jsou omezeny na zveřejnění existence takového vytvořeného nebo zmanipulovaného obsahu vhodným způsobem, který nebrání zobrazení nebo užívání díla.
4. Uvajalci sistema UI, ki ustvarja ali prireja slikovno, zvočno ali video vsebino, ki je globoki ponaredek, morajo razkriti, da je bila vsebina umetno ustvarjena ali prirejena. Ta obveznost se ne uporablja, kadar je uporaba zakonsko dovoljena za odkrivanje, preprečevanje, preiskovanje ali pregon kaznivih dejanj. Kadar je vsebina del očitno umetniškega, ustvarjalnega, satiričnega, fiktivnega ali podobnega dela ali programa, so obveznosti glede preglednosti iz tega odstavka omejene na razkritje obstoja take ustvarjene ali prirejene vsebine na ustrezen način, ki ne ovira prikazovanja ali uživanja dela.
Subjekty zavádějící systém AI, který vytváří text, jenž je zveřejněn za účelem informování veřejnosti o záležitostech veřejného zájmu, nebo který s takovým textem manipuluje, uvedou, že text byl vytvořen uměle nebo s ním bylo manipulováno. Tato povinnost se nevztahuje na případy, kdy je použití povoleno zákonem k odhalování, prevenci, vyšetřování nebo stíhání trestných činů nebo kdy byl obsah vytvořený umělou inteligencí podroben procesu přezkumu člověkem nebo redakční kontroly a pokud za zveřejnění obsahu nese redakční odpovědnost fyzická nebo právnická osoba.
Uvajalci sistema UI, ki ustvarja ali prireja besedilo, ki se objavi z namenom obveščanja javnosti o zadevah javnega interesa, morajo razkriti, da je bilo besedilo umetno ustvarjeno ali prirejeno. Ta obveznost se ne uporablja, kadar je uporaba zakonsko dovoljena za odkrivanje, preprečevanje, preiskovanje ali pregon kaznivih dejanj ali kadar je bila vsebina, ustvarjena z UI, predmet človeške preverbe ali uredniškega pregleda in kadar ima fizična ali pravna oseba uredniško odgovornost za objavo vsebine.
5. Informace uvedené v odstavcích 1 až 4 se dotčeným fyzickým osobám poskytují jasným a rozlišitelným způsobem nejpozději v době první interakce nebo expozice. Informace musí být v souladu s použitelnými požadavky na přístupnost.
5. Informacije iz odstavkov 1 do 4 se dajo na voljo zadevnim fizičnim osebam na jasen in razpoznaven način ter najpozneje ob prvi interakciji ali izpostavljenosti. Informacije morajo biti skladne z veljavnimi zahtevami glede dostopnosti.
6. Odstavci 1 až 4 nejsou dotčeny požadavky a povinnosti stanovené v kapitole III a nejsou jimi dotčeny další povinnosti týkající se transparentnosti stanovené v unijním nebo vnitrostátním právu pro subjekty zavádějící systémy AI.
6. Odstavki 1 do 4 ne vplivajo na zahteve in obveznosti iz poglavja III in ne posegajo v druge obveznosti glede preglednosti, ki so za uvajalce sistemov UI določene v pravu Unije ali nacionalnem pravu.
7. Úřad pro AI podporuje a usnadňuje vypracování kodexů správné praxe na úrovni Unie s cílem usnadnit účinné provádění povinností týkajících se odhalování a označování uměle vytvořeného nebo manipulovaného obsahu. Komise může přijímat prováděcí akty za účelem schválení těchto kodexů správné praxe v souladu s postupem stanoveným v čl. 56 odst. 6. Pokud se Komise domnívá, že kodex není přiměřený, může přijmout prováděcí akt, kterým se stanoví společná pravidla pro plnění těchto povinností v souladu s přezkumným postupem stanoveným v čl. 98 odst. 2.
7. Urad za UI spodbuja in olajšuje pripravo kodeksov prakse na ravni Unije, da se omogoči učinkovito izvajanje obveznosti glede odkrivanja in označevanja umetno ustvarjenih ali prirejenih vsebin. Komisija lahko sprejme izvedbene akte za odobritev teh kodeksov prakse v skladu s postopkom iz člena 56(6). Če meni, da kodeks ni ustrezen, lahko Komisija sprejme izvedbeni akt, s katerim določi skupna pravila za izvajanje navedenih obveznosti v skladu s postopkom pregleda iz člena 98(2).
1. Pokud všeobecný model AI splňuje podmínku uvedenou v čl. 51 odst. 1 písm. a), oznámí to příslušný poskytovatel neprodleně a v každém případě do dvou týdnů po splnění tohoto požadavku, nebo jakmile bude známo, že bude splněn. Toto oznámení obsahuje informace nezbytné k prokázání toho, že byl splněn příslušný požadavek. Pokud se Komise dozví o obecném modelu AI, který představuje systémová rizika, o němž nebyla informována, může se rozhodnout, že jej označí za model se systémovým rizikem.
1. Kadar model UI za splošne namene izpolnjuje pogoj iz člena 51(1), točka (a), zadevni ponudnik o tem nemudoma, v vsakem primeru pa v dveh tednih po izpolnitvi te zahteve ali po tem, ko je znano, da bo izpolnjena, uradno obvesti Komisijo. To uradno obvestilo vključuje informacije, iz katerih je razvidno, da je ustrezna zahteva izpolnjena. Če Komisija ugotovi, da model UI za splošne namene predstavlja sistemska tveganja, o katerih ni bila uradno obveščena, se lahko odloči, da ga bo označila za model s sistemskim tveganjem.
2. Poskytovatel obecného modelu AI, který splňuje podmínku uvedenou v čl. 51 odst. 1 písm. a), může spolu se svým oznámením předložit dostatečně podložené argumenty prokazující, že ačkoli obecný model AI výjimečně splňuje tento požadavek, nepředstavuje vzhledem ke svým specifickým vlastnostem systémová rizika, a proto by neměl být klasifikován jako obecný model AI se systémovým rizikem.
2. Ponudnik modela UI za splošne namene, ki izpolnjuje pogoj iz člena 51(1), točka (a), lahko ob uradnem obvestilu predloži dovolj utemeljene argumente, s katerimi dokaže, da model UI za splošne namene izjemoma, čeprav izpolnjuje navedeno zahtevo, zaradi svojih posebnih značilnosti ne predstavlja sistemskih tveganj in zato ne bi smel biti razvrščen kot model UI za splošne namene s sistemskim tveganjem.
3. Pokud Komise dospěje k závěru, že argumenty předložené podle odstavce 2 nejsou dostatečně podložené a příslušný poskytovatel nebyl schopen prokázat, že obecný model AI nepředstavuje vzhledem ke svým specifickým vlastnostem systémová rizika, zamítne tyto argumenty a obecný model AI se považuje za obecný model AI se systémovým rizikem.
3. Kadar Komisija ugotovi, da argumenti, predloženi na podlagi odstavka 2, niso dovolj utemeljeni in da zadevni ponudnik ni mogel dokazati, da model UI za splošne namene zaradi svojih posebnih značilnosti ne predstavlja sistemskih tveganj, te argumente zavrne, model UI za splošne namene pa se šteje za model UI za splošne namene s sistemskim tveganjem.
4. Komise může určit obecný model AI jako model představující systémová rizika z moci úřední nebo na základě kvalifikované výstrahy vědecké komise podle čl. 90 odst. 1 písm. a) na základě kritérií stanovených v příloze XIII.
4. Komisija lahko na podlagi meril iz Priloge XIII po uradni dolžnosti ali na podlagi kvalificiranega opozorila znanstvenega odbora na podlagi člena 90(1), točka (a), model UI za splošne namene označi za model, ki predstavlja sistemska tveganja.
Komisi je svěřena pravomoc přijímat akty v přenesené pravomoci v souladu s článkem 97 za účelem změny přílohy XIII prostřednictvím specifikace a aktualizace kritérií uvedených v uvedené příloze.
Na Komisijo se prenese pooblastilo za sprejemanje delegiranih aktov v skladu s členom 97, da spremeni Prilogo XIII, s tem da določi in posodobi merila iz navedene priloge.
5. Komise zohlední odůvodněnou žádost poskytovatele, jehož model byl určen jako obecný model AI se systémovým rizikem podle odstavce 4, a může rozhodnout o přehodnocení toho, zda lze na základě kritérií stanovených v příloze XIII mít nadále za to, že představuje systémová rizika. Tato žádost musí obsahovat objektivní, podrobné a nové důvody, které se objevily od rozhodnutí o určení. Poskytovatelé mohou požádat o nové posouzení nejdříve šest měsíců po rozhodnutí o určení. Pokud se Komise po novém posouzení rozhodne zachovat označení jako obecný model AI se systémovým rizikem, mohou poskytovatelé požádat o nové posouzení nejdříve šest měsíců po tomto rozhodnutí.
5. Komisija na obrazloženo zahtevo ponudnika, katerega model je bil označen za model UI za splošne namene s sistemskim tveganjem na podlagi odstavka 4, upošteva zahtevo in se lahko odloči, da ponovno oceni, ali se lahko za model UI za splošne namene še vedno šteje, da predstavlja sistemska tveganja na podlagi meril iz Priloge XIII. Taka zahteva vsebuje objektivne, podrobne in nove razloge, ki so se pojavili po odločitvi glede označitve. Ponudniki ponovne ocene ne morejo zahtevati prej kot šest mesecev po odločitvi glede označitve. Kadar se Komisija po ponovni oceni odloči, da bo ohranila označitev modela UI za splošne namene s sistemskim tveganjem, ponudniki ponovne zahteve ne morejo zahtevati prej kot šest mesecev po tej odločitvi.
6. Komise zajistí, aby byl zveřejněn seznam obecných modelů AI se systémovým rizikem, a tento seznam průběžně aktualizuje, aniž je dotčena potřeba dodržovat a chránit práva duševního vlastnictví a důvěrné obchodní informace nebo obchodní tajemství v souladu s právem Unie a vnitrostátním právem.
6. Komisija zagotovi objavo seznama modelov UI za splošne namene s sistemskim tveganjem in ga posodablja, ne da bi pri tem posegala v potrebo po spoštovanju in varstvu pravic intelektualne lastnine in zaupnih poslovnih informacij ali poslovnih skrivnosti v skladu s pravom Unije in nacionalnim pravom.
Povinnosti poskytovatelů obecných modelů AI
Obveznosti, naložene ponudnikom modelov UI za splošne namene
1. Poskytovatelé obecných modelů AI:
1. Ponudniki modelov UI za splošne namene:
a)
vypracují a aktualizují technickou dokumentaci modelu, včetně souvisejícího procesu trénování a testování a výsledků jeho hodnocení, která obsahuje alespoň informace stanovené v příloze XI za účelem jejího poskytnutí na požádání úřadu pro AI a příslušným vnitrostátním orgánům;
(a)
pripravijo in posodabljajo tehnično dokumentacijo modela, vključno s postopkom učenja in testiranja ter rezultati njegovega ocenjevanja, ki vsebuje vsaj informacije iz Priloge XI, da se na zahtevo predloži Uradu za UI in pristojnim nacionalnim organom;
b)
vypracují, aktualizují a zpřístupňují informace a dokumentaci poskytovatelům systémů AI, kteří hodlají obecný model AI začlenit do svých systémů AI. Aniž je dotčena potřeba dodržovat a chránit práva duševního vlastnictví a důvěrné obchodní informace nebo obchodní tajemství v souladu s právem Unie a vnitrostátním právem, informace a dokumentace:
(b)
pripravijo, posodabljajo in dajejo na voljo informacije in dokumentacijo za ponudnike sistemov UI, ki nameravajo model UI za splošne namene integrirati v svoje sisteme UI. Brez poseganja v potrebo po spoštovanju in varstvu pravic intelektualne lastnine in zaupnih poslovnih informacij ali poslovnih skrivnosti v skladu s pravom Unije in nacionalnim pravom informacije in dokumentacija:
i)
umožní poskytovatelům systémů AI, aby dobře porozuměli schopnostem a omezením všeobecného modelu AI a plnili své povinnosti podle tohoto nařízení; a
(i)
ponudnikom sistemov UI omogočajo, da dobro razumejo zmogljivosti in omejitve modela UI za splošne namene ter izpolnjujejo svoje obveznosti na podlagi te uredbe, ter
ii)
zahrnují přinejmenším prvky uvedené v příloze XII;
(ii)
vsebujejo vsaj elemente iz Priloge XII;
c)
zavedou politiku pro dodržování práva Unie v oblasti autorského práva a práv souvisejících, a zejména pro určení a dodržování výhrady práv vyjádřené podle čl. 4 odst. 3 směrnice (EU) 2019/790, a to i prostřednictvím nejmodernějších technologií;
(c)
vzpostavijo politiko za doseganje skladnosti s pravom Unije o avtorskih in sorodnih pravicah, zlasti za opredelitev in spoštovanje, tudi z najsodobnejšimi tehnologijami, pridržanj pravic, izraženih na podlagi člena 4(3) Direktive (EU) 2019/790;
d)
vypracují a zveřejní dostatečně podrobné shrnutí obsahu používaného pro odbornou přípravu obecného modelu AI podle vzoru poskytnutého úřadem pro AI.
(d)
v skladu s predlogo, ki jo zagotovi Urad za UI, pripravijo in objavijo dovolj podroben povzetek vsebine, ki se uporablja za učenje modela UI za splošne namene.
2. Povinnosti stanovené v odst. 1 písm. a) a b) se nevztahují na poskytovatele modelů AI, jež jsou zpřístupňovány na základě svobodné a otevřené licence, která umožňuje přístup k modelu, jeho používání, úpravu a distribuci, a jejichž parametry, včetně vah, informací o architektuře modelu a informací o používání modelu, jsou veřejně dostupné. Tato výjimka se nevztahuje na obecné modely AI se systémovými riziky.
2. Obveznosti iz odstavka 1, točki (a) in (b), ne veljajo za ponudnike modelov UI, ki so bili objavljeni na podlagi proste in odprtokodne licence, ki omogoča dostop do modela, njegovo uporabo, spreminjanje in distribucijo ter katere parametri, vključno z utežmi, informacijami o strukturi modela in informacijami o uporabi modela, so javno dostopni. Ta izjema se ne uporablja za modele UI za splošne namene s sistemskimi tveganji.
3. Poskytovatelé obecných modelů AI podle potřeby spolupracují při výkonu svých kompetencí a pravomocí podle tohoto nařízení s Komisí a příslušnými vnitrostátními orgány.
3. Ponudniki modelov UI za splošne namene pri izvajanju svojih pristojnosti in pooblastil na podlagi te uredbe po potrebi sodelujejo s Komisijo in pristojnimi nacionalnimi organi.
4. Poskytovatelé obecných modelů AI mohou při prokazování souladu s povinnostmi stanovenými v odstavci 1 tohoto článku vycházet z kodexů správné praxe ve smyslu článku 56, dokud nebude zveřejněna harmonizovaná norma. Soulad s evropskými harmonizovanými normami zakládá domněnku souladu ze strany poskytovatelů v rozsahu, v jakém tyto normy zahrnují tyto povinnostmi. Poskytovatelé obecných modelů AI, kteří nedodržují schválený kodex správné praxe nebo nesplňuji evropskou harmonizovanou normu, prokáží za účelem posouzení Komisí alternativní vhodné způsoby prokazování shody.
4. Ponudniki modelov UI za splošne namene se lahko do objave harmoniziranega standarda zanašajo na kodekse prakse v smislu člena 56, da dokažejo skladnost z obveznostmi iz odstavka 1 tega člena. Izpolnjevanje evropskih harmoniziranih standardov zagotavlja ponudnikom domnevo o skladnosti, kadar ti standardi zajemajo te obveznosti. Ponudniki modelov UI za splošne namene, ki ne upoštevajo odobrenega kodeksa prakse ali ne izpolnjujejo evropskega harmoniziranega standarda, dokažejo, da imajo druge ustrezne načine za zagotavljanje skladnosti, ki jih oceni Komisija.
5. Za účelem usnadnění souladu s přílohou XI, zejména s bodem 2 písm. d) a e) uvedené přílohy, je Komisi svěřena pravomoc přijímat akty v přenesené pravomoci v souladu s článkem 97, v nichž podrobně popíše metodiky měření a výpočtu s cílem umožnit srovnatelnost a ověřitelnost dokumentace.
5. Da se olajša skladnost s Prilogo XI, zlasti s točko 2(d) in (e) navedene priloge, se na Komisijo prenese pooblastilo za sprejemanje delegiranih aktov v skladu s členom 97, v katerih se podrobno opredelijo metodologije merjenja in izračunavanja, da se omogoči primerljiva in preverljiva dokumentacija.
6. Komisi je svěřena pravomoc přijmout akty v přenesené pravomoci v souladu s čl. 97 odst. 2 s cílem aktualizovat s ohledem na technický pokrok přílohy XI a XII.
6. Na Komisijo se prenese pooblastilo za sprejemanje delegiranih aktov v skladu s členom 97(2) za spremembo prilog XI in XII glede na hiter tehnološki razvoj.
7. S veškerými informacemi nebo dokumentací získanými orgány dozoru nad trhem podle tohoto článku, včetně obchodních tajemství, se nakládá v souladu s povinnostmi zachování důvěrnosti stanovenými v článku 78.
7. Vse informacije ali dokumentacija, pridobljene na podlagi tega člena, vključno s poslovnimi skrivnostmi, se obravnavajo v skladu z obveznostmi glede zaupnosti iz člena 78.
Zplnomocnění zástupci poskytovatelů obecných modelů AI
Pooblaščeni zastopniki ponudnikov modelov UI za splošne namene
1. Před uvedením obecného modelu AI na trh poskytovatelé usazení ve třetích zemích jmenují formou písemného pověření zplnomocněného zástupce usazeného v Unii.
1. Ponudniki s sedežem v tretji državi pred dajanjem modela UI za splošne namene na trg Unije s pisnim pooblastilom imenujejo pooblaščenega zastopnika s sedežem v Uniji.
2. Poskytovatel umožní svému zplnomocněnému zástupci provádět úkoly vymezené v pověření, které obdržel od poskytovatele.
2. Ponudnik svojemu pooblaščenemu zastopniku omogoči, da opravlja naloge, določene v pooblastilu, ki ga prejme od ponudnika.
3. Zplnomocněný zástupce provádí úkoly vymezené v pověření, které obdržel od poskytovatele. Kopii pověření poskytne na požádání úřadu pro AI v jednom z úředních jazyků orgánů Unie. Pro účely tohoto nařízení zmocňuje pověření zplnomocněného zástupce k provádění těchto úkolů:
3. Pooblaščeni zastopnik opravlja naloge, določene v pooblastilu, ki ga prejme od ponudnika. Uradu za UI na njegovo zahtevo predloži izvod pooblastila, in sicer v enem od uradnih jezikov institucij Unije. Za namene te uredbe pooblastilo pooblaščenemu zastopniku omogoča, da opravlja naslednje naloge:
a)
ověřit, že byla vypracována technická dokumentace uvedená v příloze XI a že poskytovatel splnil všechny povinnosti uvedené v článku 53 a případně v článku 55;
(a)
preveri, ali je bila tehnična dokumentacija, določena v Prilogi XI, pripravljena in ali je ponudnik izpolnil vse obveznosti iz člena 53 in, kadar je ustrezno, člena 55;
b)
uchovávat kopii technické dokumentace uvedené v příloze XI pro potřeby úřadu pro AI a příslušných vnitrostátních orgánů po dobu deseti let od uvedení obecného modelu AI na trh a kontaktní údaje poskytovatele, který zplnomocněného zástupce jmenoval;
(b)
hrani izvod tehnične dokumentacije, določene v Prilogi XI, da je za obdobje 10 let po tem, ko je bil model UI za splošne namene dan na trg, na voljo Uradu za UI in pristojnim nacionalnim organom, ter kontaktne podatke ponudnika, ki je imenoval pooblaščenega zastopnika;
c)
poskytnout úřadu pro AI na odůvodněnou žádost všechny informace a dokumentaci, které jsou nezbytné k prokázání souladu s povinnostmi uvedenými v této kapitole, včetně informací a dokumentace uvedených v písmenu b);
(c)
Uradu za UI na obrazloženo zahtevo zagotovi vse informacije in dokumentacijo, vključno s tistimi iz točke (b), s katerimi dokaže, da izpolnjuje obveznosti iz tega poglavja;
d)
spolupracovat na základě odůvodněné žádosti s úřadem pro AI a příslušnými orgány při veškerých opatřeních, která tyto orgány přijmou v souvislosti s obecným modelem AI, včetně případů, kdy je daný model začleněn do systémů AI uváděných na trh nebo do provozu v Unii.
(d)
na obrazloženo zahtevo sodeluje z Uradom za UI in pristojnimi nacionalnimi organi pri vseh ukrepih, ki jih slednji sprejmejo v zvezi z modelom UI za splošne namene s sistemskimi tveganji, tudi kadar je model vključen v sisteme UI, dane na trg ali v uporabo v Uniji.
4. Toto pověření zmocňuje zplnomocněného zástupce k tomu, aby se na něj vedle poskytovatele nebo namísto něj obracel úřad pro AI nebo příslušné orgány ve všech otázkách týkajících se zajištění souladu s tímto nařízením.
4. Na podlagi pooblastila je pooblaščeni zastopnik pooblaščen, da lahko Urad za UI ali pristojni organi nanj, poleg ponudnika ali namesto njega, naslovijo vsa vprašanja, povezana z zagotavljanjem skladnosti s to uredbo.
5. Zplnomocněný zástupce pověření ukončí, pokud se domnívá nebo má důvod se domnívat, že poskytovatel jedná v rozporu se svými povinnostmi podle tohoto nařízení. V takovém případě rovněž neprodleně informuje úřad pro AI o ukončení pověření a jeho důvodech.
5. Pooblaščeni zastopnik odpove pooblastilo, če meni ali utemeljeno domneva, da ponudnik ravna v nasprotju s svojimi obveznostmi na podlagi te uredbe. V takem primeru tudi nemudoma obvesti Urad za UI o odpovedi pooblastila in o razlogih zanjo.
6. Povinnost stanovená v tomto článku se nevztahuje na poskytovatele obecných modelů AI, jež jsou zpřístupňovány na základě svobodné a otevřené licence, která umožňuje přístup k modelu, jeho používání, úpravu a distribuci, a jejichž parametry, včetně vah, informací o architektuře modelu a informací o používání modelu, jsou veřejně dostupné, pokud však obecné modely AI nepředstavují systémová rizika.
6. Obveznost iz tega člena ne velja za ponudnike modelov UI za splošne namene, ki so bili objavljeni na podlagi proste in odprtokodne licence, ki omogoča dostop do modela, njegovo uporabo, spreminjanje in distribucijo ter katere parametri, vključno z utežmi, informacijami o strukturi modela in informacijami o uporabi modela, so javno dostopni, razen če modeli UI za splošne namene predstavljajo sistemska tveganja.
1. Úřad pro AI s přihlédnutím k mezinárodním přístupům podporuje a usnadňuje vypracování kodexů správné praxe na úrovni Unie s cílem přispět k řádnému uplatňování tohoto nařízení.
1. Urad za UI spodbuja in olajšuje pripravo kodeksov prakse na ravni Unije, da bi prispeval k pravilni uporabi te uredbe ob upoštevanju mednarodnih pristopov.
2. Úřad pro AI a rada usilují o zajištění toho, aby kodexy správné praxe zahrnovaly alespoň povinnosti stanovené v článcích 53 a 55, včetně těchto záležitostí:
2. Urad za UI in Odbor si prizadevata zagotoviti, da kodeksi prakse zajemajo vsaj obveznosti iz členov 53 in 55, vključno z naslednjimi elementi:
a)
prostředky k zajištění toho, aby informace uvedené v čl. 53 odst. 1 písm. a) a b) byly aktualizovány s ohledem na vývoj trhu a technologií;
(a)
načini za zagotavljanje, da se informacije iz člena 53(1), točki (a) in (b), posodabljajo glede na tržni in tehnološki razvoj;
b)
adekvátní úroveň podrobnosti pro shrnutí obsahu použitého pro trénování;
(b)
ustrezno ravnjo podrobnosti za povzetek o vsebini, ki se uporablja za učenje;
c)
určení druhu a povahy systémových rizik na úrovni Unie, včetně jejich případných zdrojů;
(c)
opredelitvijo vrste in narave sistemskih tveganj na ravni Unije, po potrebi vključno z njihovimi viri;
d)
opatření, postupy a způsoby posuzování a řízení systémových rizik na úrovni Unie, včetně jejich dokumentace, které jsou úměrné rizikům, zohledňují jejich závažnost a pravděpodobnost a berou zřetel na konkrétní výzvy spojené s řešením těchto rizik s přihlédnutím k možným způsobům, jak tato rizika mohou vzniknout a projevit se v celém hodnotovém řetězci AI.
(d)
ukrepi, postopki in načini za oceno in obvladovanje sistemskih tveganj na ravni Unije, vključno s pripadajočo dokumentacijo, ki so sorazmerni s tveganji, upoštevajo njihovo resnost in verjetnost ter upoštevajo posebne izzive pri obvladovanju teh tveganj glede na možne načine, na katere se lahko taka tveganja pojavijo in udejanijo vzdolž verige vrednosti UI.
3. Úřad pro AI může vyzvat všechny poskytovatele obecných modelů AI, jakož i příslušné vnitrostátní orgány, aby se na vypracovávání kodexů správné praxe podíleli. Tento proces mohou podpořit organizace občanské společnosti, průmysl, akademická obec a další příslušné zúčastněné strany, jako jsou navazující poskytovatelé a nezávislí odborníci.
3. Urad za UI lahko k sodelovanju pri pripravi kodeksov prakse povabi vse ponudnike modelov UI za splošne namene in ustrezne pristojne nacionalne organe. V procesu lahko sodelujejo organizacije civilne družbe, industrija, akademski krogi in drugi ustrezni deležniki, kot so ponudniki nižje v verigi in neodvisni strokovnjaki.
4. Úřad pro AI a rada usilují o zajištění toho, aby v kodexech správné praxe byly jasně stanoveny jejich specifické cíle, aby tyto kodexy obsahovaly závazky nebo opatření včetně případných klíčových ukazatelů výkonnosti, jimiž bude dosažení těchto cílů zajištěno, a aby náležitě zohledňovaly potřeby a zájmy všech zúčastněných stran, včetně dotčených osob, na úrovni Unie.
4. Urad za UI in Odbor si prizadevata zagotoviti, da kodeksi prakse jasno določajo njune posebne cilje in vsebujejo zaveze ali ukrepe, po potrebi tudi ključne kazalnike uspešnosti, da se zagotovi doseganje teh ciljev, ter da so v njih ustrezno upoštevani potrebe in interesi vseh zainteresiranih strani na ravni Unije, tudi oseb, ki jih to zadeva.
5. Úřad pro AI usiluje o zajištění toho, aby účastníci kodexů správné praxe pravidelně podávali úřadu pro AI zprávy o provádění závazků a přijatých opatřeních a jejich výsledcích, a to případně i na základě klíčových ukazatelů výkonnosti. Klíčové ukazatele výkonnosti a závazky v oblasti podávání zpráv zohledňují rozdíly mezi různými účastníky, pokud jde o jejich velikost a kapacitu.
5. Urad za UI si prizadeva zagotoviti, da mu sodelujoči pri kodeksu prakse redno poročajo o uresničevanju zavez in sprejetih ukrepov ter posledičnih rezultatih, po potrebi tudi glede na ključne kazalnike uspešnosti. V ključnih kazalnikih uspešnosti in obveznostih poročanja se odražajo razlike v velikosti in zmogljivosti različnih sodelujočih.
6. Úřad pro AI a rada pravidelně sledují a vyhodnocují dosahování cílů kodexů správné praxe ze strany účastníků a jejich přínos k řádnému uplatňování tohoto nařízení. Úřad pro AI a rada posoudí, zda kodexy správné praxe zahrnují povinnosti stanovené v článcích 53 a 55, a pravidelně sledují a vyhodnocují dosahování jejich cílů. Své posouzení přiměřenosti kodexů správné praxe zveřejní.
6. Urad za UI in Odbor redno spremljata in ocenjujeta, kako sodelujoči dosegajo cilje kodeksov prakse in kako prispevajo k pravilni uporabi te uredbe. Urad za UI in Odbor ocenita, ali kodeksi prakse zajemajo obveznosti iz členov 53 in 55, ter redno spremljata in ocenjujeta doseganje ciljev v zvezi s tem. Svojo oceno ustreznosti kodeksov prakse objavita.
Komise může prostřednictvím prováděcího aktu určitý kodex správné praxe schválit a udělit mu obecnou platnost v rámci Unie. Tento prováděcí akt se přijme přezkumným postupem uvedeným v čl. 98 odst. 2.
Komisija lahko z izvedbenim aktom odobri kodeks prakse in mu da splošno veljavnost v Uniji. Ta izvedbeni akt se sprejme v skladu s postopkom pregleda iz člena 98(2).
7. Úřad pro AI může vyzvat všechny poskytovatele obecných modelů AI, aby se kodexy správné praxe dodržovali. V případě poskytovatelů obecných modelů AI, které nepředstavují systémová rizika, může být toto dodržování omezeno na povinnosti stanovené v článku 53, pokud tito poskytovatelé výslovně neprohlásí, že mají zájem kodex dodržovat v plném rozsahu.
7. Urad za UI lahko povabi vse ponudnike modelov UI za splošne namene, da pristopijo h kodeksom prakse. Za ponudnike modelov UI za splošne namene, ki ne predstavljajo sistemskih tveganj, je pristop lahko omejen na obveznosti iz člena 53, razen če izrecno izrazijo svoj interes za pristop k celotnemu kodeksu.
8. Úřad pro AI rovněž podle potřeby podporuje a usnadňuje přezkum a úpravu kodexů správné praxe, zejména s ohledem na vznikající normy. Úřad pro AI je nápomocen při posuzování dostupných norem.
8. Urad za UI po potrebi spodbuja in olajšuje pregled in prilagoditev kodeksov prakse, zlasti glede na nastajajoče standarde. Urad za UI pomaga ocenjevati razpoložljive standarde.
9. Kodex správné praxe je k dispozici nejpozději do 2. května 2025. Úřad pro AI podnikne nezbytné kroky včetně výzvy adresované poskytovatelům podle odstavce 7.
9. Kodeksi prakse se pripravijo najpozneje do 2. maja 2025. Urad za UI sprejme potrebne ukrepe, vključno s povabilom ponudnikom na podlagi odstavka 7.
Nebude-li do 2. srpna 2025 možno kodex správné praxe dokončit nebo pokud se úřad pro AI po posouzení podle odstavce 6 tohoto článku bude domnívat, že kodex není přiměřený, může Komise prostřednictvím prováděcích aktů stanovit společná pravidla pro plnění povinností stanovených v článcích 53 a 55, včetně záležitostí uvedených v odstavci 2 tohoto článku. Tyto prováděcí akty se přijímají přezkumným postupem podle čl. 98 odst. 2.
Če kodeksa prakse do 2. avgusta 2025 ni mogoče dokončati ali če Urad za UI na podlagi svoje ocene na podlagi odstavka 6 tega člena meni, da ni ustrezen, lahko Komisija z izvedbenimi akti določi skupna pravila za izvajanje obveznosti iz členov 53 in 55, vključno z elementi iz odstavka 2 tega člena. Ti izvedbeni akti se sprejmejo v skladu s postopkom pregleda iz člena 98(2).
Regulační sandboxy pro AI
Regulativni peskovniki za UI
1. Členské státy zajistí, aby jejich příslušné orgány zřídily alespoň jeden regulační sandbox pro AI na vnitrostátní úrovni, který bude funkční do 2. srpna 2026. Tento sandbox mohou rovněž zřídit společně s příslušnými orgány jiných členských států. Komise může pro účely zřízení a provozu regulačních sandboxů pro AI poskytovat technickou podporu, poradenství a nástroje.
1. Države članice zagotovijo, da njihovi pristojni organi na nacionalni ravni vzpostavijo vsaj en regulativni peskovnik za UI, ki začne delovati najpozneje 2. avgusta 2026. Ta peskovnik se lahko vzpostavi skupaj s pristojnimi organi drugih držav članic. Komisija lahko za vzpostavitev in delovanje regulativnih peskovnikov za UI zagotovi tehnično podporo, svetovanje in orodja.
Povinnost podle prvního pododstavce může být rovněž splněna účastí ve stávajícím sandboxu, pokud tato účast poskytuje zúčastněným členským státům rovnocennou úroveň vnitrostátního pokrytí.
Obveznost iz prvega pododstavka se lahko izpolni tudi s sodelovanjem v obstoječem peskovniku, če tako sodelovanje zagotavlja enakovredno nacionalno zastopanost sodelujočih držav članic.
2. Další regulační sandboxy pro AI mohou být rovněž zřízeny na regionální nebo místní úrovni nebo společně s příslušnými orgány jiných členských států.
2. Na regionalni ali lokalni ravni ali skupaj s pristojnimi organi drugih držav članic se lahko vzpostavijo tudi dodatni regulativni peskovniki za UI.
3. Evropský inspektor ochrany údajů může rovněž zřídit regulační sandbox pro AI pro orgány, instituce nebo jiné subjekty Unie a může vykonávat úlohy a úkoly příslušných vnitrostátních orgánů v souladu s touto kapitolou.
3. Evropski nadzornik za varstvo podatkov lahko vzpostavi tudi regulativni peskovnik za UI za institucije, organe, urade in agencije Unije ter lahko opravlja vloge in naloge pristojnih nacionalnih organov v skladu s tem poglavjem.
4. Členské státy zajistí, aby příslušné orgány uvedené v odstavcích 1 a 2 přidělily dostatečné zdroje pro účinné a urychlené dosažení souladu s tímto článkem. Příslušné vnitrostátní orgány případně spolupracují s dalšími relevantními orgány a mohou umožnit zapojení dalších subjektů v rámci ekosystému AI. Tímto článkem nejsou dotčeny jiné regulační sandboxy zřízené podle práva Unie nebo vnitrostátního práva. Členské státy zajistí náležitou úroveň spolupráce mezi orgány vykonávajícími dohled nad těmito jinými sandboxy a příslušnými vnitrostátními orgány.
4. Države članice zagotovijo, da pristojni organi iz odstavkov 1 in 2 dodelijo zadostna sredstva za učinkovito in pravočasno izpolnjevanje tega člena. Kadar je primerno, pristojni nacionalni organi sodelujejo z drugimi ustreznimi organi in lahko dopustijo udeleženost drugih akterjev ekosistema UI. Ta člen ne vpliva na druge regulativne peskovnike, vzpostavljene na podlagi prava Unije ali nacionalnega prava. Države članice zagotovijo ustrezno raven sodelovanja med organi, ki nadzorujejo te druge peskovnike, in pristojnimi nacionalnimi organi.
5. Regulační sandboxy pro AI zřízené podle odstavce 1 poskytují kontrolované prostředí, které podporuje inovace a usnadňuje vývoj, trénování, testování a validaci inovativních systémů AI po omezenou dobu před jejich uvedením na trh nebo do provozu podle konkrétního plánu testování v sandboxu, na kterém se dohodli poskytovatelé nebo potenciální poskytovatelé a příslušný orgán. Tyto sandboxy mohou zahrnovat testování v reálných podmínkách pod dohledem v nich..
5. Regulativni peskovniki za UI, vzpostavljeni na podlagi odstavka 1, zagotavljajo nadzorovano okolje, ki spodbuja inovacije ter omogoča razvoj, učenje, testiranje in validacijo inovativnih sistemov UI za določen čas, preden se dajo na trg ali v uporabo, v skladu s posebnim načrtom peskovnika, o katerem se dogovorijo ponudniki ali potencialni ponudniki in pristojni organ. Taki peskovniki lahko vključujejo testiranje v realnih razmerah, ki se v njih nadzoruje.
6. Příslušné orgány případně poskytnou v rámci regulačního sandboxu pro AI pokyny, dohled a podporu s cílem určit rizika, zejména pro základní práva, zdraví a bezpečnost, testování, zmírňující opatření a jejich účinnost ve vztahu k povinnostem a požadavkům, jež jsou vymezeny tímto nařízením a případně jiným unijním a vnitrostátním právem a nad nimiž je v rámci daného sandboxu vykonáván dohled.
6. Pristojni organi v regulativnem peskovniku za UI po potrebi zagotovijo smernice, nadzor in podporo, kar zadeva opredeljevanje tveganja – zlasti za temeljne pravice, zdravje in varnost –, testiranje, ukrepe za zmanjšanje tveganj in njihovo učinkovitost glede na obveznosti in zahteve iz te uredbe ter po potrebi iz drugega prava Unije in nacionalnega prava, katerih upoštevanje se nadzoruje v peskovniku.
7. Příslušné orgány poskytnou poskytovatelům a potenciálním poskytovatelům účastnícím se na regulačním sandboxu pro AI pokyny týkající se regulačních očekávání a toho, jak plnit požadavky a povinnosti stanovené v tomto nařízení.
7. Pristojni organi ponudnikom in potencialnim ponudnikom, ki sodelujejo v regulativnem peskovniku za UI, zagotovijo smernice o regulativnih pričakovanjih ter o tem, kako izpolniti zahteve in obveznosti iz te uredbe.
Na žádost poskytovatele nebo potenciálního poskytovatele systému AI poskytne příslušný orgán písemný doklad o činnostech, které byly v rámci sandboxu úspěšně provedeny. Příslušný orgán rovněž předloží výstupní zprávu s podrobným popisem činností prováděných v rámci sandboxu, souvisejících výsledků a výsledků učení. Poskytovatelé mohou tuto dokumentaci použít k prokázání souladu s tímto nařízením v rámci postupu posuzování shody nebo příslušných činností dozoru nad trhem. V tomto ohledu orgány dozoru nad trhem a oznámené subjekty výstupní zprávy a písemný doklad poskytnutý příslušným vnitrostátním orgánem kladně zohlední, aby bylo možno postupy posuzování shody v přiměřeném rozsahu urychlit.
Pristojni organ na zahtevo ponudnika ali potencialnega ponudnika sistema UI predloži pisno dokazilo o dejavnostih, ki so bile uspešno izvedene v peskovniku. Predloži tudi poročilo o izstopu, v katerem podrobno opiše dejavnosti, izvedene v peskovniku, ter povezane rezultate in učne izide. Ponudniki lahko tako dokumentacijo uporabijo za to, da s postopkom ugotavljanja skladnosti ali z ustreznimi dejavnostmi nadzora trga dokažejo skladnost s to uredbo. V zvezi s tem organi za nadzor trga in priglašeni organi pozitivno upoštevajo poročila o izstopu in pisna dokazila, ki jih predloži pristojni nacionalni organ, da bi v razumni meri pospešili postopke ugotavljanja skladnosti.
8. S výhradou ustanovení o důvěrnosti v článku 78 a se souhlasem poskytovatele nebo potenciálního poskytovatele jsou Komise a rada oprávněny do výstupních zpráv nahlížet a podle potřeby je zohlední při plnění svých úkolů podle tohoto nařízení. Pokud poskytovatel nebo potenciální poskytovatel a příslušný vnitrostátní orgán výslovně souhlasí, může být výstupní zpráva zpřístupněna veřejnosti prostřednictvím jednotné informační platformy uvedené v tomto článku.
8. Komisija in Odbor sta ob upoštevanju določb o zaupnosti iz člena 78 in s soglasjem ponudnika ali potencialnega ponudnika pooblaščena za dostop do poročil o izstopu in jih, če je to primerno, upoštevata pri izvajanju svojih nalog na podlagi te uredbe. Če se ponudnik ali potencialni ponudnik in pristojni nacionalni organ izrecno strinjata, se lahko poročilo o izstopu objavi na enotni informacijski platformi iz tega člena.
9. Cílem vytvoření regulačních sandboxů pro AI je přispět k těmto cílům:
9. Namen vzpostavitve regulativnih peskovnikov za UI je prispevati k naslednjim ciljem:
a)
větší právní jistota v zájmu dosažení souladu s tímto nařízením nebo relevantních případech s jiným platným unijním a vnitrostátním právem;
(a)
izboljšanju pravne varnosti, da se doseže regulativna skladnost s to uredbo ali po potrebi z drugim veljavnim pravom Unije in nacionalnim pravom;
b)
podpora sdílení osvědčených postupů prostřednictvím spolupráce s orgány zapojenými do regulačního sandboxu pro AI;
(b)
podpiranju izmenjave najboljših praks s sodelovanjem z organi, vključenimi v regulativni peskovnik za UI;
c)
podpora inovací a konkurenceschopnosti a usnadňování vývoje ekosystému AI;
(c)
spodbujanju inovacij in konkurenčnosti ter olajšanju razvoja ekosistema UI;
d)
přispění k fakticky podloženému regulačnímu učení;
(d)
prispevanju k regulativnemu učenju, ki temelji na dokazih;
e)
snazší a rychlejší přístup systémů AI na trh Unie, zejména pokud jsou poskytovány malými a středními podniky, včetně podniků začínajících.
(e)
olajšanju in pospešitvi dostopa sistemov UI do trga Unije, zlasti če so njihovi ponudniki MSP, vključno z zagonskimi podjetji.
10. Příslušné vnitrostátní orgány zajistí, aby v rozsahu, v němž dané inovativní systémy AI zahrnují zpracování osobních údajů nebo jinak spadají do oblasti dohledu jiných vnitrostátních orgánů nebo příslušných orgánů poskytujících nebo podporujících přístup k údajům, byly vnitrostátní orgány pro ochranu osobních údajů a tyto jiné vnitrostátní nebo příslušné orgány přidruženy k provozu daného regulačního sandboxu pro AI a aby byly zapojeny do dohledu nad těmito aspekty v rozsahu svých příslušných úkolů a pravomocí.
10. Če inovativni sistemi UI vključujejo obdelavo osebnih podatkov ali kako drugače spadajo v nadzorno pristojnost drugih nacionalnih organov ali pristojnih organov, ki zagotavljajo ali podpirajo dostop do podatkov, nacionalni pristojni organi zagotovijo, da so nacionalni organi za varstvo podatkov in ti drugi nacionalni ali pristojni organi povezani z delovanjem regulativnega peskovnika za UI in vključeni v nadzor omenjenih vidikov v okviru svojih nalog in pooblastil.
11. Regulační sandboxy pro AI nemají vliv na pravomoci příslušných orgánů dohlížejících na sandboxy v oblasti dohledu a nápravy, a to ani na regionální či místní úrovni. Veškerá významná rizika pro zdraví, bezpečnost a základní práva zjištěná během vývoje a testování těchto systémů AI jsou následně přiměřeně zmírněna. Není-li účinné zmírnění možné, příslušné vnitrostátní orgány mají pravomoc zkušební proces nebo účast v sandboxu dočasně či trvale pozastavit a o tomto rozhodnutí informují úřad pro AI. Příslušné vnitrostátní orgány plní své pravomoci dohledu v mezích příslušného práva, přičemž při uplatňování právních ustanovení ohledně konkrétního projektu regulačního sandboxu pro AI využijí své diskreční pravomoci s cílem podpořit v Unii inovace v oblasti AI.
11. Regulativni peskovniki za UI ne vplivajo na pooblastila pristojnih organov, ki nadzirajo peskovnike, za nadzor ali popravne ukrepe, tudi na regionalni ali lokalni ravni ne. Vsa pomembna tveganja za zdravje in varnost ter temeljne pravice, prepoznana med razvojem in testiranjem takih sistemov UI, se ustrezno zmanjšajo. Nacionalni pristojni organi so pooblaščeni, da začasno ali trajno prekinejo postopek testiranja ali sodelovanje v peskovniku, če tveganj ni mogoče učinkovito zmanjšati, in o taki odločitvi obvestijo Urad za UI. Nacionalni pristojni organi svoja nadzorna pooblastila izvajajo v mejah ustreznega prava in pri izvajanju pravnih določb v zvezi z določenim projektom peskovnika za UI uporabljajo svoja diskrecijska pooblastila, da bi podprli inovacije na področju UI v Uniji.
12. Poskytovatelé a potenciální poskytovatelé účastnící se regulačního sandboxu pro AI nesou podle platného práva Unie a vnitrostátního práva v oblasti upravujícího odpovědnost i nadále odpovědnost za jakoukoli škodu způsobenou třetím stranám v důsledku experimentů, jež jsou v daném sandboxu prováděny. Nicméně v případě, že potenciální poskytovatelé dodržují konkrétní plán a podmínky účasti a řídí se v dobré víře pokyny vydanými příslušnými vnitrostátními orgány, orgány v případě porušení tohoto nařízení neuloží žádné správní pokuty. Pokud byly do dohledu nad systémem AI v sandboxu aktivně zapojeny další příslušné orgány, odpovědné za jiné unijní a vnitrostátní právo, a poskytly pro dodržování tohoto práva pokyny, neukládají se v souvislosti s předmětnými předpisy žádné správní pokuty.
12. Ponudniki in potencialni ponudniki, ki sodelujejo v regulativnem peskovniku za UI, so na podlagi veljavnega prava Unije in nacionalnega prava o odgovornosti še naprej odgovorni za škodo, povzročeno tretjim osebam zaradi eksperimentov, ki se izvajajo v peskovniku. Kadar pa potencialni ponudniki spoštujejo posebni načrt in pogoje za sodelovanje ter v dobri veri sledijo smernicam nacionalnih pristojnih organov, organi ne naložijo upravnih kazni za kršitev te uredbe. Kadar so bili v nadzor sistema UI v peskovniku dejavno vključeni drugi pristojni organi, odgovorni za drugo pravo Unije in nacionalno pravo, in so zagotovili smernice za skladnost, se v zvezi s tem pravom ne naložijo upravne kazni.
13. Regulační sandboxy pro AI jsou navrženy a zavedeny tak, aby v relevantních případech usnadňovaly přeshraniční spolupráci mezi příslušnými vnitrostátními orgány.
13. Regulativni peskovniki za UI so zasnovani in se izvajajo tako, da po potrebi olajšujejo čezmejno sodelovanje med pristojnimi nacionalnimi organi.
14. Příslušné vnitrostátní orgány koordinují své činnosti a spolupracují v rámci rady.
14. Nacionalni pristojni organi usklajujejo svoje dejavnosti in sodelujejo v okviru Odbora.
15. Příslušné vnitrostátní orgány informují úřad pro AI a radu o zřízení sandboxu a mohou je požádat o podporu a pokyny. Úřad pro AI zveřejní seznam stávajících i plánovaných sandboxů a aktualizuje jej s cílem podpořit v regulačních sandboxech pro AI větší interakci a podnítit přeshraniční spolupráci.
15. Pristojni nacionalni organi o vzpostavitvi peskovnika obvestijo Urad za UI in Odbor ter ju lahko zaprosijo za podporo in smernice. Urad za UI objavi seznam načrtovanih in obstoječih peskovnikov ter ga posodablja, da bi spodbudil večjo interakcijo v regulativnih peskovnikih za UI in čezmejno sodelovanje.
16. Příslušné vnitrostátní orgány předkládají úřadu pro AI a radě výroční zprávy, a to od jednoho roku po zřízení regulačního sandboxu pro AI a poté každý rok až do jeho ukončení, a závěrečnou zprávu. Tyto zprávy obsahují informace o pokroku při zavádění uvedených sandboxů a jejich výsledcích, včetně osvědčených postupů, incidentů, získaných zkušeností a doporučení ohledně jejich uspořádání a případně ohledně uplatňování a revize tohoto nařízení, včetně souvisejících aktů v přenesení pravomoci a prováděcích aktů, a ohledně uplatňování jiného práva Unie, nad nimiž příslušné orgány v rámci daného sandboxu provádí dohled. Příslušné vnitrostátní orgány tyto výroční zprávy nebo jejich shrnutí zpřístupní veřejnosti online. Komise tyto výroční zprávy v případě potřeby zohlední při plnění svých úkolů podle tohoto nařízení.
16. Pristojni nacionalni organi Uradu za UI in Odboru predložijo letna poročila, najprej eno leto po vzpostavitvi regulativnega peskovnika za UI, nato pa vsako leto do njegove ukinitve, tako kot tudi končno poročilo. Ta poročila vsebujejo informacije o napredku in rezultatih izvajanja teh peskovnikov, vključno z najboljšimi praksami, incidenti, pridobljenimi izkušnjami in priporočili o njihovi vzpostavitvi ter po potrebi o uporabi in morebitni reviziji te uredbe, vključno s povezanimi delegiranimi in izvedbenimi akti, in o uporabi drugega prava Unije, ki ga v peskovniku nadzorujejo pristojni organi. Pristojni nacionalni organi ta letna poročila ali njihove povzetke objavijo na spletu. Komisija pri izvajanju svojih nalog na podlagi te uredbe, kadar je primerno, upošteva ta letna poročila.
17. Komise vytvoří jednotné a vyhrazené rozhraní obsahující veškeré relevantní informace týkající se regulačních sandboxů pro AI s cílem umožnit zúčastněným stranám interakci s regulačními sandboxy pro AI a pokládat příslušným orgánům dotazy a žádat o nezávazné pokyny týkající se souladu inovativních produktů, služeb a obchodních modelů zahrnujících technologie AI s tímto nařízením, v souladu s čl. 62 odst. 1 písm. c). Komise svou činnost případně aktivně koordinuje s příslušnými vnitrostátními orgány.
17. Komisija razvije enotni in namenski vmesnik, ki vsebuje vse ustrezne informacije v zvezi z regulativnimi peskovniki za UI, da bi lahko deležniki vstopali v interakcijo z regulativnimi peskovniki za UI in vlagali poizvedbe pri pristojnih organih ter zaprošali za nezavezujoče smernice glede skladnosti inovativnih proizvodov, storitev in poslovnih modelov, ki vključujejo tehnologije UI, v skladu s členom 62(1), točka (c). Komisija se po potrebi proaktivno usklajuje s pristojnimi nacionalnimi organi.
Podrobná ustanovení pro regulační sandboxy pro AI a jejich fungování
Podrobnosti v zvezi z regulativnimi peskovniki za UI in njihovo delovanje
1. Aby se zabránilo roztříštěnosti v celé Unii, přijme Komise prováděcí akty, kterými stanoví podrobná ustanovení pro zřízení, vývoj, provádění a provoz regulačních sandboxů pro AI a pro dohled nad nimi. Prováděcí akty obsahují společné hlavní zásady týkající se těchto otázek:
1. Da bi se izognili razdrobljenosti po Uniji, Komisija sprejme izvedbene akte, v katerih določi podrobnosti za vzpostavitev, razvoj, izvajanje, delovanje in nadzor regulativnih peskovnikov za UI. Ti izvedbeni akti med drugim vsebujejo skupna načela o naslednjih elementih:
a)
kritéria způsobilosti a výběru pro účast na regulačním sandboxu pro AI;
(a)
merilih za upravičenost in izbor za sodelovanje v regulativnem peskovniku za UI;
b)
postupy pro podávání žádostí, účast, monitorování, ukončení účasti, jakož i ukončení samotného regulačního sandboxu pro AI, včetně plánu testování v sandboxu a výstupní zprávy;
(b)
postopkih za vlogo, sodelovanje, spremljanje, izstop iz regulativnega peskovnika za UI in njegovo prenehanje, vključno z načrtom peskovnika in poročilom o izstopu;
c)
podmínky vztahující se na účastníky.
(c)
pogojih, ki veljajo za udeležence.
Tyto prováděcí akty se přijímají přezkumným postupem podle čl. 98 odst. 2.
Ti izvedbeni akti se sprejmejo v skladu s postopkom pregleda iz člena 98(2).
2. Prováděcí akty uvedené v odstavci 1 zajistí následující:
2. Z izvedbenim aktom iz odstavka 1 se zagotovi:
a)
regulační sandboxy pro AI jsou otevřeny jakémukoli žádajícímu poskytovateli či potenciálnímu poskytovateli systému AI, který splňuje kritéria způsobilosti a výběru, která jsou transparentní a spravedlivá, a příslušné vnitrostátní orgány informují žadatele o svém rozhodnutí do tří měsíců od podání žádosti;
(a)
da so regulativni peskovniki za UI odprti za vse ponudnike in potencialne ponudnike sistema UI, ki izpolnjujejo pregledna in pravična merila za upravičenost in izbor, in da pristojni nacionalni organi vlagatelje obvestijo o svoji odločitvi v treh mesecih od vložitve vloge;
b)
regulační sandboxy pro AI umožňují široký a rovný přístup a drží krok s poptávkou po účasti v nich; poskytovatelé či potenciální poskytovatelé mohou rovněž podávat žádosti společně se subjekty zavádějícími systémy AI a jinými příslušnými třetími stranami;
(b)
da regulativni peskovniki za UI omogočajo širok in enak dostop ter sledijo povpraševanju po sodelovanju; ponudniki ali potencialni ponudniki lahko vloge predložijo tudi v partnerstvih z uvajalci in drugimi ustreznimi tretjimi osebami;
c)
podrobná ustanovení pro regulační sandboxy pro AI a podmínky pro ně v co největší míře podporují flexibilitu pro příslušné vnitrostátní orgány při zřizování a provozování jejich regulačních sandboxů pro AI;
(c)
da se s podrobnostmi in pogoji v zvezi z regulativnimi peskovniki za UI v največji možni meri podpira prožnost, ki pristojnim nacionalnim organom omogoča vzpostavitev in upravljanje njihovih regulativnih peskovnikov za UI;
d)
přístup k regulačním sandboxům pro AI je bezplatný pro malé a střední podniky, včetně podniků začínajících, aniž jsou dotčeny mimořádné náklady, které mohou příslušné vnitrostátní orgány vymáhat spravedlivým a přiměřeným způsobem;
(d)
da je dostop do regulativnih peskovnikov za UI za MSP, vključno z zagonskimi podjetji, brezplačen, brez poseganja v izredne stroške, ki jih lahko pristojni nacionalni organi izterjajo na pošten in sorazmeren način;
e)
prostřednictvím výsledků učení v regulačních sandboxech pro AI usnadňují poskytovatelům či potenciálním poskytovatelům plnění povinností posuzování shody podle tohoto nařízení a dobrovolné uplatňování kodexů chování uvedených v článku 95;
(e)
da se ponudnikom ali potencialnim ponudnikom z učnimi izidi regulativnih peskovnikov za UI pomaga pri izpolnjevanju obveznosti glede ugotavljanja skladnosti iz te uredbe in prostovoljni uporabi kodeksov ravnanja iz člena 95;
f)
regulační sandboxy pro AI usnadňují zapojení dalších příslušných subjektů v rámci ekosystému AI, jako jsou oznámené subjekty a normalizační organizace, malé a střední podniky, včetně začínajících podniků, podniky, inovátoři, testovací a experimentální zařízení, výzkumné a experimentální laboratoře a evropská centra pro digitální inovace, centra excelence a jednotliví výzkumní pracovníci, s cílem umožnit a usnadnit spolupráci s veřejným a soukromým sektorem;
(f)
da regulativni peskovniki za UI olajšujejo vključevanje drugih ustreznih akterjev v ekosistem UI, na primer priglašenih organov in organizacij za standardizacijo, MSP, vključno z zagonskimi podjetji, podjetij, inovatorjev, centrov za testiranje in eksperimentiranje, raziskovalnih in eksperimentalnih laboratorijev ter evropskih vozlišč za digitalne inovacije, centrov odličnosti, posameznih raziskovalcev, da bi omogočili in olajšali sodelovanje z javnim in zasebnimi sektorji;
g)
postupy, procesy a správní požadavky týkající se podávání žádostí, výběru, účasti v regulačním sandboxu pro AI a jeho opuštění jsou jednoduché, snadno srozumitelné a jasně sdělené s cílem usnadnit účast malých a středních podniků s omezenými právními a správními kapacitami, včetně podniků začínajících, a jsou dostupné v celé Unii, aby se zabránilo roztříštěnosti a aby účast v regulačním sandboxu pro AI zřízeném členským státem nebo evropským inspektorem ochrany údajů byla vzájemně a jednotně uznávána a měla v celé Unii stejné právní účinky;
(g)
da so postopki, procesi in upravne zahteve za vlogo, izbiro, sodelovanje in izstop iz regulativnega peskovnika za UI preprosti, lahko razumljivi in jasno predstavljeni, da bi olajšali udeležbo MSP, vključno z zagonskimi podjetji, z omejenimi pravnimi in upravnimi zmogljivostmi, ter da so racionalizirani po vsej Uniji, da bi preprečili razdrobljenost in da bi bila udeležba v regulativnem peskovniku za UI, ki ga vzpostavi država članica ali evropski nadzornik za varstvo podatkov, vzajemno in enotno priznana ter da bi imela enake pravne učinke po vsej Uniji;
h)
účast v regulačním sandboxu pro AI je omezena na dobu, která je přiměřená složitosti a rozsahu projektu, a která může být prodloužena příslušným vnitrostátním orgánem;
(h)
da je sodelovanje v regulativnem peskovniku za UI omejeno na obdobje, ki je primerno glede na kompleksnost in obseg projekta in ki ga lahko pristojni nacionalni organ podaljša;
i)
regulační sandboxy pro AI usnadňují vývoj nástrojů a infrastruktury pro testování, srovnávání, posuzování a vysvětlování aspektů systémů AI relevantních pro regulační učení, jako je přesnost, spolehlivost a kybernetická bezpečnost a rovněž opatření k omezení rizik pro lidská práva a společnost obecně.
(i)
da regulativni peskovniki za UI olajšujejo razvoj orodij in infrastrukture za testiranje, primerjalno analizo, ocenjevanje in razlago razsežnosti sistemov UI, ki so pomembne za regulativno učenje, na primer točnosti, robustnosti in kibernetske varnosti, pa tudi ukrepov za zmanjšanje tveganj, kar zadeva temeljne pravice in družbo na splošno.
3. Potenciální poskytovatelé v regulačních sandboxech pro AI, zejména malé a střední podniky a podniky začínající, jsou podle potřeby nasměrováni na služby před zaváděním, jako jsou pokyny k provádění tohoto nařízení, na další služby vytvářející přidanou hodnotu, jako je pomoc s normalizačními dokumenty a certifikací, testovací a experimentální zařízení, evropská centra pro digitální inovace a centra excelence.
3. Potencialni ponudniki v regulativnih peskovnikih za UI, zlasti MSP in zagonska podjetja, so po potrebi usmerjeni k storitvam pred uvedbo, kot so smernice o izvajanju te uredbe, k drugim storitvam z dodano vrednostjo, kot so pomoč pri dokumentih za standardizacijo in certificiranju, centri za testiranje in eksperimentiranje, evropska vozlišča za digitalne inovacije in centri odličnosti.
4. Pokud příslušné vnitrostátní orgány zvažují, že povolí testování v reálných podmínkách, nad nímž je vykonáván dohled v rámci regulačního sandboxu pro AI zřízeného podle tohoto článku, výslovně se s účastníky dohodnou na podmínkách tohoto testování, a zejména na vhodných zárukách s cílem chránit základní práva, zdraví a bezpečnost. V případě potřeby spolupracují s dalšími příslušnými vnitrostátními orgány s cílem zajistit jednotné postupy v celé Unii.
4. Kadar pristojni nacionalni organi presojajo o odobritvi testiranja v realnih razmerah, ki se nadzoruje v okviru regulativnega peskovnika za UI, ki se vzpostavi na podlagi tega člena, se z udeleženci izrecno dogovorijo o pogojih takega testiranja in zlasti o ustreznih zaščitnih ukrepih za varovanje temeljnih pravic, zdravja in varnosti. Kadar je primerno, sodelujejo z drugimi pristojnimi nacionalnimi organi, da bi zagotovili dosledne prakse po vsej Uniji.